반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 코드오류
- non-parametric model
- 모수적 모델
- 데코레이터
- nibabel
- decorater
- nlp
- precision #정밀도 #민감도 #sensitivity #특이도 #specifisity #F1 score #dice score #confusion matrix #recall #PR-AUC #ROC-AUC #PR curve #ROC curve #NPV #PPV
- tabular
- 유전역학
- deep learning #segmentation #sementic #pytorch #UNETR #transformer #UNET #3D #3D medical image
- Phase recognition
- 확산텐서영상
- 파이썬
- 비모수적 모델
- paper review
- Surgical video analysis
- 확산강조영상
- TeCNO
- PYTHON
- words encoding
- parrec
- TabNet
- monai
- nfiti
- MRI
- parametric model
- genetic epidemiology
- MICCAI
- parer review
Archives
- Today
- Total
목록words encoding (1)
KimbgAI
[NLP] 다양한 word encoding 방법 (bag of words, N-gram, TF-IDF)
이 내용은 유투브 허민석님의 자료를 공부하며 정리하기 위해 작성된 내용임을 밝힙니다. https://www.youtube.com/@TheEasyoung bag of words 란? 단어는 머신러닝 모델에 입력으로 사용하기 위해 숫자로 변환되어야함. 이를 위한 다양한 방법들이 있는데, 그 중 가장 기초적인 것이 바로 bag of words 라는 것으로 굉장히 심플하다. 전체 데이터셋에서 나타나는 모든 단어 기반으로 임의의 문장을 원핫인코딩(one-hot encoding)하여 나타낸 것. 가령, 아래와 같이 나타내는 것이다. 전체 데이터셋에서 나타나는 각각의 유니크한 문자들을 나열하고, 어떤 문장을 이루는 단어들이 해당 문장에 몇번 나타났는지 표기하는 것이다. 이로써 다른 문장들과의 유사성도 계산할 수 있다..
카테고리 없음
2024. 4. 4. 15:27