반응형
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- parrec
- 확산텐서영상
- paper review
- 비모수적 모델
- MICCAI
- words encoding
- tabular
- PYTHON
- nlp
- 파이썬
- genetic epidemiology
- non-parametric model
- nibabel
- deep learning #segmentation #sementic #pytorch #UNETR #transformer #UNET #3D #3D medical image
- decorater
- TeCNO
- 코드오류
- Phase recognition
- TabNet
- 확산강조영상
- 모수적 모델
- precision #정밀도 #민감도 #sensitivity #특이도 #specifisity #F1 score #dice score #confusion matrix #recall #PR-AUC #ROC-AUC #PR curve #ROC curve #NPV #PPV
- 유전역학
- MRI
- monai
- 데코레이터
- parer review
- parametric model
- nfiti
- Surgical video analysis
Archives
- Today
- Total
목록tqdm #deep learning #dataloader #jupyter #notebook #ipywidgets (1)
KimbgAI

tqdm은 반복문에서 현재 어느 정도까지 진행이 되었는지 시각적으로 나타낼 수 있어 인내심을 길러주는데 아주 유용하다 특히나, pytorch에서 dataloader를 활용할때 자주 사용되는데, 여러 옵션을 넣어주면 더 편하게 볼 수 있어 좋다. from tqdm.notebook import tqdm import time dataloader = range(100) epoch_iterator = tqdm(iters, desc="Training (X / X Steps) (loss=X.X)", dynamic_ncols=True) global_step, max_iterations, loss = 0, 100, 3 for cnt, i in enumerate(epoch_iterator): time.sleep(0.1) ..
python
2022. 11. 7. 18:11