일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- words encoding
- MICCAI
- 확산강조영상
- 확산텐서영상
- 모수적 모델
- 유전역학
- 비모수적 모델
- MRI
- nlp
- Surgical video analysis
- TeCNO
- deep learning #segmentation #sementic #pytorch #UNETR #transformer #UNET #3D #3D medical image
- TabNet
- non-parametric model
- parametric model
- 코드오류
- paper review
- genetic epidemiology
- PYTHON
- monai
- tabular
- parrec
- precision #정밀도 #민감도 #sensitivity #특이도 #specifisity #F1 score #dice score #confusion matrix #recall #PR-AUC #ROC-AUC #PR curve #ROC curve #NPV #PPV
- decorater
- parer review
- 파이썬
- 데코레이터
- Phase recognition
- nfiti
- nibabel
- Today
- Total
목록machine learning (19)
KimbgAI
V-Net: Fully Convolutional Neural Networks for Volumetric Medical Image Segmentation 논문은 아래 링크 참조 https://arxiv.org/abs/1606.04797 VNet은 UNet에서 영감을 받아 만들어진 architecture로써 구조가 상당히 비슷하다. CT나 MRI같은 image sequences data들은 2d보다 3d 그 자체로 분석했을때 유의미한 결과를 얻을 수 있는 부분이 많다. 왜냐하면, 어떤 한 slice 이미지가 직전, 직후 slice 이미지와의 연관성이 매우 높기 때문이다. 3d convolution은 이러한 장점을 가지고 연산할 수 있다. (연산량이 매우 많은 것은 단점..) 그림에서 볼수 있듯이, UNet과..
본 내용은 Brain MRI를 다양한 atlas로 segmentation을 해주는 tool에 대한 사용 설명을 담고 있습니다. CAT12를 사용하여 autometic하게 segmentation을 한 결과를 보시면.. 구성은 아래와 같습니다. A. CAT12이란? B. CAT12을 사용하기 위한 matlab 설치 C. Brainstorm 설치 (with SPM, CAT) D. CAT12 사용방법 E. 결과 확인 및 활용 A. CAT12이란? - CAT는 Computational Anatomy Toolbox의 약자로서, Brain image를 VBM (Voxel-based morphometry), DBM (Deformation-based morphometry), SBM (Surface-based morpho..
U-Net에 대한 간략한 내용이 궁금하신 분은 지난 포스팅을 참고해주시면 되겠습니다~ https://kimbg.tistory.com/16?category=578326 [ML] U-Net(2015.05); Convolutional Networks for Biomedical Image Segmentation 요약 및 코드 구현 U-Net(2015.05); Convolutional Networks for Biomedical Image Segmentation 원문: https://arxiv.org/abs/1505.04597 본 리뷰는 Semantic Segmentation의 기술 동향을 살펴보며, 핵심 아이디어와 .. kimbg.tistory.com 1. 핵심 아이디어 구현 1) Using mirror padd..
FCN 모델에 관련된 대략적인 내용은 아래 링크를 통해 확인하시면 되겠습니다. :) https://kimbg.tistory.com/15?category=578326 [ML] FCN(2014.11); Fully Convolutional Networks for Semantic Segmentation 요약 및 코드 구현 FCN(2014.11); Fully Convolutional Networks for Semantic Segmentation 원문: https://arxiv.org/abs/1411.4038 본 리뷰는 Semantic Segmentation의 기술 동향을 살펴보며, 핵심 아이디어와 Contributions을.. kimbg.tistory.com 본 내용의 구성은 다음과 같다. 1. FCN 구현 방법..
오픈 데이터셋 중 CIFAR10(32x32)보다 고해상도의 간단한 Classification task를 위한 데이터셋을 찾다가 스탠포드에서 제공해주는 STL10이라는 데이터셋을 찾을 수 있었다. Data overview - train set: 5,000, test set: 8,000, unlabelled: 100,000 - 10 classes: airplane, bird, car, cat, deer, dog, horse, monkey, ship, truck - Images are 96x96 pixels, color - 500 training images per class (10 pre-defined folds) 데이터에 관한 더 자세한 내용은 아래 링크를 통해서 확인할 수 있다. https://ai.st..
U-Net(2015.05); Convolutional Networks for Biomedical Image Segmentation 원문: https://arxiv.org/abs/1505.04597 본 리뷰는 Semantic Segmentation의 기술 동향을 살펴보며, 핵심 아이디어와 Contributions을 정리하고, 간단한 코드 구현을 통해 살펴보고자 한다. 아래 그림과 같이 architecture의 형태가 U자 모양을 하고 있어 U-Net이라고 네이밍되었다. U-Net은 FCN과 마찬가지로 skip architecture로 구성하여 feature map의 위치정보를 활용하였다는 점에서 FCN과 전반적인 구조는 크게 다르지 않기 때문에 architecture에 대한 내용은 그림으로 대체한다. 하지..
FCN(2014.11); Fully Convolutional Networks for Semantic Segmentation 원문: https://arxiv.org/abs/1411.4038 본 리뷰는 Semantic Segmentation의 기술 동향을 살펴보며, 핵심 아이디어와 Contributions을 정리하고, 간단한 코드 구현을 통해 살펴보고자 한다. 주요 Contribution은 다음과 같다. 1. Fully convolutionalization - ILSVRC(Imagenet Large Scale Visual Recognition Challenge, 이하 이미지넷)에서 좋은 성적을 보였던 기존 CNN기반 모델(VGG)을 Backbone으로 구성하여 목적에 맞게 변형시켰다. - 이 과정에서 기존 ..
tensorflow를 주로 사용하다가 요즘 pytorch를 사용하려다보니 기본적인 것에서부터 정리가 필요하다고 느껴 남겨놓는다. pytorch에서 제공해주는 CrossEntorpyLoss function에는 softmax가 기본적으로 결합되어있기 때문에 model의 logit에 softmax를 따로 설정해주지 않아도 된다. 즉, torch.nn.CrossEntropyLoss() 은 torch.nn.LogSoftmax() 과 torch.nn.NLLLoss() 의 결합이다. 코드로 살펴보자 # CrossEntropyLoss 사용 (Class=3) import torch.nn as nn import torch from torch.nn import functional as F criterion = nn.Cros..
Segmentation task를 진행하던 중에 전처리 과정에서 디버깅 이슈가 있어 남기고자 한다. 문제는 resize하면서 dtype 뿐만 아니라 실제 value도 달라진다는 것! 별일은 아니고, label의 dtype이 int일때 resize을 하게되면 float형태로 변형되는 경우가 있어, 한번더 int로 바꿔주는 과정이 필요하다는 것이다. 발생 원인은 resize하면서 interpolation될때 smooth 과정 중에 float으로 변화되는 것 같다. 코드로 살펴보자 확인해보면 Annotation은 0, 1, 2의 값으로 잘 나타나있다. 아래는 resize한 결과이다. annotation의 unique 값을 보면 상당히 다채롭게(?) 되어있다 ㅎㅎ;; 해결방법은.. 아래와 같이 한줄 추가해주면 ..