[ Distillation - 블로그 ]
https://baeseongsu.github.io/posts/knowledge-distillation/
딥러닝 모델 지식의 증류기법, Knowledge Distillation
A minimal, portfolio, sidebar, bootstrap Jekyll theme with responsive web design and focuses on text presentation.
baeseongsu.github.io
이 블로그를 보고 작성했습니다.
1) 증류라는 뜻은 액체를 기체로 만든 것을 다시 액체로 만드는 작업
2) 마찬가지로 학습된 큰 모델로부터 지식을 추출하여 작은 모델로 가져오는 작업이다.
< Knowledge Distillation은 도대체 왜 등장했을까? >
[ 문제 상황 ]
1) 딥러닝 모델을 배포하여 서비스로 만들고 싶다.
2) 기존의 딥러닝 모델은 고성능의 하드웨어에서 작동해야한다.
3) 하지만 스마트폰등의 서비스가 실행되는 환경은 그렇게 고성능이 아니다.
[ 해결책 ]
1) 배포는 작은 모델을 배포하고 ( student model )
2) 중앙의 큰 모델이 학습한 일반화 능력을 전달해준다 ( teacher model )
< Knowledge Distillation의 기원과 참고 >
NIPS 2014 workshop에서 발표한 논문 “Distilling the Knowledge in a Neural Network”
[ 간단한 implementation link ]
- https://github.com/peterliht/knowledge-distillation-pytorch (pytorch)
- https://github.com/DushyantaDhyani/kdtf (tensorflow)
'학부연구 MLVC LAB' 카테고리의 다른 글
Deep Compression 논문 리뷰 (0) | 2025.01.24 |
---|---|
3D Gaussian Splatting Code Run (0) | 2025.01.06 |
3D Gaussian Splatting 논문 리뷰 (0) | 2024.11.05 |
AIM 2024 Sparse Neural Rendering Challenge:Dataset and Benchmark (0) | 2024.09.29 |
SIREN 논문 리뷰 (0) | 2024.09.25 |