일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Paper
- git
- AI
- docker
- pandas
- Laravel
- enV
- format
- pytorch
- Container
- numpy
- PostgreSQL
- judge
- CUDA
- Linux
- DB
- evaluation
- Database
- list
- Python
- Mac
- Package
- Windows
- Flask
- TORCH
- Converting
- GitLab
- file
- KAKAO
- LLM
Archives
- Today
- Total
Daily Develope
[Paper] Adaptive Mixtures of Local Experts (1991) 본문
최근 효율적인 트랜스포머 모델 학습 방법으로 사용되고 있는 MoE (Mixtures of Experts)의 기반이 되는 논문 중 하나로, 개념적인 부분만 해석 및 정리해보았습니다.
수식의 마크다운이 호환되지 않아 velog 링크로 대체합니다.
'AI' 카테고리의 다른 글
[AI] jinaai Embedding 모델 샘플코드 (1) | 2024.12.03 |
---|---|
[AI] LLM Judge 적용 방법 정리 (0) | 2024.10.31 |
[AI] 키워드/용어 정리 for research (0) | 2024.10.10 |
[Article] OpenAI o1 간략 정리 (1) | 2024.10.02 |
[LLM] llama 3 주요 정보 정리 (0) | 2024.04.24 |
Comments