| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | 2 | 3 | 4 | 5 | 6 | 7 |
| 8 | 9 | 10 | 11 | 12 | 13 | 14 |
| 15 | 16 | 17 | 18 | 19 | 20 | 21 |
| 22 | 23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Paper
- docker
- evaluation
- PostgreSQL
- Mac
- LLM
- numpy
- Laravel
- git
- 책갈피
- AI
- KAKAO
- Database
- Linux
- pytorch
- file
- ubuntu
- Windows
- pandas
- Converting
- Package
- list
- Container
- GitLab
- Flask
- format
- DB
- judge
- TORCH
- Python
Archives
- Today
- Total
Daily Develope
[Paper] Adaptive Mixtures of Local Experts (1991) 본문
최근 효율적인 트랜스포머 모델 학습 방법으로 사용되고 있는 MoE (Mixtures of Experts)의 기반이 되는 논문 중 하나로, 개념적인 부분만 해석 및 정리해보았습니다.
수식의 마크다운이 호환되지 않아 velog 링크로 대체합니다.
'AI' 카테고리의 다른 글
| [AI] jinaai Embedding 모델 샘플코드 (1) | 2024.12.03 |
|---|---|
| [AI] LLM Judge 적용 방법 정리 (0) | 2024.10.31 |
| [AI] 키워드/용어 정리 for research (0) | 2024.10.10 |
| [Article] OpenAI o1 간략 정리 (1) | 2024.10.02 |
| [LLM] llama 3 주요 정보 정리 (0) | 2024.04.24 |
Comments