일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Python
- Container
- Windows
- pandas
- list
- GitLab
- DB
- Linux
- evaluation
- Paper
- Converting
- Database
- format
- Package
- AI
- CUDA
- KAKAO
- Laravel
- numpy
- docker
- pytorch
- PostgreSQL
- enV
- Mac
- TORCH
- git
- Flask
- file
- judge
- LLM
Archives
- Today
- Total
Daily Develope
[AI] Optimizer 옵티마이저 참조 본문
모르면 Adam(Adaptive Moment Estimation) 기반 Optimizer 사용하자!
용어
Adam (Adaptive Moment Estimation)
경사 하강법을 기반으로 하되, gradient 모멘텀과 학습량 증가에 따른 학습률 감소 문제를 개선한 최적화 알고리즘
AdamW
Adam 옵티마이저에 가중치 감쇠(weight decay)를 적용해 오버피팅(overfitting)을 완화한 최적화 알고리즘
torch.optim.AdamW(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)
- params: 최적화할 파라미터들의 iterable
- lr: 학습률(learning rate), 기본값은 0.001
- betas: 감마 값들 (beta1, beta2)로 이루어진 튜플, 기본값은 (0.9, 0.999)
- eps: 분모를 0으로 나누는 것을 방지하기 위한 작은 상수값, 기본값은 1e-08
- weight_decay: 가중치 감쇠(L2 정규화) 계수, 기본값은 0
- amsgrad: AMSGrad 알고리즘을 사용할지 여부, 기본값은 False
Weight Decay (감쇠 가중치)
weight를 업데이터 할 때 이전 weight 값을 일정 비율 감소시켜 오버피팅을 방지하기 위해 사용
참조
'AI' 카테고리의 다른 글
[Article] LLM Judge (0) | 2024.01.03 |
---|---|
[Paper] 2023 gemini technical report (LLM/MMLU 관련내용) 정리 (1) | 2023.12.12 |
[AI] Hugginface, sklearn, torch 샘플 코드 및 설명 (0) | 2023.10.17 |
[AI] CUDA & PyTorch Windows 설치 / 환경설정 (with WSL2) (0) | 2023.08.01 |
[AI] Research 시황 조사 (0) | 2023.04.05 |
Comments