일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- PostgreSQL
- LLM
- Paper
- Laravel
- DB
- AI
- Mac
- docker
- pytorch
- format
- GitLab
- enV
- KAKAO
- CUDA
- Windows
- evaluation
- Converting
- Package
- list
- numpy
- Flask
- Python
- file
- Linux
- git
- Container
- Database
- judge
- TORCH
- pandas
- Today
- Total
목록AI (16)
Daily Develope
모르면 Adam(Adaptive Moment Estimation) 기반 Optimizer 사용하자! 용어 Adam (Adaptive Moment Estimation) 경사 하강법을 기반으로 하되, gradient 모멘텀과 학습량 증가에 따른 학습률 감소 문제를 개선한 최적화 알고리즘 AdamW Adam 옵티마이저에 가중치 감쇠(weight decay)를 적용해 오버피팅(overfitting)을 완화한 최적화 알고리즘 torch.optim.AdamW(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False) params: 최적화할 파라미터들의 iterable lr: 학습률(learning rate), 기본값은 0.001 b..
Huggingface Model/Tokenizer 설치 pip install transformers사용 예시 Tokenizer 선언 (불러오기) from transformers import AutoTokenizer model = "klue/bert-base" tokenizer = AutoTokenizer.from_pretrained(model_checkpoint)Encoding (Tokenize-토큰화) & Decoding (디코딩) ### [pre-condition] Tokenizer 선언 이후 ### Encoding my_data = "text of target data" tokenized_input = tokenizer(my_data, padding='max_length', trunc..
처음에는 윈도우에 설치해 사용하려고 했으나 nccl 오류가 계속 발생해서 원인을 찾아보니, Pytorch의 Distributed 패키지가 윈도우에서는 prototype이라 제대로 지원이 안되고 있어 발생한 것으로 추정된다. (링크) 그래픽 드라이버도 밀어보고 파이썬 버전도 맞춰보고 무슨 짓을 해도 같은 오류라서 결국 WSL 환경에서 실행했고, 결과적으로 잘 동작하는 것을 확인했으며 아래는 그 내용을 정리한 것이다. 준비사항 WSL2 CUDA Toolkit 11.8 Anaconda / Miniconda Python 3.8 ~ 3.10 Pytorch 절차 WSL2 설치 및 접속 (생략) CUDA 설치 본인의 그래픽카드에서 지원하는 버전과 운영체제 환경에 맞춰서 CUDA 설치 진행 설치 코드 - CUDA 설치..
생성형 AI 정리