Google Colab에서 Instruction Fine-tuning 연습 (PEFT/QLoRA)
- 구글 젬마(gemma-2b) 모델, KoAlpaca 한국어 데이터셋
구글 오픈소스 LLM인 젬마(gemma:2b) 모델을 구글 코랩 환경에서 T4 GPU를 이용하여 파인튜닝하는 예제입니다.
KoAlpaca 한국어 데이터셋을 구글 젬마 모델의 Instruction 포맷으로 변환하고
PEFT (QLoRA) 기법으로 파인튜닝하는 과정을 다룹니다.
모델 성능을 확보하려면, 학습 과정에서 VRAM이 넉넉한 고사양 GPU가 필요합니다.
실습파일(Github) : https://github.com/tsdata/langchain-ollama/blob/main/006_gemma_peft_qlora_colab/gemma_finetuning_koalpaca.ipynb
langchain-ollama/006_gemma_peft_qlora_colab/gemma_finetuning_koalpaca.ipynb at main · tsdata/langchain-ollama
Contribute to tsdata/langchain-ollama development by creating an account on GitHub.
github.com
[동영상] https://www.youtube.com/watch?v=McTuvQCXbRY
반응형
'AI 인공지능과 활용' 카테고리의 다른 글
| 내 컴퓨터에서 쓸 수 있는 AI 모델 확인, LLMFIT (1) | 2026.03.14 |
|---|---|
| GPT 5.4 발표했네요, 성능은? (0) | 2026.03.06 |
| OpenClaw 사용, 자동화 사례 모음? (0) | 2026.03.03 |
| Voicebox: Qwen3-TTS 기반, 오픈소스 음성 통신 플랫폼 (0) | 2026.03.03 |
| LLM pretrain해서 베이스 모델 만들기. LLM DeepDive 1-3 (0) | 2026.03.02 |
