Google Colab에서 Instruction Fine-tuning 연습 (PEFT/QLoRA) 

- 구글 젬마(gemma-2b) 모델, KoAlpaca 한국어 데이터셋

 

구글 오픈소스 LLM인 젬마(gemma:2b) 모델을 구글 코랩 환경에서 T4 GPU를 이용하여 파인튜닝하는 예제입니다.

KoAlpaca 한국어 데이터셋을 구글 젬마 모델의 Instruction 포맷으로 변환하고

PEFT (QLoRA) 기법으로 파인튜닝하는 과정을 다룹니다.

모델 성능을 확보하려면, 학습 과정에서  VRAM이 넉넉한 고사양 GPU가 필요합니다.

 

실습파일(Github) : https://github.com/tsdata/langchain-ollama/blob/main/006_gemma_peft_qlora_colab/gemma_finetuning_koalpaca.ipynb

 

langchain-ollama/006_gemma_peft_qlora_colab/gemma_finetuning_koalpaca.ipynb at main · tsdata/langchain-ollama

Contribute to tsdata/langchain-ollama development by creating an account on GitHub.

github.com

 

 

[동영상] https://www.youtube.com/watch?v=McTuvQCXbRY

 

 

반응형

+ Recent posts