반응형
Llama 3 vs Phi 3 성능 비교
Meta의 Llama3 모델과 Microsoft의 Phi 3 모델의 성능을 비교하기 위해 첫번째 파트로 Langchain과 Llama index 툴의 차이점을 살펴봅니다. 기본적으로 이런 LLM 모델들을 사용할때 RAG (검색하고 답변 찾는 기능)의 구조가 어떻게 되어있는지, 코드로 어떻게 구현하는지부터 설명드립니다.
다음 영상에서는 본격적으로 두 모델의 성능 비교를 합니다.
Langchain: https://python.langchain.com/docs/get...
Llama-index: https://docs.llamaindex.ai/en/stable/
00:00 인트로
00:59 Langchain vs Llama-index (Ollama가 아닙니다!)
03:16 Llama 3 vs Phi 3
06:20 벤치마크 결과 비교
07:52 LLM 앱 구조 이해하기
12:55 Langchain 코드 구조 이해하기
19:32 Llama-index 코드 구조 이해하기
https://www.youtube.com/watch?v=O4RoqVTPvSc
반응형
'AI 머신러닝' 카테고리의 다른 글
인공지능 활용의 끝판왕 | AI EXE GUI (0) | 2024.05.25 |
---|---|
Do you know Ollama? 내 컴퓨터에서 대규모 언어 모델을 돌리자! (0) | 2024.05.19 |
llama3로 agent 만드는 방법 + 8B 오픈 모델로 Agent 구성 (0) | 2024.05.04 |
Llama-3 기반 실용적인 한국어 모델 3종 소개 및 코랩 실습 (라마3) (0) | 2024.05.01 |
MLOps 모델 서빙 아키텍처 (1) | 2024.04.28 |