반응형

Llama 3 vs Phi 3 성능 비교

 

 

Meta의 Llama3 모델과 Microsoft의 Phi 3 모델의 성능을 비교하기 위해 첫번째 파트로 Langchain과 Llama index 툴의 차이점을 살펴봅니다. 기본적으로 이런 LLM 모델들을 사용할때 RAG (검색하고 답변 찾는 기능)의 구조가 어떻게 되어있는지, 코드로 어떻게 구현하는지부터 설명드립니다. 

다음 영상에서는 본격적으로 두 모델의 성능 비교를 합니다. 
Langchain: https://python.langchain.com/docs/get...
Llama-index: https://docs.llamaindex.ai/en/stable/

00:00 인트로 
00:59 Langchain vs Llama-index (Ollama가 아닙니다!)
03:16 Llama 3 vs Phi 3
06:20 벤치마크 결과 비교 
07:52 LLM 앱 구조 이해하기 
12:55 Langchain 코드 구조 이해하기 
19:32 Llama-index 코드 구조 이해하기

 

 

LlamaIndex - LlamaIndex

Welcome to LlamaIndex 🦙 ! LlamaIndex is a framework for building context-augmented LLM applications. Context augmentation refers to any use case that applies LLMs on top of your private or domain-specific data. Some popular use cases include the followi

docs.llamaindex.ai

 

https://www.youtube.com/watch?v=O4RoqVTPvSc

 

반응형

+ Recent posts