본문 바로가기

전체 글11

LangChain의 핵심 아키텍처와 기능 살펴보기 최근 인공지능 기술이 빠르게 발전하면서 대형 언어 모델(LLM, Large Language Model) 을 활용한 애플리케이션이 활발히 개발되고 있습니다. 챗봇, 문서 요약, 코드 생성, 검색 증강 생성(RAG) 등 다양한 분야에서 LLM이 활용되고 있지만, 이를 효과적으로 개발하고 관리하는 것은 여전히 복잡한 작업입니다. 이러한 문제를 해결하기 위해 등장한 것이 바로 LangChain입니다. LangChain은 LLM 애플리케이션 개발을 손쉽게 할 수 있도록 돕는 프레임워크로, 다음과 같은 기능을 제공합니다.Haystack, RAGFlow는 RAG를 최적화하는 데 집중한 프레임워크였다면 LangChain은 RAG뿐만 아니라 챗봇, 자동화된 에이전트, 워크플로우 체인 등 다양한 기능을 포함하는 LLM 개.. 2025. 3. 12.
ReRanker 이전 포스팅에서는 Retrieval Augmented Generation(RAG)의 개념과 구조에 대해서 알아보았습니다. 이번 포스팅에서는 RAG 파이프라인의 성능을 한 단계 높여주는 핵심 컴포넌트인 ReRanker에 대해 알아보겠습니다.1. ReRanker란?  ReRanker는 이름 그대로 '순위 재조정(Re-Ranking)'을 담당하는 컴포넌트입니다. 이는 RAG 파이프라인에서 초기 검색 단계에서 찾아낸 문서들의 순위를 더 정교하게 재평가하여 관련성이 가장 높은 문서들을 선별해내는 역할을 합니다. 2. Basic RAG Pipeline의 문제점  먼저, 이전 포스팅에서 RAG의 핵심 요소로 두 가지의 모델(임베딩 모델, 응답 생성 모델)과 그리고 Retrieval 알고리즘(유사도 기반 문서 검색 알.. 2025. 3. 6.
RAG 프레임워크 비교하기: Haystack, RAGFlow, txtai Retrieval-Augmented Generation(RAG)은 대형 언어 모델(LLM)의 성능을 향상시키기 위해 외부 지식 소스를 활용하는 AI 프레임워크입니다. 이 기술은 검색 시스템과 생성 모델의 장점을 결합하여 더욱 정확하고 맥락에 맞는 최신 응답을 생성할 수 있도록 합니다. RAG에 대한 자세한 설명은 이전 포스팅을 참고하세요!2025.02.28 - [AI] - Retrieval Augmented Generation (RAG)  기본적인 RAG의 작동 방식은 다음과 같습니다:검색 단계(Retrieval): 외부 데이터베이스 또는 문서 저장소에서 관련 정보를 검색합니다.생성 단계(Generation): 검색된 정보를 LLM의 입력으로 사용하여 더 정밀한 답변을 생성합니다.이러한 방식을 통해 RA.. 2025. 3. 4.
Retrieval Augmented Generation (RAG) 1. Retrieval-Augmented Generation   검색 증강 생성(RAG, Retrieval-Augmented Generation)은 대규모 언어 모델(LLM)의 응답 생성 능력과 외부 지식 검색 기능을 결합한 기술입니다. 최근 다양한 선도 기업들이 RAG 기반 파이프라인을 구축하여 서비스에 접목함으로써, 사용자에게 더욱 정확하고 친화적인 서비스를 제공하는 추세가 확산되고 있습니다.기존 LLM의 한계와 미세 조정(fine-tuning)의 과제RAG는 기존 LLM이 가진 여러 한계점을 해결하기 위해 등장했습니다. LLM은 다음과 같은 문제점들을 갖고 있습니다정보의 최신성 문제: 학습한 시점의 데이터 이후의 정보를 알지 못함도메인 특화 지식의 부족: 특정 분야의 전문적 지식 부족할루시네이션: .. 2025. 2. 28.
LLM 서빙을 위한 오픈소스 서비스 비교하기 ChatGPT, GPT-4 등 대규모 언어 모델(LLM, Large Language Model)이 빠르게 발전하면서 많은 주목을 받고 있습니다. 하지만 기존의 클라우드 기반 LLM은 API 사용량에 따라 비용이 급격히 증가할 수 있고 데이터 프라이버시 문제로 인해 민감한 정보 또한 외부 서버에 의존해야 한다는 한계가 있습니다.  이러한 문제를 해결하기 위해 최근에는 LLM을 자체적으로 서빙할 수 있는 다양한 오픈소스 소프트웨어가 등장하면서 이를 활용한 새로운 서비스들도 빠르게 출시되고 있습니다. 오픈소스 LLM은 자체 서버에서 데이터를 처리하기 때문에 보안성과 개인정보 보호 측면에서 유리하며, 로컬 또는 클라우드 인프라에 직접 배포하여 운영할 수 있어 장기적으로 비용 절감 효과도 기대할 수 있습니다. 또.. 2025. 2. 25.