본문 바로가기

LLM8

Model Context Protocol (MCP) 2024년 11월, Anthropic이 Model Context Protocol(MCP) 개념을 오픈소스로 공개한 이후, 코딩 관련 유튜브나 LLM(AI 언어 모델) 기반 기술들을 살펴보다 보면 MCP라는 용어를 자주 접하게 됩니다. 특히 RAG(Retrieval-Augmented Generation), LLM 에이전트, 멀티 에이전트 시스템 등 다양한 AI 응용 사례에서 MCP는 점점 더 중요한 개념으로 자리 잡고 있죠. 따라서 이번 포스팅에서는 최근 주목받고 있는 Model Context Protocol(MCP)에 대해서 개념 중심으로 소개해보려 합니다.1. Model Context Protocol (MCP) 정의MCP는 LLM 애플리케이션과 외부 데이터 소스, 다양한 도구들이 서로 원활하게 통합되도.. 2025. 4. 2.
RLHF (Reinforcement Learning from Human Feedback) 이전 포스팅(03.18, by lt.mj)에서는 '효율적인 LLM 튜닝을 위한 PEFT기법'에 대해서 알아보았습니다. PEFT는 리소스와 시간의 제약으로 인해 AI 모델 개발자가 LLM을 직접 파인튜닝하기 어려울 때, 효율적으로 성능을 개선하는 방법으로 활용되었는데요 이번 포스팅에서는 우리에게 친숙한 OpenAI의 ChatGPT가 어떻게 '사용자 친화적인 대화형 AI'로 자리 잡을 수 있었는지, 그 비결인 RLHF(Reinforcement Learning from Human Feedback) 기법을 중심으로 살펴보겠습니다 1. RLHF란?  RLHF는 사람의 피드백(Human Feedback)을 사용하여 강화 학습(Reinforcement Learning)을 개선하는 방법입니다. 간단히 말해, '사람이 .. 2025. 3. 27.
Large Language Models (LLMs) 이론 및 등장 배경 이번 포스팅에서는 대규모 언어 모델(Large Language Models, LLMs)의 바탕이 되는 트랜스포머 모델의 등장 배경과 LLM이 나올 수 있었던 이유에 대해서 알아보도록 하겠습니다.1. 기존 순환신경망 (Recurrent Neural Network)의 한계와 트랜스포머의 등장   LLM은 텍스트를 인식하고 생성하는 등의 작업을 수행할 수 있는 일종의 생성형 인공지능(Generative AI) 입니다. 기존의 AI 모델들과 달리 LLM은 방대한 양의 텍스트 데이터를 학습하여 뛰어난 언어 이해 및 생성 능력을 갖추게 되었습니다. 이러한 발전이 가능했던 핵심 요인은 바로 '트랜스포머(Transformer)' 아키텍처의 등장입니다.  트랜스포머 모델은 2017년 구글 연구팀이 발표한 "Attent.. 2025. 3. 14.
LangChain의 핵심 아키텍처와 기능 살펴보기 최근 인공지능 기술이 빠르게 발전하면서 대형 언어 모델(LLM, Large Language Model) 을 활용한 애플리케이션이 활발히 개발되고 있습니다. 챗봇, 문서 요약, 코드 생성, 검색 증강 생성(RAG) 등 다양한 분야에서 LLM이 활용되고 있지만, 이를 효과적으로 개발하고 관리하는 것은 여전히 복잡한 작업입니다. 이러한 문제를 해결하기 위해 등장한 것이 바로 LangChain입니다. LangChain은 LLM 애플리케이션 개발을 손쉽게 할 수 있도록 돕는 프레임워크로, 다음과 같은 기능을 제공합니다.Haystack, RAGFlow는 RAG를 최적화하는 데 집중한 프레임워크였다면 LangChain은 RAG뿐만 아니라 챗봇, 자동화된 에이전트, 워크플로우 체인 등 다양한 기능을 포함하는 LLM 개.. 2025. 3. 12.
ReRanker 이전 포스팅에서는 Retrieval Augmented Generation(RAG)의 개념과 구조에 대해서 알아보았습니다. 이번 포스팅에서는 RAG 파이프라인의 성능을 한 단계 높여주는 핵심 컴포넌트인 ReRanker에 대해 알아보겠습니다.1. ReRanker란?  ReRanker는 이름 그대로 '순위 재조정(Re-Ranking)'을 담당하는 컴포넌트입니다. 이는 RAG 파이프라인에서 초기 검색 단계에서 찾아낸 문서들의 순위를 더 정교하게 재평가하여 관련성이 가장 높은 문서들을 선별해내는 역할을 합니다. 2. Basic RAG Pipeline의 문제점  먼저, 이전 포스팅에서 RAG의 핵심 요소로 두 가지의 모델(임베딩 모델, 응답 생성 모델)과 그리고 Retrieval 알고리즘(유사도 기반 문서 검색 알.. 2025. 3. 6.
RAG 프레임워크 비교하기: Haystack, RAGFlow, txtai Retrieval-Augmented Generation(RAG)은 대형 언어 모델(LLM)의 성능을 향상시키기 위해 외부 지식 소스를 활용하는 AI 프레임워크입니다. 이 기술은 검색 시스템과 생성 모델의 장점을 결합하여 더욱 정확하고 맥락에 맞는 최신 응답을 생성할 수 있도록 합니다. RAG에 대한 자세한 설명은 이전 포스팅을 참고하세요!2025.02.28 - [AI] - Retrieval Augmented Generation (RAG)  기본적인 RAG의 작동 방식은 다음과 같습니다:검색 단계(Retrieval): 외부 데이터베이스 또는 문서 저장소에서 관련 정보를 검색합니다.생성 단계(Generation): 검색된 정보를 LLM의 입력으로 사용하여 더 정밀한 답변을 생성합니다.이러한 방식을 통해 RA.. 2025. 3. 4.