AI11 Model Context Protocol (MCP) 2024년 11월, Anthropic이 Model Context Protocol(MCP) 개념을 오픈소스로 공개한 이후, 코딩 관련 유튜브나 LLM(AI 언어 모델) 기반 기술들을 살펴보다 보면 MCP라는 용어를 자주 접하게 됩니다. 특히 RAG(Retrieval-Augmented Generation), LLM 에이전트, 멀티 에이전트 시스템 등 다양한 AI 응용 사례에서 MCP는 점점 더 중요한 개념으로 자리 잡고 있죠. 따라서 이번 포스팅에서는 최근 주목받고 있는 Model Context Protocol(MCP)에 대해서 개념 중심으로 소개해보려 합니다.1. Model Context Protocol (MCP) 정의MCP는 LLM 애플리케이션과 외부 데이터 소스, 다양한 도구들이 서로 원활하게 통합되도.. 2025. 4. 2. RLHF (Reinforcement Learning from Human Feedback) 이전 포스팅(03.18, by lt.mj)에서는 '효율적인 LLM 튜닝을 위한 PEFT기법'에 대해서 알아보았습니다. PEFT는 리소스와 시간의 제약으로 인해 AI 모델 개발자가 LLM을 직접 파인튜닝하기 어려울 때, 효율적으로 성능을 개선하는 방법으로 활용되었는데요 이번 포스팅에서는 우리에게 친숙한 OpenAI의 ChatGPT가 어떻게 '사용자 친화적인 대화형 AI'로 자리 잡을 수 있었는지, 그 비결인 RLHF(Reinforcement Learning from Human Feedback) 기법을 중심으로 살펴보겠습니다 1. RLHF란? RLHF는 사람의 피드백(Human Feedback)을 사용하여 강화 학습(Reinforcement Learning)을 개선하는 방법입니다. 간단히 말해, '사람이 .. 2025. 3. 27. RAG 시스템 성능, 어떻게 평가할까? RAGAS로 살펴보는 네 가지 핵심 지표 RAG(Retrieval-Augmented Generation)는 대규모 언어 모델이 잘 알지 못하는 질문에 대해, 외부 지식 문서를 검색해 보다 정확하고 신뢰할 수 있는 답변을 생성하는 구조입니다. 하지만 RAG는 단일 모델이 아니라 검색(Retrieval) + 생성(Generation) 두 단계를 함께 사용하는 시스템이기 때문에 평가가 어렵다는 단점이 있습니다.단순히 RAG의 답변이 맞았는지만 보는 것은 부족하고, 답변이 어디서 왔는지, 질문에 적절한지, 검색이 잘 됐는지 등 다양한 요소를 함께 고려해서 평가해야 합니다.이런 복잡성을 고려해서 등장한 것이 바로 RAGAS(Retrieval-Augmented Generation Assessment Suite) 프레임워크입니다. RAGAS는 RAG 평가를.. 2025. 3. 25. 효율적인 LLM 튜닝을 위한 Parameter Efficient Fine-Tuning (PEFT) 이전 포스팅에서는 LLM의 학습 과정과 Fine-Tuning 방식에 대해 살펴보았는데요.2025.03.18 - [AI/LLM] - LLM의 학습 과정 이번에 Fine-Tuning의 한계를 극복하고 보다 효율적인 LLM 튜닝을 가능하게 하는 Parameter Efficient Fine-Tuning (PEFT) 기법에 대해 살펴보겠습니다.PEFT는 전체 모델을 다시 학습하는 Full Fine-Tuning과 비교하여 연산 비용과 메모리 사용량을 줄이면서도 특정 작업에 모델을 적응시키는 방법입니다. 이번 포스팅에서는 PEFT의 주요 기법인 Adapter Layers, LoRA, Prompt-Tuning에 대해 다뤄보려고 합니다. 1. Fine-Tuning의 한계와 PEFT의 필요성LLM을 Fine-Tuning할.. 2025. 3. 18. LLM의 학습 과정 이전 포스팅에서는 트랜스포머 구조의 등장과 그 학습 능력을 통해 대규모 언어 모델(LLM)이 나오게된 배경에 대한 내용을 포스팅 하였었습니다. 이번 포스팅에서는 LLM의 학습 과정과 주요 훈련 기법에 대해 다뤄보겠습니다.LLM을 학습하는 과정은 크게 사전 학습(Pre-training)과 미세 조정(Fine-tuning)으로 나뉩니다. 사전 학습의 경우 모델이 학습하는 방식은 자기지도 학습(Self-Supervised Learning)을 기반으로 하여 모델이 학습되고, 미세 조정의 경우 각 하위 목표에 맞는 방식으로 재학습 됩니다. (1) 사전 학습(Pre-training) 단계모델이 대규모 데이터셋을 통해 일반적인 지식을 학습하는 과정입니다이 과정에서 LLM은 자기지도 학습(Self-Supervised.. 2025. 3. 18. Large Language Models (LLMs) 이론 및 등장 배경 이번 포스팅에서는 대규모 언어 모델(Large Language Models, LLMs)의 바탕이 되는 트랜스포머 모델의 등장 배경과 LLM이 나올 수 있었던 이유에 대해서 알아보도록 하겠습니다.1. 기존 순환신경망 (Recurrent Neural Network)의 한계와 트랜스포머의 등장 LLM은 텍스트를 인식하고 생성하는 등의 작업을 수행할 수 있는 일종의 생성형 인공지능(Generative AI) 입니다. 기존의 AI 모델들과 달리 LLM은 방대한 양의 텍스트 데이터를 학습하여 뛰어난 언어 이해 및 생성 능력을 갖추게 되었습니다. 이러한 발전이 가능했던 핵심 요인은 바로 '트랜스포머(Transformer)' 아키텍처의 등장입니다. 트랜스포머 모델은 2017년 구글 연구팀이 발표한 "Attent.. 2025. 3. 14. 이전 1 2 다음