Langflow Dify 생성형 AI 워크플로우 프레임워크 설치

워크플로우 프레임워크

생성형 AI 자동화 시대, 왜 Langflow와 Dify가 주목받는가 새로운 패러다임의 등장 Langflow Dify 2023년 이후 생성형 AI, 특히 ChatGPT와 같은 LLM이 개발자와 비즈니스 전반에 확산되면서 “누구나 쉽게 챗봇, 자동화, 지식 검색, Q&A 서비스를 만들 수 있는 툴”이 필수 도구로 떠올랐다. 이때 단순히 GPT API를 직접 코드로 붙이는 것을 넘어서, GUI(그래픽 UI) 기반의 워크플로우 설계, 멀티모델·멀티 … Read more

vLLM 기초, 서버 설치부터 세팅, 호출 방식 및 사양, 언어 모델 확인

vllm 설치, 세팅

vLLM이란 무엇이고 왜 각광받는가 vLLM은 최근 AI/LLM 분야에서 급부상하고 있는 초고속 대규모 언어모델 서빙 엔진이다. vLLM의 이름에서 볼 수 있듯이, ‘Virtual’ + ‘LLM(Large Language Model)’을 의미하며, 여러 대형 언어모델을 GPU 환경에서 최대 효율로 빠르게 서비스할 수 있도록 설계되어 있다. 기존 트랜스포머 모델 서빙 엔진들이 가진 비효율성, 예를 들어 토크나이저 처리 병목, 배치 성능 저하, GPU … Read more

Langchain 기초 – ChatOpenAI, LLMChain, PromptTemplate 마스터 첫걸음(LLM)

langchain

Langchain 기초, 그리고 생성형 AI 활용의 패러다임 Langchain은 OpenAI의 ChatGPT를 비롯해 여러 대형 언어모델(LLM, Large Language Model)을 파이썬 환경에서 쉽고 강력하게 활용할 수 있게 해주는 프레임워크다. 단순히 텍스트 입력과 출력에 그치지 않고, 여러 단계의 프롬프트(지시문), 사용자 입력, 외부 도구와의 연동, 다중 모델 체이닝까지 구현할 수 있다. 실제 프로덕트에서 “챗봇처럼 자연어 대화형 인터페이스를 만들고 싶다”, “문서 … Read more

FastAPI‑MCP(FastApiMCP) LLM, MCP 통합 플랫폼 – FastAPI 엔드포인트를 Model Context Protocol(MCP) 도구로 자동 노출 라이브러리

fastapi-mcp

fastapi‑mcp란 무엇인가? FastAPI‑MCP는 FastAPI 앱의 모든 엔드포인트를 Model Context Protocol(MCP) 도구로 자동 노출해주는 라이브러리입니다. zero‑config 방식: FastApiMCP(app).mount() 한 줄이면 /mcp 경로에 자동으로 MCP 서버가 세팅됩니다. OpenAPI 스키마 기반으로 엔드포인트의 요청/응답 형태, docstring 등 정보를 그대로 유지합니다 (FastAPI MCP). 내부의 FastAPI 종속성 주입(Dependency‑Inject)이나 인증 로직도 자연스럽게 통합되어 안심하고 사용 가능합니다 (GitHub). ASGI transport 사용: HTTP 요청 … Read more

LLM 개발, 어디까지 해봤니? Post-training 완전 정복 가이드

post training

요즘 누구나 한 번쯤은 들어봤을 법한 ‘LLM(대형 언어 모델)’. ChatGPT처럼 사람처럼 말하고, 생각하고, 글까지 써주는 인공지능의 비밀은 과연 무엇일까요? 오늘은 그 중에서도 LLM이 사용자 명령에 제대로 반응하도록 만드는 핵심 과정, Post-training에 대해 알아보겠습니다. 만약 여러분이 AI 모델을 실제로 개발하고자 한다면, Pre-training만으로는 끝나지 않는다는 사실을 반드시 기억하셔야 합니다. 그럼 지금부터 함께 알아볼까요? STEP 1: Pre-training만으로는 부족하다? … Read more

sLLM, SLM, LLM, vLLM 모델 종류와 차이점 안내

sllm

배경 – AI 언어 모델의 발전과 분류 필요성 최근 몇 년 사이에 자연어 처리(NLP) 분야는 급격한 변화를 겪었습니다. 특히 대규모 언어 모델(LLM, Large Language Model)의 등장으로, 기계 번역ㆍ문서 요약ㆍ챗봇ㆍ코드 생성 등 다양한 애플리케이션이 발전했지요. 하지만 모델의 크기, 용도, 추론 방식에 따라 적합한 솔루션이 다르고, 이를 구분하기 위한 용어도 여럿 등장했습니다. 전통적 LLM은 수십억~수백억 개 파라미터로 … Read more

LLaMA 설치부터 LM Studio 활용 실전 가이드(2025년)

llama

왜 LLaMA가 주목받는가? Meta(구 페이스북)가 개발한 LLaMA 시리즈는 2023년 첫 출시 이후로 오픈소스 LLM(대규모 언어 모델)의 대표 주자가 되었습니다. LLaMA는 ChatGPT, Claude, Gemini 등 상업용 AI에 비해 개방성과 유연성, 그리고 현실적인 성능 대비 리소스 최적화로 연구자, 개발자, 스타트업은 물론 기업 연구소에서도 널리 사용되고 있습니다. 2024년 말에는 LLaMA 3가 출시되었고, 다양한 파라미터 버전(8B, 70B 등)과 함께 … Read more

Claude MCP와 LangGraph, LangChain, gRPC 서버 연동을 통한 RAG 에이전트 최적화 전략

claude mcp grpc

LLM 에이전트 설계, 어디까지 진화했는가? 최근 Claude 모델에서 소개된 MCP(Memory-Control-Planning) 개념은 LLM을 이용한 고도화된 에이전트 설계의 지평을 넓히고 있습니다. 동시에 LangChain과 LangGraph 같은 프레임워크는 이러한 LLM 능력을 체계적으로 실현할 수 있도록 돕습니다. 이 글에서는 Claude MCP의 개념을 정리하고, 이를 LangChain 및 LangGraph에 통합하는 실질적인 구조를 제안합니다. 특히 MCP 서버를 gRPC 기반으로 외부에서 운용하는 구조를 상정하고, … Read more

Claude MCP를 활용한 RAG 애플리케이션 – LangChain과 LangGraph 통합 전략

claude mcp

  들어가며 최근 Anthropic의 Claude 모델에서 소개된 MCP(Memory, Control, Planning) 기능은 LLM 기반 애플리케이션 설계에 새로운 전환점을 제시하고 있습니다. 특히 RAG(Retrieval-Augmented Generation) 시스템을 구축할 때, 이 기능은 더욱 정교한 문맥 유지, 대화 흐름 제어, 장기적인 목표 기반의 질의 응답에 기여할 수 있습니다. 본 글에서는 Claude의 MCP 개념을 소개하고, 이를 LangChain과 LangGraph 프레임워크에서 어떻게 통합하여 RAG … Read more

구글 Gemma 모델 설치부터 활용까지 (2025년)

gemma

  안녕하세요, 요즘 AI 모델에 대한 관심, 정말 뜨겁죠. ChatGPT는 물론이고 Mistral, Claude, LLaMA 등 다양한 오픈소스 LLM이 쏟아져 나오고 있는데요, 오늘은 이 중에서도 개발자 친화적인 구글의 최신 모델 Gemma에 대해 이야기해보려 합니다. 2024년 말, 그리고 2025년 상반기까지 가장 핫하게 떠오른 이름 중 하나가 바로 Gemma입니다. “Gemma가 뭐길래?” 하고 궁금하셨던 분들을 위해, 이 글에서는 Gemma … Read more