AI
에이전트, 모델 비교, 로컬 LLM, 챗봇, RAG 같은 AI 주제를 모아본 카테고리입니다.
다른 주제에서도 많이 읽는 글
검색 결과가 없습니다.
- AI
AI Agent 입문 가이드: agent는 무엇이고 chatbot과 무엇이 다른가
AI agent가 무엇인지, chatbot과 무엇이 다른지, agent 시스템은 어떤 구성 요소로 이뤄지는지, 실제 일에서 왜 중요한지를 설명하는 실전 입문 가이드입니다.
- AI
AI Agent Skills 가이드
AI agent가 검색, 코드 실행, 파일 접근, function calling 같은 도구를 어떻게 쓰는지와 실제 시스템에서 흔한 설계 실수를 설명하는 실전 가이드입니다.
- AI
LLM 벤치마크 가이드
LLM을 코딩 능력, 추론, 비용, 컨텍스트 길이, 지연시간, 워크플로우 적합성 기준으로 어떻게 비교해야 하는지 정리한 실전 가이드입니다.
- AI
Ollama 로컬 LLM 가이드: 설치, 모델 실행, 에디터 연동까지
Ollama로 로컬 LLM을 실행하는 방법을 실전 기준으로 정리했다. 설치, 모델 다운로드, Modelfile 설정, 에디터 연동, 로컬 모델이 API보다 더 나은 경우까지 설명한다.
- AI
Supabase RAG 챗봇 가이드: OpenAI, pgvector, 그리고 사내 데이터 검색
Supabase와 OpenAI로 RAG 챗봇을 만드는 실전 가이드입니다. pgvector가 ingestion, retrieval, 프롬프트 설계에서 어떤 역할을 하는지와, 내부 문서 챗봇이 부정확해지는 흔한 실수를 정리합니다.
- AI
Slack AI 챗봇 만들기: OpenAI API와 Node.js로 시작하는 실전 튜토리얼
OpenAI API와 Node.js로 Slack AI 챗봇을 만드는 방법을 정리합니다. 기본 구조, Slack 앱 설정, 프롬프트 처리, 커스텀 봇이 브라우저형 AI보다 더 유용한 순간까지 실전 기준으로 설명합니다.
- AI
임베딩 가이드: 텍스트를 숫자로 바꾸는 이유는 무엇일까
임베딩이 무엇인지, 왜 텍스트를 벡터로 바꾸는지, 검색과 추천, RAG에서 어떤 역할을 하는지 이해하기 쉽게 정리한 입문 가이드입니다.
- AI
파인튜닝 vs RAG 가이드: 언제 무엇을 선택해야 할까
파인튜닝과 RAG가 각각 어떤 문제에 맞는지, 지식 보강과 출력 스타일 제어를 어떻게 구분하면 좋은지 정리한 입문 비교 가이드입니다.
- AI
LLM은 어떻게 다음 단어를 예측할까: AI 입문자가 먼저 이해할 개념
LLM이 토큰을 어떻게 보고 다음 단어를 예측하는지, 확률 기반 생성이 왜 중요한지, temperature와 top-p 같은 개념이 왜 나오는지 정리한 입문 가이드입니다.
- AI
프롬프트 엔지니어링 가이드: AI에게 원하는 답을 더 잘 받는 방법
프롬프트 엔지니어링이 왜 중요한지, role과 context, examples, constraints를 어떻게 주면 좋은지, 실전에서 자주 쓰는 구조를 정리한 입문 가이드입니다.
- AI
RAG 가이드: LLM이 외부 지식을 더 잘 쓰게 만드는 방법
RAG가 무엇인지, 왜 필요한지, 검색과 임베딩, 프롬프트가 어떻게 연결되는지, hallucination을 줄이는 데 왜 자주 쓰이는지 정리한 입문 가이드입니다.
- AI
AI hallucination 줄이기 가이드: 그럴듯하지만 틀린 답을 줄이는 방법
AI hallucination이 왜 생기는지, 프롬프트와 RAG, 검증, 출력 제약을 통해 어떻게 줄일 수 있는지 정리한 실전 입문 가이드입니다.
- AI
Context Window 가이드: LLM이 한 번에 볼 수 있는 범위란 무엇일까
context window가 무엇인지, 토큰 제한이 왜 중요한지, 긴 문서나 대화에서 어떤 문제가 생기는지, 그리고 어떻게 다뤄야 하는지 정리한 입문 가이드입니다.
- AI
LLM 평가 가이드: AI 모델을 어떻게 검증해야 할까
LLM 평가가 왜 중요한지, 데모와 실제 품질 차이가 왜 생기는지, 정성 평가와 정량 평가를 어떻게 함께 봐야 하는지 정리한 입문 가이드입니다.
- AI
MCP 가이드: AI 모델이 외부 도구와 연결되는 방식
MCP가 무엇인지, 왜 필요한지, AI 모델이 파일과 API, 데이터 소스 같은 외부 도구를 어떻게 더 안전하게 연결하는지 정리한 입문 가이드입니다.
- AI
Inference vs Training 가이드: 모델 학습과 추론은 어떻게 다를까
training과 inference가 무엇인지, 왜 비용과 속도, 시스템 설계가 달라지는지, 그리고 AI 서비스를 이해할 때 왜 꼭 구분해야 하는지 설명하는 입문 가이드입니다.
- AI
Tool Calling 가이드: LLM이 외부 도구를 사용하는 방식
tool calling이 무엇인지, 단순 채팅과 무엇이 다른지, API 호출과 어떤 관계인지, 그리고 에이전트 시스템에서 왜 중요한지 정리한 입문 가이드입니다.
- AI
Vector Database 가이드: AI 검색에서 왜 필요한가
vector database가 무엇인지, 임베딩과 어떤 관계인지, 일반 데이터베이스와 무엇이 다른지, 그리고 RAG에서 왜 자주 등장하는지 정리한 입문 가이드입니다.
- AI
AI Latency Optimization 가이드: 응답 속도는 어떻게 줄일 수 있을까
AI 서비스에서 latency가 왜 중요한지, 어떤 요인이 지연을 만드는지, 그리고 모델 선택, 프롬프트, 검색, 캐시 관점에서 어떻게 최적화할 수 있는지 정리한 입문 가이드입니다.
- AI
AI Workflow Orchestration 가이드: 모델 하나보다 흐름 설계가 중요한 이유
AI workflow orchestration이 무엇인지, 왜 모델 성능만으로는 좋은 AI 앱이 되지 않는지, 그리고 프롬프트, 검색, 도구, 검증을 어떻게 연결해야 하는지 설명하는 입문 가이드입니다.
- AI
Temperature vs Top-p 가이드: LLM 출력 조절은 어떻게 이해해야 할까
temperature와 top-p가 무엇인지, 둘이 어떻게 다른지, 왜 결과가 달라지는지, 그리고 언제 어떤 값을 더 신경 써야 하는지 설명하는 입문 가이드입니다.
- AI
Claude Cowork 가이드: 휴대폰에서 Claude에게 작업 맡기기
Claude Cowork와 Assign tasks from anywhere 기능이 어떻게 동작하는지, 어떤 준비가 필요한지, 어떤 작업에 유용한지, 실제 한계는 무엇인지 정리한 실전 가이드입니다.