AI 용어 사전 — 확장판 (150+)

실무에서 자주 만나는 AI/LLM/에이전트 관련 용어를 한국어 정의와 실무 맥락으로 정리했습니다. 영문 병기 + 관련 모듈 링크 포함.

가드레일 Guardrails
LLM 출력이 금지 영역(욕설, 개인정보, 환각)을 넘지 않도록 하는 사전·사후 필터. 프로덕션 필수.
가명정보 Pseudonymized Data
개인정보를 식별자 치환으로 직접 식별이 어렵게 만든 데이터. 통계·연구 목적 사용 시 동의 완화.
감사 로그 Audit Log
누가·언제·어떤 프롬프트/도구를 호출했는지 기록한 로그. 컴플라이언스와 사고 추적의 기본.
강화학습 RL / Reinforcement Learning
보상 신호를 통해 정책을 학습하는 패러다임. RLHF가 대표적 응용.
거버넌스 Governance
AI 도입·운영 전반의 정책·역할·검증 체계. 9.3 참고.
계약서 분석 Contract Analysis
1M 컨텍스트 등장 이후 LLM으로 대규모 계약서 전체를 한 번에 분석하는 용례. 부록 F 참고.
고영향 AI High-risk AI
채용·대출·의료·공공 등 인간에게 중대한 영향을 주는 AI. 영향평가 필수. 부록 B 참고.
국외 이전 Cross-border Transfer
개인정보를 해외 서버로 전송하는 행위. 개보법상 별도 동의·DPA 필요.
그라운딩 Grounding
LLM이 주장의 근거를 제공된 소스에 의존하게 만드는 기법. RAG의 핵심.

네거티브 프롬프트 Negative Prompt
"~하지 마라"로 원하지 않는 출력을 배제. 역효과 가능성 있어 긍정 지시 선호.
노코드 No-Code
코딩 없이 드래그&드롭/설정만으로 AI 자동화 구축. Zapier·Make·n8n 등.

다중모달 Multimodal
텍스트·이미지·음성·영상을 함께 처리하는 AI. GPT-4o, Claude, Gemini 3 Pro 등.
데이터 처리 위탁 DPA
개인정보 처리를 외부(예: LLM 벤더)에 맡길 때 체결하는 계약. 사내 법무팀 필수 검토.
도메인 적응 Domain Adaptation
일반 모델을 특정 분야(의료·금융)에 맞게 추가 학습/파인튜닝.
디코딩 전략 Decoding Strategy
다음 토큰 선택 방식. Greedy, Top-k, Top-p(nucleus), Beam Search 등.
딥페이크 Deepfake
생성형 AI로 만든 사실적 합성 이미지·영상. 국내 AI 기본법상 표기 의무.

라벨링 Labeling
학습용 데이터에 정답을 부여하는 작업. 비용·품질이 모델 성능 좌우.
레드팀 Red Team
악의적 공격자 관점에서 시스템 취약점을 찾는 보안 활동. 프롬프트 인젝션 테스트 포함.
루브릭 Rubric
항목별 점수 기준표. LLM-as-Judge의 신뢰도 핵심. 부록 E 참고.
루프 Loop / Iterative
에이전트가 계획→실행→검증을 반복하는 구조. 부록 D 참고.

마스킹 Masking
민감정보를 AI에 넣기 전 가리는 처리. PII·비밀번호·토큰 등.
멀티 에이전트 Multi-agent
여러 역할별 에이전트가 협업하는 구조. Planner/Researcher/Coder 등.
메타 프롬프팅 Meta-prompting
AI에게 "나를 위한 프롬프트를 먼저 만들어라"고 요청하는 기법.
모델 카드 Model Card
모델의 용도·한계·평가 결과를 정리한 공식 문서. 벤더 발행.
모달리티 Modality
입출력 형태(텍스트/이미지/오디오/비디오).

바이브 코딩 Vibe Coding
자연어로 의도만 전하고 AI가 코드를 생성·수정하게 하는 개발 방식. 5장 참고.
배치 처리 Batch Processing
여러 요청을 모아서 비동기 처리. Claude/OpenAI Batch API는 50% 할인.
벡터 데이터베이스 Vector DB
임베딩을 저장·유사도 검색. Pinecone, Weaviate, Chroma, Qdrant 등.
벤치마크 Benchmark
표준 테스트셋. MMLU, GSM8K, HumanEval, SWE-bench 등.

샘플링 Sampling
생성 시 토큰을 무작위성 섞어 뽑는 방식. Temperature·Top-p로 조절.
서브에이전트 Subagent
메인 에이전트가 특정 하위 작업을 위해 호출하는 전문 에이전트.
스킬 Skill
Claude Code의 재사용 가능한 자동화 단위. 프롬프트+코드+리소스 묶음.
스트리밍 Streaming
응답을 토큰 단위로 실시간 전송. UX 지연 완화.
시스템 프롬프트 System Prompt
대화 최상단에 고정되는 규칙·역할 지시. 사용자 메시지와 분리.

양자화 Quantization
모델 가중치를 4·5·8비트로 압축해 메모리·속도 개선. 품질 손실 3~8%.
에이전트 Agent
도구 호출로 외부 세계와 상호작용하는 AI. 부록 D 참고.
엔드포인트 Endpoint
API 호출 대상 URL. OpenAI, Anthropic, 로컬(Ollama) 등.
온디바이스 On-device
클라우드 없이 기기 내부에서 AI 실행. 프라이버시·오프라인 강점. 부록 G.
온도 Temperature
샘플링 무작위성. 0=결정적, 0.7=창의, 1.0=다양. 코드 생성은 0~0.2 권장.
영향평가 AIA / AI Impact Assessment
AI 도입 전 프라이버시·차별·안전 영향을 평가·문서화. 고영향 AI 필수.
임베딩 Embedding
텍스트를 숫자 벡터로 변환. 유사도 검색·RAG의 기반.

자동화된 결정 Automated Decision
인간 개입 없이 AI가 내리는 결정. 개보법 설명권·이의제기권 대상.
자연어처리 NLP
사람 언어를 처리하는 AI 분야. LLM은 NLP의 한 갈래.
전이학습 Transfer Learning
대형 모델을 작은 데이터로 특정 과제에 재사용.
조기 종료 Early Stopping
성능 개선이 멎으면 학습/생성을 중단. 비용·시간 절감.
지식 증류 Knowledge Distillation
큰 모델의 출력으로 작은 모델을 학습시켜 경량화.
지연시간 Latency
요청 후 첫 토큰까지(TTFT)와 전체 완료까지 시간. UX 설계 핵심.

청크 Chunk
RAG에서 문서를 나눈 단위. 크기·중첩이 검색 품질에 큰 영향.
추론 Inference
학습된 모델로 결과를 생성하는 단계. 학습과 구분.
추론 모델 Reasoning Model
내부 사고 과정을 더 길게 수행하는 모델. Claude Extended Thinking, GPT-o 계열.

컨텍스트 Context
프롬프트에 포함된 배경·규칙·예시·사용자 입력 전체.
컨텍스트 윈도우 Context Window
한 번에 처리 가능한 토큰 수. Opus 4.7은 1M(약 2,500페이지).
컨텍스트 엔지니어링 Context Engineering
필요한 정보를 적절히 선별·배치해 모델 성능을 끌어올리는 기술. 10.2 참고.
캐싱 Prompt Caching
불변 프롬프트를 캐시해 재사용 시 비용 10~12%. 부록 F.

토큰 Token
모델이 다루는 텍스트 단위. 한국어는 글자당 1~1.5토큰, 영어는 단어의 0.75토큰 정도.
Tool / Function
AI가 호출할 수 있는 외부 함수. Tool use · Function calling 동의어.

파인튜닝 Fine-tuning
기존 모델을 내 데이터로 추가 학습. LoRA·QLoRA로 비용 절감.
페르소나 Persona
역할 지정(프롬프트 패턴 #1) 또는 UX 대상 가상 고객상.
프롬프트 Prompt
AI에 입력하는 지시문. 설계 기법은 부록 C 참고.
프롬프트 인젝션 Prompt Injection
사용자 입력·문서에 숨겨진 명령으로 시스템 프롬프트를 덮어쓰는 공격.
프롬프트 엔지니어링 Prompt Engineering
원하는 출력을 위해 프롬프트를 설계·최적화하는 기술.

하네스 엔지니어링 Harness Engineering
AI가 장시간 자율적으로 작업을 완수하도록 평가·가드·루프를 설계하는 엔지니어링. 10.6 참고.
하이브리드 Hybrid
클라우드 + 로컬, RAG + 1M 컨텍스트 등 혼합 아키텍처.
환각 Hallucination
사실이 아닌 내용을 그럴듯하게 생성. Grounding·RAG·인용 요구로 완화.

A-E

A/B 테스트 A/B Test
두 버전을 트래픽 분할로 비교. 프롬프트 변경 검증의 기본.
AGI
범용 인간 수준 AI. 현재 미달성, 연구 목표.
API
프로그램 간 호출 규약. Anthropic/OpenAI API로 LLM 호출.
Batch API
대량 요청을 비동기 처리. 50% 할인, 24h 내 완료.
BLEU / ROUGE / BERTScore
번역·요약 자동 평가 메트릭. 완벽하지 않아 사람 검수 병행.
Chain-of-Thought CoT
모델이 중간 추론 단계를 생성하게 하는 프롬프트 기법.
Context Precision
RAG 평가 메트릭. 검색된 컨텍스트가 질문과 얼마나 관련 있는지.
DPA Data Processing Agreement
데이터 처리 위탁 계약. 해외 LLM 사용 시 필수.
DLP Data Loss Prevention
민감정보 유출 방지 필터. AI 프롬프트 전 단계에 배치.
Embedding 임베딩
텍스트 → 벡터 변환. Cohere/OpenAI/Voyage 등 전용 모델.
Eval 평가
LLM 시스템 성능 평가. 부록 E 참고.

F-J

Faithfulness
RAGAS 메트릭. 답변이 주어진 컨텍스트에 충실한지.
Few-shot
프롬프트에 예시 2~5개를 제시해 포맷·스타일 학습.
Function Calling
AI가 구조화된 JSON으로 함수를 호출. Tool Use와 동의.
Grounding
응답 근거를 컨텍스트·검색 결과에 묶는 기법.
GPU
LLM 추론·학습의 핵심 하드웨어. A100/H100/B100 등.
Hallucination
→ 환각
ICL In-Context Learning
프롬프트 내 예시만으로 과제를 수행하는 능력.
ICIO
Instruction-Context-Input-Output 프롬프트 구조화 패턴.
JSON Mode
API가 JSON 출력을 보증하는 모드. 파싱 안정성.

K-O

KPI
핵심 지표. AI 과제의 Task Success Rate, $/task, Regression 등.
LangChain / LlamaIndex
LLM 애플리케이션 프레임워크. 체인·에이전트 구성 도구.
Latency
→ 지연시간
LLM Large Language Model
대규모 언어 모델. GPT·Claude·Gemini·Llama 등.
LLM-as-Judge
LLM이 다른 LLM 출력을 채점. 부록 E.
LoRA / QLoRA
경량 파인튜닝 기법. 소형 어댑터만 학습.
MCP Model Context Protocol
AI와 외부 도구를 연결하는 표준 프로토콜. 부록 A.
MoE Mixture of Experts
여러 전문가 네트워크 중 일부만 활성. 효율적 대형 모델.
NER Named Entity Recognition
개체명(인명·지명·날짜) 추출.
NL2SQL
자연어를 SQL로 변환. 비개발자 DB 질의에 유용.
OCR
이미지 내 텍스트 인식. 멀티모달 모델 내장.
Ollama
로컬 LLM 실행 CLI. 부록 G.

P-T

PII Personally Identifiable Information
개인 식별 정보. AI 입력 전 마스킹·가명 처리 권장.
Playwright MCP
브라우저 자동화 MCP 서버. 자연어 QA 테스트.
Prompt Caching
→ 캐싱
Prompt Injection
→ 프롬프트 인젝션
RAG Retrieval-Augmented Generation
외부 지식을 검색해 프롬프트에 주입하는 패턴. 1.6 참고.
RAGAS
RAG 전용 평가 메트릭 라이브러리.
ReAct
Reasoning + Acting. 생각→행동→관찰 반복 에이전트 패턴.
Reranker
RAG 검색 결과를 재순위화하는 2차 모델. 정확도 상승.
RLHF
사람 피드백 강화학습. LLM 얼라인먼트에 사용.
Self-Consistency
여러 샘플링의 다수결. 수학·추론 과제 성능↑.
Self-Critique
모델이 자기 출력을 비판·개선. 반복 품질 향상.
SSE Server-Sent Events
스트리밍 프로토콜. MCP HTTP 전송에도 사용.
System Prompt
→ 시스템 프롬프트
TDD Test-Driven Development
테스트 먼저 작성. AI 에이전트의 안전 가드에 유효.
Temperature
→ 온도
Token
→ 토큰
Tool Use
→ 툴
Top-p / Top-k
샘플링 후보 제한 기법.
TTFT Time To First Token
요청 후 첫 토큰까지의 지연. UX 핵심.

U-Z

Uncertainty
모델 확신도. 높은 불확실성에서 거부·사람 개입 트리거.
VectorDB
→ 벡터 데이터베이스
vLLM
고성능 LLM 서빙 엔진. Continuous batching 지원.
Watermark
AI 생성물에 심는 식별 표식. 국내 AI 기본법 요구.
Workflow
여러 LLM 호출·도구 호출을 엮은 작업 흐름.
Zero-shot
예시 없이 지시만으로 수행. 최신 모델은 대부분 이 수준 충족.
검색 결과가 없습니다.
← 메인으로 돌아가기 · 최근 업데이트: 2026.04.17