AI 용어 사전 — 확장판 (150+)
실무에서 자주 만나는 AI/LLM/에이전트 관련 용어를 한국어 정의와 실무 맥락으로 정리했습니다. 영문 병기 + 관련 모듈 링크 포함.
ㄱ
- 가드레일 Guardrails
- LLM 출력이 금지 영역(욕설, 개인정보, 환각)을 넘지 않도록 하는 사전·사후 필터. 프로덕션 필수.
- 가명정보 Pseudonymized Data
- 개인정보를 식별자 치환으로 직접 식별이 어렵게 만든 데이터. 통계·연구 목적 사용 시 동의 완화.
- 감사 로그 Audit Log
- 누가·언제·어떤 프롬프트/도구를 호출했는지 기록한 로그. 컴플라이언스와 사고 추적의 기본.
- 강화학습 RL / Reinforcement Learning
- 보상 신호를 통해 정책을 학습하는 패러다임. RLHF가 대표적 응용.
- 거버넌스 Governance
- AI 도입·운영 전반의 정책·역할·검증 체계. 9.3 참고.
- 계약서 분석 Contract Analysis
- 1M 컨텍스트 등장 이후 LLM으로 대규모 계약서 전체를 한 번에 분석하는 용례. 부록 F 참고.
- 고영향 AI High-risk AI
- 채용·대출·의료·공공 등 인간에게 중대한 영향을 주는 AI. 영향평가 필수. 부록 B 참고.
- 국외 이전 Cross-border Transfer
- 개인정보를 해외 서버로 전송하는 행위. 개보법상 별도 동의·DPA 필요.
- 그라운딩 Grounding
- LLM이 주장의 근거를 제공된 소스에 의존하게 만드는 기법. RAG의 핵심.
ㄴ
- 네거티브 프롬프트 Negative Prompt
- "~하지 마라"로 원하지 않는 출력을 배제. 역효과 가능성 있어 긍정 지시 선호.
- 노코드 No-Code
- 코딩 없이 드래그&드롭/설정만으로 AI 자동화 구축. Zapier·Make·n8n 등.
ㄷ
- 다중모달 Multimodal
- 텍스트·이미지·음성·영상을 함께 처리하는 AI. GPT-4o, Claude, Gemini 3 Pro 등.
- 데이터 처리 위탁 DPA
- 개인정보 처리를 외부(예: LLM 벤더)에 맡길 때 체결하는 계약. 사내 법무팀 필수 검토.
- 도메인 적응 Domain Adaptation
- 일반 모델을 특정 분야(의료·금융)에 맞게 추가 학습/파인튜닝.
- 디코딩 전략 Decoding Strategy
- 다음 토큰 선택 방식. Greedy, Top-k, Top-p(nucleus), Beam Search 등.
- 딥페이크 Deepfake
- 생성형 AI로 만든 사실적 합성 이미지·영상. 국내 AI 기본법상 표기 의무.
ㄹ
- 라벨링 Labeling
- 학습용 데이터에 정답을 부여하는 작업. 비용·품질이 모델 성능 좌우.
- 레드팀 Red Team
- 악의적 공격자 관점에서 시스템 취약점을 찾는 보안 활동. 프롬프트 인젝션 테스트 포함.
- 루브릭 Rubric
- 항목별 점수 기준표. LLM-as-Judge의 신뢰도 핵심. 부록 E 참고.
- 루프 Loop / Iterative
- 에이전트가 계획→실행→검증을 반복하는 구조. 부록 D 참고.
ㅁ
- 마스킹 Masking
- 민감정보를 AI에 넣기 전 가리는 처리. PII·비밀번호·토큰 등.
- 멀티 에이전트 Multi-agent
- 여러 역할별 에이전트가 협업하는 구조. Planner/Researcher/Coder 등.
- 메타 프롬프팅 Meta-prompting
- AI에게 "나를 위한 프롬프트를 먼저 만들어라"고 요청하는 기법.
- 모델 카드 Model Card
- 모델의 용도·한계·평가 결과를 정리한 공식 문서. 벤더 발행.
- 모달리티 Modality
- 입출력 형태(텍스트/이미지/오디오/비디오).
ㅂ
- 바이브 코딩 Vibe Coding
- 자연어로 의도만 전하고 AI가 코드를 생성·수정하게 하는 개발 방식. 5장 참고.
- 배치 처리 Batch Processing
- 여러 요청을 모아서 비동기 처리. Claude/OpenAI Batch API는 50% 할인.
- 벡터 데이터베이스 Vector DB
- 임베딩을 저장·유사도 검색. Pinecone, Weaviate, Chroma, Qdrant 등.
- 벤치마크 Benchmark
- 표준 테스트셋. MMLU, GSM8K, HumanEval, SWE-bench 등.
ㅅ
- 샘플링 Sampling
- 생성 시 토큰을 무작위성 섞어 뽑는 방식. Temperature·Top-p로 조절.
- 서브에이전트 Subagent
- 메인 에이전트가 특정 하위 작업을 위해 호출하는 전문 에이전트.
- 스킬 Skill
- Claude Code의 재사용 가능한 자동화 단위. 프롬프트+코드+리소스 묶음.
- 스트리밍 Streaming
- 응답을 토큰 단위로 실시간 전송. UX 지연 완화.
- 시스템 프롬프트 System Prompt
- 대화 최상단에 고정되는 규칙·역할 지시. 사용자 메시지와 분리.
ㅇ
- 양자화 Quantization
- 모델 가중치를 4·5·8비트로 압축해 메모리·속도 개선. 품질 손실 3~8%.
- 에이전트 Agent
- 도구 호출로 외부 세계와 상호작용하는 AI. 부록 D 참고.
- 엔드포인트 Endpoint
- API 호출 대상 URL. OpenAI, Anthropic, 로컬(Ollama) 등.
- 온디바이스 On-device
- 클라우드 없이 기기 내부에서 AI 실행. 프라이버시·오프라인 강점. 부록 G.
- 온도 Temperature
- 샘플링 무작위성. 0=결정적, 0.7=창의, 1.0=다양. 코드 생성은 0~0.2 권장.
- 영향평가 AIA / AI Impact Assessment
- AI 도입 전 프라이버시·차별·안전 영향을 평가·문서화. 고영향 AI 필수.
- 임베딩 Embedding
- 텍스트를 숫자 벡터로 변환. 유사도 검색·RAG의 기반.
ㅈ
- 자동화된 결정 Automated Decision
- 인간 개입 없이 AI가 내리는 결정. 개보법 설명권·이의제기권 대상.
- 자연어처리 NLP
- 사람 언어를 처리하는 AI 분야. LLM은 NLP의 한 갈래.
- 전이학습 Transfer Learning
- 대형 모델을 작은 데이터로 특정 과제에 재사용.
- 조기 종료 Early Stopping
- 성능 개선이 멎으면 학습/생성을 중단. 비용·시간 절감.
- 지식 증류 Knowledge Distillation
- 큰 모델의 출력으로 작은 모델을 학습시켜 경량화.
- 지연시간 Latency
- 요청 후 첫 토큰까지(TTFT)와 전체 완료까지 시간. UX 설계 핵심.
ㅊ
- 청크 Chunk
- RAG에서 문서를 나눈 단위. 크기·중첩이 검색 품질에 큰 영향.
- 추론 Inference
- 학습된 모델로 결과를 생성하는 단계. 학습과 구분.
- 추론 모델 Reasoning Model
- 내부 사고 과정을 더 길게 수행하는 모델. Claude Extended Thinking, GPT-o 계열.
ㅋ
- 컨텍스트 Context
- 프롬프트에 포함된 배경·규칙·예시·사용자 입력 전체.
- 컨텍스트 윈도우 Context Window
- 한 번에 처리 가능한 토큰 수. Opus 4.7은 1M(약 2,500페이지).
- 컨텍스트 엔지니어링 Context Engineering
- 필요한 정보를 적절히 선별·배치해 모델 성능을 끌어올리는 기술. 10.2 참고.
- 캐싱 Prompt Caching
- 불변 프롬프트를 캐시해 재사용 시 비용 10~12%. 부록 F.
ㅌ
- 토큰 Token
- 모델이 다루는 텍스트 단위. 한국어는 글자당 1~1.5토큰, 영어는 단어의 0.75토큰 정도.
- 툴 Tool / Function
- AI가 호출할 수 있는 외부 함수. Tool use · Function calling 동의어.
ㅍ
- 파인튜닝 Fine-tuning
- 기존 모델을 내 데이터로 추가 학습. LoRA·QLoRA로 비용 절감.
- 페르소나 Persona
- 역할 지정(프롬프트 패턴 #1) 또는 UX 대상 가상 고객상.
- 프롬프트 Prompt
- AI에 입력하는 지시문. 설계 기법은 부록 C 참고.
- 프롬프트 인젝션 Prompt Injection
- 사용자 입력·문서에 숨겨진 명령으로 시스템 프롬프트를 덮어쓰는 공격.
- 프롬프트 엔지니어링 Prompt Engineering
- 원하는 출력을 위해 프롬프트를 설계·최적화하는 기술.
ㅎ
- 하네스 엔지니어링 Harness Engineering
- AI가 장시간 자율적으로 작업을 완수하도록 평가·가드·루프를 설계하는 엔지니어링. 10.6 참고.
- 하이브리드 Hybrid
- 클라우드 + 로컬, RAG + 1M 컨텍스트 등 혼합 아키텍처.
- 환각 Hallucination
- 사실이 아닌 내용을 그럴듯하게 생성. Grounding·RAG·인용 요구로 완화.
A-E
- A/B 테스트 A/B Test
- 두 버전을 트래픽 분할로 비교. 프롬프트 변경 검증의 기본.
- AGI
- 범용 인간 수준 AI. 현재 미달성, 연구 목표.
- API
- 프로그램 간 호출 규약. Anthropic/OpenAI API로 LLM 호출.
- Batch API
- 대량 요청을 비동기 처리. 50% 할인, 24h 내 완료.
- BLEU / ROUGE / BERTScore
- 번역·요약 자동 평가 메트릭. 완벽하지 않아 사람 검수 병행.
- Chain-of-Thought CoT
- 모델이 중간 추론 단계를 생성하게 하는 프롬프트 기법.
- Context Precision
- RAG 평가 메트릭. 검색된 컨텍스트가 질문과 얼마나 관련 있는지.
- DPA Data Processing Agreement
- 데이터 처리 위탁 계약. 해외 LLM 사용 시 필수.
- DLP Data Loss Prevention
- 민감정보 유출 방지 필터. AI 프롬프트 전 단계에 배치.
- Embedding 임베딩
- 텍스트 → 벡터 변환. Cohere/OpenAI/Voyage 등 전용 모델.
- Eval 평가
- LLM 시스템 성능 평가. 부록 E 참고.
F-J
- Faithfulness
- RAGAS 메트릭. 답변이 주어진 컨텍스트에 충실한지.
- Few-shot
- 프롬프트에 예시 2~5개를 제시해 포맷·스타일 학습.
- Function Calling
- AI가 구조화된 JSON으로 함수를 호출. Tool Use와 동의.
- Grounding
- 응답 근거를 컨텍스트·검색 결과에 묶는 기법.
- GPU
- LLM 추론·학습의 핵심 하드웨어. A100/H100/B100 등.
- Hallucination
- → 환각
- ICL In-Context Learning
- 프롬프트 내 예시만으로 과제를 수행하는 능력.
- ICIO
- Instruction-Context-Input-Output 프롬프트 구조화 패턴.
- JSON Mode
- API가 JSON 출력을 보증하는 모드. 파싱 안정성.
K-O
- KPI
- 핵심 지표. AI 과제의 Task Success Rate, $/task, Regression 등.
- LangChain / LlamaIndex
- LLM 애플리케이션 프레임워크. 체인·에이전트 구성 도구.
- Latency
- → 지연시간
- LLM Large Language Model
- 대규모 언어 모델. GPT·Claude·Gemini·Llama 등.
- LLM-as-Judge
- LLM이 다른 LLM 출력을 채점. 부록 E.
- LoRA / QLoRA
- 경량 파인튜닝 기법. 소형 어댑터만 학습.
- MCP Model Context Protocol
- AI와 외부 도구를 연결하는 표준 프로토콜. 부록 A.
- MoE Mixture of Experts
- 여러 전문가 네트워크 중 일부만 활성. 효율적 대형 모델.
- NER Named Entity Recognition
- 개체명(인명·지명·날짜) 추출.
- NL2SQL
- 자연어를 SQL로 변환. 비개발자 DB 질의에 유용.
- OCR
- 이미지 내 텍스트 인식. 멀티모달 모델 내장.
- Ollama
- 로컬 LLM 실행 CLI. 부록 G.
P-T
- PII Personally Identifiable Information
- 개인 식별 정보. AI 입력 전 마스킹·가명 처리 권장.
- Playwright MCP
- 브라우저 자동화 MCP 서버. 자연어 QA 테스트.
- Prompt Caching
- → 캐싱
- Prompt Injection
- → 프롬프트 인젝션
- RAG Retrieval-Augmented Generation
- 외부 지식을 검색해 프롬프트에 주입하는 패턴. 1.6 참고.
- RAGAS
- RAG 전용 평가 메트릭 라이브러리.
- ReAct
- Reasoning + Acting. 생각→행동→관찰 반복 에이전트 패턴.
- Reranker
- RAG 검색 결과를 재순위화하는 2차 모델. 정확도 상승.
- RLHF
- 사람 피드백 강화학습. LLM 얼라인먼트에 사용.
- Self-Consistency
- 여러 샘플링의 다수결. 수학·추론 과제 성능↑.
- Self-Critique
- 모델이 자기 출력을 비판·개선. 반복 품질 향상.
- SSE Server-Sent Events
- 스트리밍 프로토콜. MCP HTTP 전송에도 사용.
- System Prompt
- → 시스템 프롬프트
- TDD Test-Driven Development
- 테스트 먼저 작성. AI 에이전트의 안전 가드에 유효.
- Temperature
- → 온도
- Token
- → 토큰
- Tool Use
- → 툴
- Top-p / Top-k
- 샘플링 후보 제한 기법.
- TTFT Time To First Token
- 요청 후 첫 토큰까지의 지연. UX 핵심.
U-Z
- Uncertainty
- 모델 확신도. 높은 불확실성에서 거부·사람 개입 트리거.
- VectorDB
- → 벡터 데이터베이스
- vLLM
- 고성능 LLM 서빙 엔진. Continuous batching 지원.
- Watermark
- AI 생성물에 심는 식별 표식. 국내 AI 기본법 요구.
- Workflow
- 여러 LLM 호출·도구 호출을 엮은 작업 흐름.
- Zero-shot
- 예시 없이 지시만으로 수행. 최신 모델은 대부분 이 수준 충족.
검색 결과가 없습니다.