10.4 멀티모달 AI 실무 활용
멀티모달 AI 활용 사례 1: 이미지 분석을 통한 디자인 QA 자동화
멀티모달 AI 활용 사례 2: 음성 → 회의록 파이프라인
멀티모달 AI 활용 사례 3: PDF/문서 OCR 및 구조화
멀티모달 AI 활용 사례 4: 영상 분석 (UX 리서치)
멀티모달 유형별 추천 도구
| 입력 유형 | 1순위 도구 | 2순위 도구 | 무료 대안 | PM 활용 용도 |
|---|---|---|---|---|
| 이미지 분석 | GPT-4o | Claude Sonnet 4.6 | Gemini 3 Flash (무료) | 디자인 QA, UI 버그 리포트, 경쟁사 스크린샷 분석 |
| 음성 → 텍스트 | OpenAI Whisper | Clova Speech (한국어) | Whisper API (저렴) | 회의록, 인터뷰 정리, 음성 메모 변환 |
| PDF / 문서 | Claude (긴 문서 최적) | GPT-4o | ChatPDF (무료 플랜) | 계약서 분석, 보고서 요약, 규정 검토 |
| 영상 분석 | Gemini 3 Pro | GPT-4o (프레임 단위) | Gemini Flash | UX 테스트 분석, 데모 영상 요약 |
| 이미지 생성 | DALL-E 3 | Midjourney | Adobe Firefly (CC 포함) | 목업 이미지, 프레젠테이션 이미지, 아이콘 |
당신은 시니어 UX/UI 디자이너입니다.
첨부된 스크린샷을 아래 기준으로 리뷰해주세요.
[디자인 시스템 규칙]
- Primary Color: #3B82F6 (파란색)
- Font: Pretendard, 본문 16px, 헤딩 24px/20px
- 버튼 높이: 40px (기본), 32px (소형)
- 최소 클릭 영역: 44x44px
- 간격 단위: 4px 배수 (8, 16, 24, 32px)
[리뷰 형식]
1. 규칙 위반 사항 (있으면 명시, 없으면 "없음")
2. 접근성 이슈 (색상 대비, 텍스트 크기)
3. 일관성 문제
4. 개선 제안 Top 3
각 항목을 구체적으로, 위치(예: "우측 상단 CTA 버튼")와 함께 설명해주세요.
10.5 AI 네이티브 팀 협업
공유 프롬프트 라이브러리 구축 가이드
팀 전체가 검증된 프롬프트를 공유하면 AI 활용 품질이 균일해지고, 신규 팀원의 온보딩 시간이 단축됩니다.
| 카테고리 | 포함 내용 | 저장 위치 | 업데이트 주기 |
|---|---|---|---|
| 문서 작성 | PRD 템플릿, 회의록 양식, 기획서 구조 | Notion / Confluence | 분기별 |
| 코드 리뷰 | 코드 리뷰 요청, 버그 분석, 리팩토링 요청 | CLAUDE.md / AGENTS.md | 스프린트별 |
| 데이터 분석 | 지표 해석, 이상치 분석, 경쟁사 비교 | Notion 데이터베이스 | 필요 시 |
| 커뮤니케이션 | 이메일 초안, 슬랙 메시지, 이해관계자 보고 | Slack 북마크 | 월별 |
| 테스트/QA | 테스트 케이스 생성, 엣지 케이스 발굴 | Jira 템플릿 | 기능별 |
버전 관리 규칙: 프롬프트에 버전 번호(v1.0, v1.1)와 작성자, 마지막 검증 날짜를 반드시 기록합니다. GitHub 저장소로 관리하면 변경 이력 추적이 가능합니다.
팀 AI 활용 표준화 프로세스
AI 생성 콘텐츠 품질 관리
| 품질 기준 | 검증 방법 | 담당자 | 리스크 수준 |
|---|---|---|---|
| 사실 정확성 | 공식 문서/데이터 교차 검증 | 작성자 본인 | 높음 (반드시 검증) |
| 내부 일관성 | 기존 문서와 용어/수치 대조 | PM 검토 | 중간 |
| 법적/규정 준수 | 법무팀 검토 (계약서, 마케팅 문구) | 법무팀 | 매우 높음 |
| 브랜드 일관성 | 브랜드 가이드라인 대조 | 마케팅팀 | 중간 |
| 개인정보 포함 여부 | AI 입력 전 개인정보 마스킹 확인 | 모든 팀원 | 매우 높음 |
| 코드 보안 | 보안 스캔 도구 실행 (Snyk, SonarQube) | 개발팀 PL | 높음 |
AI 기반 코드 리뷰 & 피드백 워크플로우
실습: 우리 팀 AI 협업 가이드 작성
아래 구조를 참고하여 여러분 팀의 AI 협업 가이드를 작성해보세요. Notion 페이지나 Confluence 문서로 만들어 팀 전체에 공유하는 것을 목표로 합니다.
- 팀 AI 활용 원칙 (3~5개): 우리 팀이 AI를 사용할 때 반드시 지키는 원칙을 정의합니다. 예: "AI 결과물은 반드시 사람이 검토한다", "고객 개인정보는 AI에 절대 입력하지 않는다"
- 승인된 AI 도구 목록: 팀에서 공식 사용하는 AI 도구와 각 도구의 용도를 명시합니다.
- 역할별 AI 활용 가이드: PM, 개발자, 디자이너, QA 각 역할에서 AI를 어떻게 활용할지 구체적으로 기술합니다.
- 금지 사항: 기밀 정보 유형, 입력 금지 데이터, 미승인 도구 목록을 명확히 합니다.
- 프롬프트 라이브러리 링크: 팀 공유 프롬프트 라이브러리 위치와 기여 방법을 안내합니다.
- 품질 게이트: AI 생성 결과물을 실제 사용하기 전에 거쳐야 하는 검증 단계를 정의합니다.
팁: 처음부터 완벽한 가이드를 만들려 하지 말고, 2페이지 이내의 간결한 버전으로 시작해서 팀 피드백을 받아 점진적으로 발전시키세요.
10.6 하네스 엔지니어링 (Harness Engineering)
하네스 엔지니어링의 6대 구성요소
| 구성요소 | 역할 | 실전 예시 | 관련 도구 |
|---|---|---|---|
| 에이전트 정의 | 각 AI의 역할, 전문 분야, 행동 규칙 설계 | 코드 리뷰 에이전트, 테스트 에이전트, 문서 에이전트 | AGENTS.md, Claude Code 스킬 |
| 도구 체인 | 에이전트가 호출 가능한 외부 도구/API 정의 | GitHub API, DB 조회, Slack 메시지, 파일 시스템 | MCP 서버, Tool Use API |
| 메모리 시스템 | 세션 간 지식 유지 및 프로젝트 맥락 축적 | 이전 코드 리뷰 결과, 프로젝트 규칙, 팀 컨벤션 | 벡터 DB, CLAUDE.md, 프로젝트 메모리 |
| 권한 & 보안 | 에이전트별 접근 가능 범위 제한 | 읽기 전용 에이전트, 특정 디렉토리만 수정 가능 | Claude Code Hooks, 퍼미션 설정 |
| 라우팅 & 오케스트레이션 | 작업을 적절한 에이전트에 분배, 결과 통합 | 복잡한 리팩토링을 3개 에이전트가 병렬 처리 | LangGraph, CrewAI, Claude 서브에이전트 |
| 관측성 & 피드백 | AI 시스템 동작 모니터링, 비용/품질 추적 | 토큰 사용량 대시보드, 에이전트 성공률 추적 | LangSmith, 커스텀 로깅 |
하네스 엔지니어링 실전: Claude Code 프로젝트 구성
# CLAUDE.md — 프로젝트 하네스 설정
## 프로젝트 규칙
- TypeScript strict mode 필수
- 커밋 전 반드시 lint + test 통과
- DB 마이그레이션은 반드시 롤백 스크립트 포함
## 에이전트 라우팅 규칙
- 코드 변경 → code-reviewer 에이전트가 자동 리뷰
- 테스트 없는 코드 → test-writer 에이전트가 테스트 생성
- API 변경 → doc-writer 에이전트가 OpenAPI 스펙 업데이트
## MCP 도구
- GitHub: PR 생성, 이슈 관리
- PostgreSQL: 스키마 조회 (읽기 전용)
- Slack: 팀 채널 알림
## 권한 경계
- src/ 디렉토리: 읽기 + 쓰기
- migrations/: 읽기 전용 (수동 승인 필요)
- .env, secrets/: 접근 금지
Fowler의 하네스 2×2 분류체계
Martin Fowler와 Birgitta Böckeler(ThoughtWorks)는 하네스 구성요소를 결정론/비결정론 × 피드포워드/피드백 두 축으로 분류했습니다.
| 유형 | 방식 | 예시 | 특징 |
|---|---|---|---|
| 가이드 (결정론적 사전유도) | 규칙 파일로 사전 지시 | AGENTS.md, .cursorrules | 비용 ≈ 0, 강제성 약함 |
| 연산적 (결정론적 사후교정) | 기계적으로 검사·강제 | 컴파일러, 린터, 타입체커 | 강제성 높음 — 에이전트가 스스로 수정 |
| 시스템 프롬프트 (비결정론적 사전유도) | 뉘앙스 지침 제공 | "공손하게", "확인 구하기" | 방향 제시, 규칙이 아닌 지침 |
| 추론적 (비결정론적 사후교정) | 다른 LLM이 평가 | LLM-as-a-Judge, 의미론적 리뷰 | 생성 품질을 AI가 평가 |
실전 사례: Anthropic 3-에이전트 아키텍처
Anthropic은 GAN 구조를 차용하여 Planner → Generator → Evaluator 3단계 품질 루프를 구축했습니다.
| 에이전트 | 역할 | 핵심 원칙 |
|---|---|---|
| Planner | 프롬프트 → 상세 제품 스펙 생성 | 기술 지시 피함, 야심찬 범위와 상위 설계에 집중 |
| Generator | 한 번에 하나의 기능 구현 | 스프린트 단위 작업, 컨텍스트 주기적 리셋 |
| Evaluator | Playwright E2E 테스트 + 채점 | 미달 시 구체 피드백과 함께 Generator로 복귀 |
Ralph 패턴: 자율 코딩 루프
PRD(제품 요구사항 문서) 기반으로 에이전트가 자율적으로 코드를 작성하는 커뮤니티 패턴입니다. 상태를 git 히스토리 + 파일 시스템에 저장하고, 매 이터레이션마다 클린 컨텍스트로 새로 시작합니다. 2개월 만에 GitHub 스타 12,000+를 기록하며 하네스 엔지니어링의 가장 직접적인 구현 사례로 주목받고 있습니다.
보안: Lethal Trifecta와 Rule of Two
① 신뢰 불가 입력 (외부 웹, 이메일, 사용자) + ② 민감 데이터 접근 (개인정보, 내부 API) + ③ 상태 변경 능력 (이메일 발송, 파일 삭제)
Meta의 Rule of Two: 최대 두 가지만 동시 보유 가능. 세 가지 모두 필요 시 human-in-the-loop 필수.
📖 1.9 AI 엔지니어링 4년간의 진화에서 전체 맥락 보기 →
실무자가 하네스 엔지니어링에 기여하는 방법
| 역할 | 하네스 설계 기여 | 구체적 산출물 |
|---|---|---|
| PM | 비즈니스 규칙과 제약 조건을 CLAUDE.md에 반영 | 용어 사전, 금지 사항, 품질 기준 정의 |
| PL | 개발 프로세스와 에이전트 워크플로우 설계 | 에이전트 역할 분담, 코드 리뷰 규칙, 배포 파이프라인 |
| 개발자 | MCP 서버 구성, 권한 설정, 도구 체인 구현 | .mcp.json, settings.json, 커스텀 에이전트 |
실습 과제
여러분의 프로젝트에 맞는 CLAUDE.md를 작성해보세요. 최소 포함 항목: (1) 프로젝트 개요 3줄, (2) 코딩 규칙 5개, (3) 용어 사전 5개, (4) 금지 사항 3개. 이것만으로도 Claude Code의 출력 품질이 눈에 띄게 향상됩니다.