[AI 하네스 5편] 팀에 하네스 도입하기 — 설계 체크리스트와 단계별 가이드
규칙 파일, 메모리, Skills, Hooks.
개념은 알았다. 이제 실제로 팀에 적용해야 한다.
여기서 대부분의 팀이 실패한다.
"규칙 파일 500줄 만들어서 한 번에 전체 팀에 적용"
— 이것은 도입이 아니라 재난이다.
이 글에서는 현실적인 도입 전략을 다룬다.
1. 도입 전 체크리스트
하네스를 도입하기 전에, 먼저 팀의 현재 상태를 점검해야 한다.
## 기본 준비 상태
[ ] 팀의 코딩 컨벤션이 문서화되어 있는가?
→ 없으면 하네스보다 컨벤션 정리가 먼저다.
[ ] 빌드/배포 절차가 스크립트화되어 있는가?
→ "김 대리만 아는 배포 방법"이면 먼저 스크립트화.
[ ] 보안 정책이 명확한가?
→ "알아서 잘 하세요"이면 보안 규칙을 먼저 정의.
[ ] AI 코딩 에이전트 사용 경험이 있는 팀원이 있는가?
→ 없으면 1명이 2주간 먼저 사용해보고 시작.
## 인프라 준비
[ ] 린트/포맷터가 프로젝트에 설정되어 있는가? (ESLint, Prettier)
→ Hooks에서 자동 실행할 수 있는 기반.
[ ] Git 브랜치 전략이 있는가? (main, develop, feature/*)
→ AI가 어디에 커밋하고 PR을 만들지 알아야 한다.
[ ] CI/CD 파이프라인이 있는가?
→ 있으면 AI 결과물이 자동 검증됨. 없으면 Hooks가 더 중요.
체크가 4개 미만이면: 하네스 도입보다 기본 인프라 정비가 먼저.
체크가 4~6개면: 규칙 파일부터 시작. 점진적 도입.
전부 체크: 바로 본격 도입 가능.
2. 단계별 도입 가이드
1주차: 규칙 파일 작성
목표: AI가 프로젝트를 이해하게 만든다.
# 프로젝트 규칙 (v0.1 — 최소 시작)
## 프로젝트
- [프로젝트 이름]: [한 줄 설명]
- 스택: Next.js 14, TypeScript, PostgreSQL
## 빌드
- 개발: `npm run dev`
- 빌드: `npm run build:staging`
- 테스트: `npm run test`
## 규칙
- any 타입 금지
- console.log 커밋 금지
- 커밋: conventional commits 형식
30줄이면 된다. 완벽하지 않아도 된다.
이것만 있어도 AI는:
- 프로젝트 스택을 안다
- 빌드 명령을 안다
- 기본 규칙을 따른다
2주차: 챔피언 1명이 먼저 사용
목표: 실제 사용하면서 규칙 파일을 보완한다.
챔피언 = AI 에이전트를 가장 적극적으로 사용할 1명.
주니어든 시니어든 상관없다. "관심 있는 사람"이 챔피언이다.
챔피언이 해야 할 일:
1. 하루 2시간 이상 AI 에이전트 사용
2. AI가 틀린 것을 발견할 때마다 규칙 파일에 추가
3. 반복되는 작업을 발견하면 Skill 후보로 기록
4. 일주일 후 팀에 경험 공유
이 단계의 핵심은 "규칙 파일의 빈틈 찾기"다.
# 2주차에 추가된 규칙들 (챔피언 피드백)
## 코딩 (추가)
- 에러 핸들링: try-catch에서 catch 블록 비우지 마라
- API 응답: { success: boolean, data: T, error?: string } 형식 통일
- Import: 절대 경로 사용 (@/로 시작)
## 배포 (추가)
- npm run build 후 수동 복사 금지. deploy 스크립트만 사용.
- 환경: staging, production 구분. 빌드 명령 다름.
3주차: 메모리 축적 + Skills 추가
목표: 피드백을 메모리에 저장하고, 반복 작업을 자동화한다.
# 메모리 (3주차)
## 피드백
- DB 쿼리는 서비스 레이어에서만 실행 (컨트롤러/라우트에서 직접 쿼리 금지)
- 테스트 없이 커밋하면 CI 실패함. 커밋 전 반드시 npm run test.
- 이미지 파일은 public/images/ 에만 저장
## 진행 상황
- 검색 기능 리팩토링 중 (search/ 디렉토리)
- 결제 연동 API v2 개발 중 (4월 말 완료 예정)
# Skills (3주차)
## /commit
1. git diff 확인
2. conventional commits 형식으로 메시지 생성
3. .env 파일 포함 여부 확인
4. 커밋 실행
## /review-pr
1. PR의 변경 파일 확인
2. 보안 체크 (하드코딩, SQL Injection)
3. 코딩 컨벤션 체크
4. 리뷰 코멘트 작성
4주차: Hooks 추가
목표: 보안과 코드 품질을 강제한다.
{
"hooks": {
"preToolUse": [
{
"matcher": "bash",
"command": "bash -c 'if echo \"$TOOL_INPUT\" | grep -qE \"rm\\s+-rf|git\\s+push\\s+--force\"; then echo \"BLOCK: 위험 명령 차단\"; exit 1; fi'"
},
{
"matcher": "edit",
"command": "bash -c 'if echo \"$FILE_PATH\" | grep -qE \"\\.env\"; then echo \"BLOCK: .env 수정 차단\"; exit 1; fi'"
}
],
"postToolUse": [
{
"matcher": "edit",
"command": "npx prettier --write \"$FILE_PATH\" 2>/dev/null"
}
]
}
}
4주차 기준 하네스 구성:
하네스 v1.0
├── 규칙 파일 (80줄) — 빌드, 코딩, 아키텍처, 커밋, 보안
├── 메모리 (30줄) — 2주간의 피드백 + 프로젝트 상황
├── Skills (2개) — /commit, /review-pr
└── Hooks (3개) — 위험 명령 차단, .env 보호, 자동 포맷팅
5주차 이후: 팀 전체 롤아웃
목표: 검증된 하네스를 팀 전체에 적용한다.
## 롤아웃 순서
1. 팀 미팅에서 챔피언이 경험 공유 (15분)
- 어떤 점이 좋았는지
- AI가 어떤 실수를 했고, 규칙/Hook으로 어떻게 해결했는지
- 데모: /commit, /review-pr 시연
2. 팀원 각자 셋업 (30분)
- AI 에이전트 설치
- 규칙 파일은 이미 레포에 포함 (자동 적용)
- 개인 메모리 초기 설정
3. 1주일간 자유 사용
- 새로운 피드백은 슬랙 채널에 공유
- 좋은 피드백은 규칙 파일/메모리에 반영
4. 2주차부터 정기 리뷰 (격주)
- 규칙 파일 업데이트
- 새 Skill 추가 여부 논의
- Hook 추가/제거 논의
3. 실패하는 도입 vs 성공하는 도입
실패 패턴
패턴 1: "한 번에 완벽하게"
규칙 파일 500줄 작성
+ Skill 10개 정의
+ Hook 15개 설정
→ 한 번에 전체 팀 적용
→ "너무 복잡해서 못 쓰겠다"
→ 2주 후 아무도 안 씀
패턴 2: "도구만 주고 끝"
"여기 AI 에이전트 설치법이야. 알아서 써."
→ 교육 없음, 가이드 없음
→ 각자 다른 방식으로 사용
→ "AI 쓰니까 더 혼란스러워"
→ 1달 후 버림
패턴 3: "강제 적용"
"내일부터 모든 개발을 AI로 합니다"
→ AI에 관심 없는 팀원 반발
→ "내가 짜는 게 더 빠른데"
→ 형식적 사용 (AI 쓰는 척만)
→ 성과 없음
성공 패턴
패턴 1: "작게 시작, 점진적 확장"
1주차: 규칙 파일 30줄
2주차: 챔피언 1명 사용, 피드백 수집
3주차: 규칙 파일 80줄 + 메모리 + Skills 2개
4주차: Hooks 3개 추가
5주차: 팀 3명으로 확대
8주차: 전체 팀 적용
→ "자연스럽게 쓰게 됐다"
패턴 2: "효과를 보여주고 확산"
챔피언이 /commit으로 10초 만에 깔끔한 커밋
→ 동료: "그거 뭐야?"
→ 챔피언: "커밋 자동화. 써볼래?"
→ 자연스러운 확산
→ 강제 아닌 선택에 의한 도입
패턴 3: "매주 피드백 반영"
매주 금요일 15분:
- "이번 주에 AI가 틀린 게 있었나?"
- "규칙 파일에 뭘 추가할까?"
- "자동화하면 좋을 반복 작업이 있나?"
→ 매주 규칙이 정교해짐
→ 매주 AI의 결과물이 좋아짐
→ 3개월 후 "이거 없으면 불편하다"
4. 성과 측정
하네스 도입의 효과를 측정하는 4가지 지표.
4-1. PR 리뷰 시간
Before: PR당 평균 리뷰 시간 45분
After: PR당 평균 리뷰 시간 20분
이유: AI가 컨벤션/포맷/기본 패턴을 지키므로
리뷰어가 로직에만 집중할 수 있다.
4-2. 컨벤션 위반율
Before: PR당 컨벤션 코멘트 평균 4.2개
After: PR당 컨벤션 코멘트 평균 0.3개
이유: 규칙 파일 + Hooks가 컨벤션을 강제한다.
4-3. 보안 이슈 발생율
Before: 월 평균 시크릿 하드코딩 발견 2.5건
After: 월 평균 시크릿 하드코딩 발견 0건
이유: Hooks가 하드코딩을 물리적으로 차단한다.
4-4. 개발자 만족도
설문 (1~5점):
"AI 에이전트가 업무에 도움이 되는가?"
Before (하네스 없이): 평균 2.8점
After (하네스 적용): 평균 4.3점
"AI 에이전트의 결과물을 신뢰하는가?"
Before: 평균 2.2점
After: 평균 3.9점
5. 실제 도입 사례 (가상이지만 현실적인)
5-1. 5인 스타트업 — A사
상황:
- 풀스택 개발자 5명
- Next.js + TypeScript + PostgreSQL
- CI/CD 없음, 수동 배포
- 코딩 컨벤션 구두 합의만
도입 과정:
- 1주차: CTO가 규칙 파일 50줄 작성
- 2주차: CTO가 직접 2주간 사용
- 3주차: /commit, /deploy Skill 추가
- 4주차: 팀 전체 적용
결과 (2개월 후):
- PR 리뷰 시간: 40분 → 15분 (62% 감소)
- 커밋 메시지 품질: "fix bug" 같은 메시지 0건
- 배포 사고: 월 1~2회 → 0회 (deploy Skill 덕분)
- 부작용: 없음. 규모가 작아서 복잡한 Hooks 불필요.
5-2. 20인 팀 — B사 (이커머스)
상황:
- 프론트 8명, 백엔드 8명, 인프라 2명, QA 2명
- React + Spring Boot + MySQL
- GitHub Actions CI/CD 있음
- 코딩 컨벤션 위키에 있지만 안 지켜짐
도입 과정:
- 1주차: 테크 리드가 규칙 파일 100줄 작성 (프론트/백엔드 통합)
- 2~3주차: 프론트 1명 + 백엔드 1명이 챔피언으로 사용
- 4주차: 메모리 축적, /commit /review-pr Skill 추가
- 5주차: Hooks 추가 (포맷팅, 시크릿 감지, 결제 코드 경고)
- 6주차: 프론트 팀 전체 적용
- 8주차: 백엔드 팀 적용
- 12주차: 전사 적용 + /security-check Skill 추가
결과 (3개월 후):
- 보안 취약점: 월 5건 → 월 1건 (80% 감소)
- PR 리뷰 시간: 50분 → 25분
- 컨벤션 위반: PR당 5건 → 0.5건
- 결제 관련 버그: 월 2건 → 0건 (결제 코드 Hook 덕분)
- 챔피언 2명이 팀 내 AI 교육 담당으로 자리잡음
5-3. 100인 조직 — C사 (SaaS)
상황:
- 개발팀 60명 (프론트 20, 백엔드 25, 모바일 10, 인프라 5)
- 8개 마이크로서비스
- 팀별 스택 다름 (React, Vue, Spring, Node.js)
- 보안팀 별도, SOC2 인증 필요
도입 과정:
- 1~2주차: 전사 공통 규칙 파일 작성 (보안, 커밋 컨벤션 — 40줄)
- 3~4주차: 팀별 규칙 파일 작성 (각 30~50줄)
- 프론트팀: React, 상태관리, 컴포넌트 규칙
- 백엔드팀: API 설계, DB 쿼리, 에러 핸들링
- 모바일팀: 성능 규칙, 에셋 관리
- 5~8주차: 각 팀에서 챔피언 1명씩 사용
- 9~12주차: 팀별 Skills, Hooks 추가
- 공통: /commit, /review-pr
- 백엔드: /create-api, /security-check
- 인프라: /incident, /release-note
- 13주차~: MCP 연동
- Jira: 이슈 자동 생성/업데이트
- Slack: 배포 알림
- 모니터링 대시보드: 서버 상태 조회
계층 구조:
┌─────────────────────────────────────┐
│ 전사 규칙 (보안, 커밋) — 40줄 │
├──────────┬──────────┬───────────────┤
│ 프론트 │ 백엔드 │ 모바일 │
│ 규칙 50줄 │ 규칙 40줄 │ 규칙 30줄 │
├──────────┼──────────┼───────────────┤
│ 서비스A │ 서비스B │ iOS / Android │
│ 규칙 20줄 │ 규칙 25줄 │ 규칙 15줄 │
└──────────┴──────────┴───────────────┘
결과 (6개월 후):
- SOC2 감사 시 AI 코드 변경 추적 가능 (감사 로그 Hook)
- 보안 취약점: 분기 15건 → 3건
- 신규 개발자 온보딩 시간: 2주 → 3일 (/onboard Skill)
- 팀 간 코드 스타일 차이: "같은 회사 코드 같지 않다" → "일관성 있다"
6. 자주 묻는 질문
Q. "AI가 실수하면 누가 책임지나?"
A. 최종 리뷰는 항상 사람이 한다.
AI가 작성한 코드도 PR 리뷰를 거친다.
AI가 만든 커밋도 CI/CD에서 테스트된다.
AI는 "초안을 만드는 도구"이고, 최종 책임은 코드를 머지하는 사람에게 있다.
하네스의 역할은 AI의 실수 확률을 줄이는 것이지, 책임을 AI에게 넘기는 것이 아니다.
하네스 없는 AI: 실수 확률 30% → 사람이 전부 잡아야 함
하네스 있는 AI: 실수 확률 5% → 사람이 로직만 리뷰하면 됨
Q. "시니어 개발자가 필요 없어지나?"
A. 아니다. 하네스를 설계하는 것이 시니어의 새로운 역할이다.
Before: 시니어가 코드 리뷰에서 "이거 이렇게 고쳐" 반복
After: 시니어가 규칙 파일에 "이렇게 해라" 한 번 작성
→ AI가 모든 팀원에게 시니어의 기준을 적용
→ 시니어는 아키텍처 설계, 기술 의사결정에 집중
하네스 = 시니어의 경험과 판단을 스케일하는 도구.
Q. "모든 팀원이 써야 하나?"
A. 강제하지 마라. 효과를 보여줘라.
1단계: 챔피언 1명이 효과를 보여줌
2단계: 관심 있는 3~4명이 자발적으로 참여
3단계: "나도 써볼래" — 자연 확산
4단계: 안 쓰는 사람이 오히려 불편해지는 시점
강제로 시작하면 반발이 생긴다.
효과를 보여주면 자연스럽게 확산된다.
Q. "규칙을 자주 바꿔도 되나?"
A. 바꿔야 한다. 하네스는 살아있는 문서다.
1주차: 규칙 30줄
1개월: 규칙 80줄 (피드백 반영)
3개월: 규칙 70줄 (불필요한 것 제거, 정제)
6개월: 규칙 100줄 (새 기능/규칙 추가)
규칙 파일도 코드처럼 버전 관리된다. Git에 커밋하고, PR로 리뷰하고, 변경 이력을 추적한다.
Q. "MCP는 언제 도입하나?"
A. 외부 도구 연동이 필요할 때.
MCP 없이 가능:
- 코드 작성, 리뷰, 커밋, 로컬 빌드
MCP가 필요:
- Jira 이슈 자동 생성
- Slack 알림 전송
- 모니터링 대시보드 조회
- 외부 API 문서 참조
- 디자인 시스템(Figma) 연동
규칙 파일 + 메모리 + Skills + Hooks만으로도 80%는 커버된다.
MCP는 "외부 연동"이 필요할 때 추가한다.
7. 하네스 도입 로드맵 요약
Week 1 ─── 규칙 파일 작성 (30~50줄)
└── 빌드 명령, 코딩 스타일, 보안 기본
Week 2 ─── 챔피언 1명 사용 시작
└── 규칙 빈틈 발견 → 보완
Week 3 ─── 메모리 축적 + Skills 2개
└── /commit, /review-pr
Week 4 ─── Hooks 추가
└── 위험 명령 차단, 자동 포맷팅
Week 5 ─── 팀 3~5명 확대
└── 팀 미팅에서 경험 공유
Week 8 ─── 전체 팀 적용
└── 정기 리뷰 (격주)
Week 12 ── 고도화
└── 추가 Skills, MCP 연동, 부서별 Hooks
8. 마무리 — 하네스 시리즈를 마치며
5편에 걸쳐 AI 하네스의 모든 것을 다뤘다.
1편: 하네스란 무엇인가 — AI에게 회사 규칙을 가르치는 실행 환경
2편: 규칙 파일 작성법 — 구체적이고 명확한 규칙이 AI의 품질을 결정
3편: 메모리와 Skills — 경험 축적과 반복 작업 자동화
4편: Hooks와 보안 — 규칙을 물리적으로 강제하고 위험을 차단
5편: 팀 도입 가이드 — 작게 시작, 점진적 확장, 효과로 확산
가장 중요한 메시지:
하네스는 AI를 "제한"하는 것이 아니라,
AI가 "제대로" 동작하게 만드는 것이다.
규칙 파일 30줄로 시작하라.
내일 당장 만들 수 있다.
그 30줄이 6개월 후에는 팀 전체의 개발 문화를 바꿀 것이다.