Claude Code Haha 사용법 총정리: cc-haha 설치부터 API 설정, Windows 실행까지
Claude Code Haha(cc-haha)를 처음 사용하는 개발자를 위해 설치 준비물, 실행 명령어, API 환경변수 설정, LiteLLM 연동, 데스크톱 UI 사용법과 주의사항을 한 번에 정리했습니다.
Claude Code Haha란?
Claude Code Haha는 GitHub에 공개된 오픈소스 프로젝트로,
Claude Code와 비슷한 AI 코딩 경험을 로컬 환경에서 실행해볼 수 있도록 구성된 도구입니다.
프로젝트는 터미널 기반 TUI, --print 무헤드 실행, Anthropic 호환 API,
MCP 서버, 플러그인, Skills, 메모리 시스템, 다중 Agent, Computer Use, 데스크톱 UI 등을
지원한다고 소개되어 있습니다.
주요 기능
Claude Code Haha는 단순한 CLI 도구라기보다, AI 코딩 워크플로우를 여러 방식으로 실행할 수 있는 실험적 개발 환경에 가깝습니다.
- Claude Code와 유사한 Ink 기반 터미널 TUI 인터페이스
--print옵션을 활용한 무헤드 실행- Anthropic 호환 API 엔드포인트 및 커스텀 모델 설정
- OpenRouter, MiniMax, LiteLLM Proxy 등을 통한 제3자 모델 연동
- MCP 서버, 플러그인, Skills 시스템 지원
- 메모리 시스템과 다중 Agent 워크플로우 지원
- macOS 및 Windows Computer Use 기능
- Tauri 2 + React 기반 데스크톱 UI 제공
설치 전 준비물
공식 README 기준으로 Claude Code Haha를 실행하려면 먼저 Bun 런타임이 필요합니다. Windows 환경에서는 추가로 Git for Windows 설치가 필요합니다.
| 항목 | 설명 |
|---|---|
| Bun | 프로젝트 실행 및 의존성 설치에 필요한 JavaScript 런타임입니다. |
| Git | GitHub 저장소를 클론하기 위해 필요합니다. |
| API Key 또는 Auth Token | Anthropic 호환 API를 호출하기 위해 필요합니다. |
| Git for Windows | Windows에서 실행할 경우 공식 README에서 요구하는 준비물입니다. |
Claude Code Haha 설치 방법
Bun 설치
macOS 또는 Linux에서는 다음 명령어로 Bun을 설치할 수 있습니다.
curl -fsSL https://bun.sh/install | bash
macOS에서 Homebrew를 사용한다면 다음 명령어도 가능합니다.
brew install bun
Windows PowerShell에서는 다음 명령어를 사용할 수 있습니다.
powershell -c "irm bun.sh/install.ps1 | iex"
GitHub 저장소 클론
프로젝트를 원하는 위치에 클론합니다.
git clone https://github.com/NanmiCoder/cc-haha.git
cd cc-haha
의존성 설치
프로젝트 루트에서 Bun으로 의존성을 설치합니다.
bun install
.env 파일 생성
예제 환경변수 파일을 복사해서 실제 설정 파일을 만듭니다.
cp .env.example .env
.env 환경변수 설정 방법
Claude Code Haha는 API Key, Base URL, 모델명을 환경변수로 설정합니다.
기본적으로 ANTHROPIC_API_KEY 또는 ANTHROPIC_AUTH_TOKEN 중 하나를 사용할 수 있습니다.
기본 설정 예시
ANTHROPIC_API_KEY=sk-xxx
ANTHROPIC_BASE_URL=https://api.anthropic.com
ANTHROPIC_MODEL=claude-3-5-sonnet-latest
DISABLE_TELEMETRY=1
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
커스텀 API 서버를 사용하는 경우
Anthropic 공식 API가 아니라 Anthropic 호환 API 서버나 자체 프록시 서버를 사용할 경우
ANTHROPIC_BASE_URL을 해당 주소로 변경하면 됩니다.
ANTHROPIC_AUTH_TOKEN=dummy
ANTHROPIC_BASE_URL=http://127.0.0.1:4000
ANTHROPIC_MODEL=gpt-4o
ANTHROPIC_DEFAULT_SONNET_MODEL=gpt-4o
ANTHROPIC_DEFAULT_HAIKU_MODEL=gpt-4o
ANTHROPIC_DEFAULT_OPUS_MODEL=gpt-4o
API_TIMEOUT_MS=3000000
DISABLE_TELEMETRY=1
CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1
.env 파일,
~/.claude/settings.json 순서입니다.
macOS / Linux 실행 방법
macOS 또는 Linux에서는 프로젝트 루트에서 다음 명령어를 실행합니다.
인터랙티브 TUI 모드
./bin/claude-haha
프롬프트를 바로 전달하는 무헤드 모드
./bin/claude-haha -p "이 프로젝트 구조를 분석해줘"
도움말 확인
./bin/claude-haha --help
무헤드 모드는 CI, 자동화 스크립트, 간단한 코드 분석 작업에 활용하기 좋습니다.
Windows에서 Claude Code Haha 실행하기
Windows에서는 먼저 Git for Windows를 설치한 뒤 PowerShell 또는 cmd에서 Bun으로 직접 실행할 수 있습니다.
bun --env-file=.env ./src/entrypoints/cli.tsx
Git Bash를 사용하는 경우에는 macOS/Linux와 비슷하게 다음 명령어를 사용할 수 있습니다.
./bin/claude-haha
.env 파일이 있는지,
현재 터미널 위치가 cc-haha 폴더인지 먼저 확인하세요.
LiteLLM으로 OpenAI, DeepSeek, Ollama 모델 연결하기
Claude Code Haha는 Anthropic 프로토콜을 기반으로 LLM과 통신합니다. 하지만 LiteLLM Proxy를 사용하면 OpenAI, DeepSeek, Ollama 같은 모델도 연결할 수 있습니다. 구조는 다음과 같습니다.
claude-code-haha
└─ Anthropic 프로토콜
└─ LiteLLM Proxy
└─ OpenAI 호환 API
└─ OpenAI / DeepSeek / Ollama / 로컬 모델
LiteLLM 설치
pip install 'litellm[proxy]'
OpenAI 모델 설정 예시
model_list:
- model_name: gpt-4o
litellm_params:
model: openai/gpt-4o
api_key: os.environ/OPENAI_API_KEY
litellm_settings:
drop_params: true
DeepSeek 모델 설정 예시
model_list:
- model_name: deepseek-chat
litellm_params:
model: deepseek/deepseek-chat
api_key: os.environ/DEEPSEEK_API_KEY
api_base: https://api.deepseek.com
litellm_settings:
drop_params: true
여기서 drop_params: true가 중요합니다. Claude Code Haha가 Anthropic 전용 파라미터를 보낼 수 있기 때문에,
OpenAI 호환 API에서 지원하지 않는 파라미터를 LiteLLM이 제거하도록 설정하는 것이 안전합니다.
LiteLLM Proxy 실행
export OPENAI_API_KEY=sk-xxx
litellm --config litellm_config.yaml --port 4000
Claude Code Haha .env 연결
ANTHROPIC_AUTH_TOKEN=dummy
ANTHROPIC_BASE_URL=http://localhost:4000
ANTHROPIC_MODEL=gpt-4o
ANTHROPIC_DEFAULT_SONNET_MODEL=gpt-4o
ANTHROPIC_DEFAULT_HAIKU_MODEL=gpt-4o
ANTHROPIC_DEFAULT_OPUS_MODEL=gpt-4o
데스크톱 UI 사용 방법
Claude Code Haha는 터미널뿐 아니라 Tauri 2 + React 기반 데스크톱 UI도 제공합니다. 데스크톱 UI에서는 세션, 프로젝트, 코드 Diff, 권한 확인, 모델 제공자 설정, 예약 작업 등을 그래픽 환경에서 관리할 수 있습니다.
Web UI 개발 모드 실행
프로젝트 루트에서 API 서버를 먼저 실행합니다.
SERVER_PORT=3456 bun run src/server/index.ts
그다음 desktop 폴더에서 프론트엔드를 실행합니다.
cd desktop
bun run dev --host 127.0.0.1 --port 2024
브라우저에서 다음 주소로 접속합니다.
http://127.0.0.1:2024
3456 포트가 이미 사용 중이라면 기존 프로세스를 종료한 뒤 다시 실행해야 합니다.
Claude Code Haha 활용 예시
설치 후에는 프로젝트 폴더에서 다음과 같은 요청을 할 수 있습니다.
프로젝트 구조 분석
이 Flutter 프로젝트의 전체 구조를 분석하고 라우팅 구조를 설명해줘.
코드 리팩토링
이 화면 코드에서 UI/UX 문제를 찾아주고 프로덕션 환경에 맞게 개선해줘.
API Provider 작성
이 DTO 구조를 기준으로 Dio API Provider 코드를 작성해줘.
오류 로그 분석
이 에러 로그를 보고 원인을 분석하고 해결 방법을 알려줘.
자주 묻는 질문
Q1. Claude Code Haha는 공식 Claude Code인가요?
아닙니다. GitHub README 기준 이 프로젝트는 Claude Code 유출 소스를 기반으로 수정된 로컬 실행 버전이라고 설명되어 있습니다. 공식 Anthropic 제품으로 보기 어렵기 때문에 사용 전 라이선스와 법적 리스크를 확인해야 합니다.
Q2. Windows에서도 사용할 수 있나요?
가능합니다. Windows에서는 Git for Windows를 설치한 뒤
bun --env-file=.env ./src/entrypoints/cli.tsx 명령어로 실행할 수 있습니다.
Q3. OpenAI API나 DeepSeek API를 연결할 수 있나요?
가능합니다. LiteLLM Proxy를 사용하면 Anthropic 프로토콜 요청을 OpenAI 호환 API 형식으로 변환해 OpenAI, DeepSeek, Ollama 등 다양한 모델을 사용할 수 있습니다.
Q4. 실무 프로젝트에 바로 써도 되나요?
권장하지 않습니다. 특히 저장소가 유출 소스를 기반으로 한다고 명시되어 있기 때문에, 실무·상업적 사용 전 법적 검토와 보안 검토가 필요합니다. 먼저 개인 테스트 환경에서만 사용하는 것이 안전합니다.
마무리
Claude Code Haha는 Claude Code 스타일의 AI 코딩 환경을 로컬에서 실험해볼 수 있는 흥미로운 프로젝트입니다. Bun 기반 설치, Anthropic 호환 API 연결, LiteLLM을 통한 제3자 모델 연동, 데스크톱 UI까지 지원하기 때문에 AI Agent 기반 개발 워크플로우를 연구하는 개발자에게 참고할 만합니다.
다만 저장소 설명에 유출 소스 기반이라는 내용이 포함되어 있으므로, 실제 서비스나 회사 업무에 사용하기 전에는 라이선스, 저작권, 보안 문제를 반드시 확인해야 합니다.
참고 자료
'AI' 카테고리의 다른 글
| Local Deep Research 사용법 완벽 가이드: 로컬 AI 딥리서치 설치부터 Ollama·SearXNG·Docker 실행까지 (0) | 2026.05.11 |
|---|---|
| DeepSeek-TUI 완벽 가이드: 터미널에서 쓰는 DeepSeek AI 코딩 에이전트 설치·기능·활용법 (2) | 2026.05.06 |
| HBM 대체 기술 HB3DM/ZAM이 AI 데이터센터를 바꾸는 이유 (1) | 2026.05.04 |
| Qwen-Scope란? Qwen3·Qwen3.5 내부를 해석하는 SAE 모델 완벽 가이드 (0) | 2026.05.04 |
| Hermes Agent 디스코드 봇 연결 방법 완벽 가이드: 설치부터 Bot Token, Gateway 실행, 보안 설정까지 (0) | 2026.05.02 |