본문 바로가기

AI

Local Deep Research 사용법 완벽 가이드: 로컬 AI 딥리서치 설치부터 Ollama·SearXNG·Docker 실행까지

반응형
Local Deep Research 사용법 완벽 가이드: 로컬 AI 딥리서치 설치부터 Ollama·SearXNG·Docker 실행까지
SEO 최적화 블로그 글 · 2026년 기준

Local Deep Research 사용법 완벽 가이드: 로컬 AI 딥리서치 설치부터 Ollama·SearXNG·Docker 실행까지

Local Deep Research는 로컬 LLM, 검색 엔진, 개인 문서 검색을 결합해 출처가 포함된 리서치 결과를 만들어주는 오픈소스 AI 연구 도구입니다. 이 글에서는 Docker Compose 설치, GPU 실행, pip 설치, 검색 엔진 설정, API 사용, MCP 연동, 문제 해결까지 실전 기준으로 정리합니다.

핵심 키워드: Local Deep Research 사용법 난이도: 초급~중급 추천 환경: Docker Compose 업데이트: 2026.05.11

1. Local Deep Research란?

Local Deep Research는 사용자가 복잡한 질문을 입력하면 웹 검색, 논문 검색, 로컬 문서 검색, LLM 요약을 조합해 출처가 포함된 리서치 보고서를 생성하는 오픈소스 AI 리서치 어시스턴트입니다.

공식 README에서는 이 프로젝트를 “deep, agentic research”를 수행하는 AI 연구 도구로 설명합니다. 즉 단순히 검색 결과 몇 개를 보여주는 수준이 아니라, 여러 검색 엔진과 LLM을 이용해 질문을 분해하고, 필요한 자료를 찾고, 내용을 종합해 인용 기반의 결과물을 만드는 방식입니다.

한 줄 요약: Local Deep Research는 “내 컴퓨터 또는 내 서버에서 돌릴 수 있는 오픈소스형 Deep Research 도구”라고 보면 됩니다.
로컬 LLM 지원

Ollama, llama.cpp, LM Studio 등 로컬 모델 기반으로 사용할 수 있습니다.

클라우드 LLM 지원

OpenAI, Anthropic, OpenRouter 같은 외부 LLM 제공자도 설정할 수 있습니다.

검색 엔진 통합

SearXNG, arXiv, PubMed, Semantic Scholar, Wikipedia, GitHub 등 다양한 검색 소스를 사용할 수 있습니다.

개인 문서 검색

PDF, TXT, Markdown, DOCX, CSV 등 로컬 문서를 업로드하고 AI 검색용 지식 베이스로 활용할 수 있습니다.

2. 왜 Local Deep Research를 사용할까?

일반적인 챗봇은 모델이 이미 알고 있는 지식이나 단일 검색 결과에 의존하는 경우가 많습니다. 반면 Local Deep Research는 검색 엔진과 문서 검색을 결합해 근거 중심의 리서치 흐름을 만들 수 있다는 점이 장점입니다.

구분 설명 활용 예시
개인 연구 논문, 웹 자료, 위키, 뉴스 등을 종합해 요약 “LFP 배터리 재활용 최신 연구 동향 정리”
개발 문서 분석 GitHub, 문서, 내부 자료를 함께 검색 “이 오픈소스 라이브러리의 API 사용법 정리”
기업 지식 베이스 사내 문서나 매뉴얼을 검색 가능한 컬렉션으로 구성 “우리 회사 배포 절차 요약”
프라이버시 중심 검색 Ollama와 SearXNG 조합으로 로컬 중심의 검색·요약 환경 구성 “개인 문서 기반으로만 질문 답변”
추천 사용 시나리오: 로컬 GPU 서버, 개인 NAS, 연구용 워크스테이션, 사내 문서 검색 서버, AI 리서치 자동화 서버를 만들고 싶은 경우에 특히 잘 맞습니다.

3. 설치 방법 요약

Local Deep Research는 여러 설치 방식을 제공합니다. 공식 문서 기준으로 일반 사용자에게 가장 쉬운 방법은 Docker Compose입니다. Docker Compose 방식은 Local Deep Research 웹 앱, Ollama, SearXNG를 한 번에 구성할 수 있어 초보자에게 가장 적합합니다.

설치 방식 추천 대상 장점 주의점
Docker Compose 대부분의 사용자 LDR, Ollama, SearXNG를 한 번에 실행 Docker와 Docker Compose 필요
Docker Run 컨테이너를 직접 제어하고 싶은 사용자 서비스별로 세밀한 제어 가능 Windows/macOS Docker Desktop에서는 네트워크 설정 주의
pip install Python 프로젝트에 통합하려는 개발자 Python API 사용이 편리 Ollama, SearXNG 등 주변 구성은 직접 준비해야 함
Unraid Unraid 서버 사용자 NAS/홈서버 환경에 적합 Unraid 환경 전용 설정 필요

4. Docker Compose로 Local Deep Research 설치하기

가장 간단한 설치 방식입니다. Docker와 Docker Compose가 설치되어 있다면 아래 명령어 하나로 기본 스택을 실행할 수 있습니다.

1

작업 폴더 만들기

먼저 Local Deep Research를 실행할 폴더를 하나 만듭니다.

mkdir local-deep-research
cd local-deep-research
2

CPU-only 방식으로 실행하기

macOS, Windows, Linux에서 가장 무난하게 사용할 수 있는 기본 명령어입니다.

curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml
docker compose up -d

실행 후 브라우저에서 http://localhost:5000으로 접속합니다.

3

다른 모델로 실행하기

기본 모델 대신 원하는 Ollama 모델을 지정할 수 있습니다. 예를 들어 gpt-oss:20b 모델을 사용하려면 다음처럼 실행합니다.

MODEL=gpt-oss:20b docker compose up -d

Docker Compose Guide에서는 LDR_LLM_MODEL 환경 변수로 모델을 지정하는 방식도 안내합니다.

LDR_LLM_MODEL=gemma3:4b docker compose up -d
4

서비스 상태 확인하기

컨테이너가 제대로 올라왔는지 확인합니다.

docker compose ps
docker compose logs -f
포인트: Docker Compose 기본 구성에는 local-deep-research, ollama, searxng 서비스가 포함됩니다. 즉, 웹 앱·로컬 LLM 실행 엔진·검색 엔진을 한 번에 띄우는 구조입니다.

5. NVIDIA GPU로 Local Deep Research 실행하기

Linux 서버에서 NVIDIA GPU를 사용하면 로컬 LLM 추론 성능을 높일 수 있습니다. GPU 사용을 위해서는 먼저 NVIDIA 드라이버와 NVIDIA Container Toolkit이 준비되어 있어야 합니다.

Ubuntu/Debian 기준 NVIDIA Container Toolkit 설치

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey \
  | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg

curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list \
  | sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' \
  | sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt-get update
sudo apt-get install nvidia-container-toolkit -y
sudo systemctl restart docker

nvidia-smi

GPU용 Docker Compose 실행

curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.yml
curl -O https://raw.githubusercontent.com/LearningCircuit/local-deep-research/main/docker-compose.gpu.override.yml

docker compose -f docker-compose.yml -f docker-compose.gpu.override.yml up -d

GPU 상태 확인

docker compose logs ollama
nvidia-smi
주의: GPU 옵션은 공식 문서 기준 Linux 전용으로 안내되어 있습니다. Windows나 macOS에서 Docker Desktop을 사용하는 경우에는 CPU-only 또는 별도 WSL2 GPU 설정을 검토하는 것이 좋습니다.

6. Docker Run 방식으로 직접 실행하기

Docker Compose 대신 컨테이너를 하나씩 실행할 수도 있습니다. 이 방식은 네트워크와 환경 변수를 직접 제어하고 싶을 때 유용합니다.

Linux 네이티브 Docker Engine 기준

# Step 1. SearXNG 실행
docker run -d -p 8080:8080 --name searxng searxng/searxng

# Step 2. Ollama 실행
docker run -d -p 11434:11434 --name ollama ollama/ollama
docker exec ollama ollama pull gpt-oss:20b

# Step 3. Local Deep Research 실행
docker run -d -p 5000:5000 --network host \
  --name local-deep-research \
  --volume "deep-research:/data" \
  -e LDR_DATA_DIR=/data \
  localdeepresearch/local-deep-research

macOS / Windows / WSL2 Docker Desktop 주의사항

공식 문서에서는 Docker Desktop 환경에서 --network host 방식이 기대대로 동작하지 않을 수 있다고 안내합니다. 이 경우 host.docker.internal을 사용해 Ollama와 SearXNG 주소를 지정하는 방식이 필요합니다.

docker run -d -p 5000:5000 \
  --name local-deep-research \
  --add-host=host.docker.internal:host-gateway \
  --volume "deep-research:/data" \
  -e LDR_DATA_DIR=/data \
  -e LDR_LLM_OLLAMA_URL=http://host.docker.internal:11434 \
  -e LDR_SEARCH_ENGINE_WEB_SEARXNG_DEFAULT_PARAMS_INSTANCE_URL=http://host.docker.internal:8080 \
  localdeepresearch/local-deep-research
초보자라면 Docker Run보다 Docker Compose 방식을 추천합니다. Compose 파일이 서비스 간 URL과 볼륨을 더 자연스럽게 연결해주기 때문입니다.

7. pip로 Local Deep Research 설치하기

Python 프로젝트에 직접 통합하거나, Python API 중심으로 사용하고 싶다면 pip 설치 방식을 사용할 수 있습니다. 다만 일반 사용자에게는 Docker 방식이 더 편합니다.

pip 설치 기본 흐름

# Step 1. Python 패키지 설치
pip install local-deep-research

# Step 2. SearXNG 실행
docker pull searxng/searxng
docker run -d -p 8080:8080 --name searxng searxng/searxng

# Step 3. Ollama 설치 후 모델 다운로드
ollama pull gemma3:12b

# Step 4. 웹 인터페이스 실행
ldr-web

실행 후 브라우저에서 http://localhost:5000으로 접속합니다.

Windows PDF 내보내기 주의: pip 설치 방식에서 Windows PDF Export를 사용하려면 Pango/Cairo 계열 시스템 라이브러리가 필요할 수 있습니다.

암호화 관련 참고

공식 pip 설치 가이드는 SQLCipher 기반 AES-256 암호화 데이터베이스를 사용한다고 설명합니다. 암호화를 사용하지 않아도 되는 개발 환경에서는 다음 환경 변수를 설정해 일반 SQLite를 사용할 수 있습니다.

export LDR_BOOTSTRAP_ALLOW_UNENCRYPTED=true

단, 이 경우 API 키와 데이터가 암호화되지 않은 상태로 저장될 수 있으므로 운영 환경에서는 신중하게 판단해야 합니다.

8. 처음 사용하는 방법

1단계: 웹 UI 접속

설치가 끝나면 브라우저에서 http://localhost:5000에 접속합니다. 처음 접속하면 계정을 생성하거나 로그인하는 화면이 나타납니다.

2단계: LLM 설정 확인

Settings 메뉴에서 LLM Provider를 확인합니다. Docker Compose 기본 구성이라면 Ollama가 함께 실행되므로, 로컬 모델을 선택해 사용할 수 있습니다.

설정 항목 예시 설명
LLM Provider ollama 로컬 Ollama 모델을 사용할 때 선택
Model gemma3:12b, gpt-oss:20b 사용할 로컬 모델명
Ollama URL http://ollama:11434 또는 http://localhost:11434 실행 방식에 따라 달라짐
Search Engine searxng, auto 일반 웹 검색에는 SearXNG 또는 auto 권장

3단계: 첫 리서치 질문 입력

예를 들어 다음과 같은 질문을 입력할 수 있습니다.

2026년 기준 로컬 LLM을 기업 내부 문서 검색에 활용할 때 장단점과 보안 고려사항을 정리해줘.

4단계: 리서치 전략 선택

Local Deep Research는 Quick Summary, Detailed Research, Report Generation, Document Analysis 같은 리서치 모드를 제공합니다. 빠른 답변이 필요하면 Quick Summary, 블로그 글이나 보고서 수준의 결과가 필요하면 Detailed Research 또는 Report Generation을 선택하는 식으로 활용할 수 있습니다.

모드 추천 상황 특징
Quick Summary 빠른 요약 짧은 시간 안에 핵심 요약과 출처 확인
Detailed Research 심층 조사 여러 검색 결과를 바탕으로 구조화된 분석
Report Generation 보고서 작성 목차와 섹션이 있는 전문 리포트 생성
Document Analysis 개인 문서 검색 업로드한 문서 컬렉션 기반 질의응답

9. 검색 엔진 설정과 추천 조합

Local Deep Research의 강점은 다양한 검색 소스를 함께 사용할 수 있다는 점입니다. 검색 엔진은 무료 검색 엔진, 프리미엄 검색 엔진, 커스텀 소스로 나눌 수 있습니다.

무료 검색 엔진

검색 엔진 추천 용도 특징
SearXNG 일반 웹 검색 여러 검색 엔진을 집계하는 프라이버시 중심 메타 검색 엔진
arXiv 컴퓨터공학, 물리, 수학 논문 논문·프리프린트 검색에 적합
PubMed 의학, 생명과학 바이오·의료 연구 검색에 적합
Semantic Scholar 학술 문헌 전반 논문 요약과 인용 관계 파악에 유용
Wikipedia 개념 정리 배경지식과 기초 개념 확인에 적합
GitHub 개발 문서, 코드 예제 오픈소스 라이브러리, 이슈, 코드 검색에 활용

프리미엄 검색 엔진

더 높은 검색 품질이나 안정적인 API 한도가 필요하다면 Tavily, Google via SerpAPI, Google Programmable Search Engine, Brave Search 같은 프리미엄 검색 엔진을 사용할 수 있습니다. API 키가 필요한 경우가 많으므로 운영 목적에 맞게 선택해야 합니다.

추천 조합

목적 추천 조합 설명
일반 블로그 리서치 auto 또는 searxng 웹 전반을 빠르게 조사할 때 적합
논문 중심 리서치 arxiv + semantic_scholar AI, 컴퓨터공학, 과학 논문 조사에 적합
의학·바이오 리서치 pubmed + semantic_scholar 의료·생명과학 문헌 검색에 적합
개발 자료 조사 github + searxng 코드 예제와 공식 문서 검색에 유리
프라이버시 우선 ollama + searxng + 로컬 문서 외부 LLM 호출을 최소화하고 로컬 중심으로 구성

10. 자주 쓰는 환경 변수 정리

대부분의 설정은 웹 UI에서 변경할 수 있지만, 서버 운영이나 Docker 배포에서는 환경 변수로 고정하는 편이 편리합니다. 단, 공식 Docker Compose Guide는 환경 변수로 설정하면 UI에서 읽기 전용처럼 동작할 수 있으므로, 나중에 바꿀 값은 웹 UI에서 설정하는 방식을 권장합니다.

환경 변수 예시 설명
LDR_WEB_HOST 0.0.0.0 Docker 환경에서 바인딩할 주소
LDR_WEB_PORT 5000 웹 서버 내부 포트
LDR_DATA_DIR /data 데이터 저장 경로
LDR_APP_ALLOW_REGISTRATIONS false 공개 배포 시 초기 계정 생성 후 회원가입 차단에 사용
LDR_LLM_PROVIDER ollama 사용할 LLM 제공자
LDR_LLM_MODEL gemma3:12b 사용할 모델명
LDR_BOOTSTRAP_ALLOW_UNENCRYPTED true 암호화 DB 대신 일반 SQLite 사용. 운영 환경에서는 주의 필요
운영 배포 주의: app.debug나 파일 로그를 켜면 민감한 오류 정보가 노출될 수 있습니다. API 키, 검색 기록, 개인 문서가 포함될 수 있는 환경에서는 디버그/로그 설정을 보수적으로 관리하는 것이 좋습니다.

11. Python API와 HTTP API 사용법

Local Deep Research는 웹 UI뿐만 아니라 Python API와 HTTP REST API도 제공합니다. 자동화 파이프라인, 사내 백엔드, 리서치 배치 작업에 연결하고 싶다면 API 사용법을 알아두는 것이 좋습니다.

Python API: 가장 간단한 사용 예시

from local_deep_research.api import LDRClient, quick_query

# 가장 간단한 한 줄 리서치
summary = quick_query("username", "password", "What is quantum computing?")
print(summary)

# 여러 작업을 수행할 때는 Client 사용
client = LDRClient()
client.login("username", "password")

result = client.quick_research("What are the latest advances in quantum computing?")
print(result["summary"])

HTTP API 기본 흐름

공식 API 문서에 따르면 API는 인증이 필요하며, 상태 변경 요청에는 CSRF 토큰이 필요합니다. 기본적인 흐름은 “로그인 → CSRF 토큰 획득 → 리서치 시작 → 상태 조회 → 결과 조회”입니다.

import requests
from bs4 import BeautifulSoup

session = requests.Session()

# 1. 로그인 페이지에서 CSRF 토큰 추출
login_page = session.get("http://localhost:5000/auth/login")
soup = BeautifulSoup(login_page.text, "html.parser")
login_csrf = soup.find("input", {"name": "csrf_token"}).get("value")

# 2. 로그인
session.post(
    "http://localhost:5000/auth/login",
    data={
        "username": "your_username",
        "password": "your_password",
        "csrf_token": login_csrf
    }
)

# 3. API 요청용 CSRF 토큰 획득
csrf = session.get("http://localhost:5000/auth/csrf-token").json()["csrf_token"]

# 4. 리서치 시작
response = session.post(
    "http://localhost:5000/api/start_research",
    json={
        "query": "Local LLM deployment best practices",
        "search_engines": ["searxng"]
    },
    headers={"X-CSRF-Token": csrf}
)

print(response.json())

주요 API 엔드포인트

엔드포인트 역할
POST /api/start_research 새 리서치 시작
GET /api/research/{id}/status 리서치 진행 상태 확인
GET /api/report/{id} 리서치 결과 조회
POST /api/terminate/{id} 실행 중인 리서치 중단
GET /settings/api/available-models 사용 가능한 LLM 제공자 확인
GET /settings/api/available-search-engines 사용 가능한 검색 엔진 확인

12. MCP 서버로 Claude Desktop·Claude Code와 연동하기

Local Deep Research는 MCP(Model Context Protocol) 서버도 제공합니다. 이를 이용하면 Claude Desktop 또는 Claude Code 같은 MCP 지원 클라이언트에서 Local Deep Research의 검색·리서치 기능을 도구처럼 호출할 수 있습니다.

MCP extras 설치

pip install "local-deep-research[mcp]"

Claude Desktop 설정 예시

{
  "mcpServers": {
    "local-deep-research": {
      "command": "ldr-mcp",
      "env": {
        "LDR_LLM_PROVIDER": "openai",
        "LDR_LLM_OPENAI_API_KEY": "sk-..."
      }
    }
  }
}

Claude Code 설정 예시

{
  "mcpServers": {
    "local-deep-research": {
      "command": "ldr-mcp",
      "env": {
        "LDR_LLM_PROVIDER": "ollama",
        "LDR_LLM_OLLAMA_URL": "http://localhost:11434"
      }
    }
  }
}
보안 주의: 공식 README는 MCP 서버가 로컬 STDIO 사용을 전제로 하며, 자체 인증이나 rate limiting이 없다고 설명합니다. 네트워크에 노출하려면 별도의 인증, 접근 제어, 프록시 보안 설정을 반드시 검토해야 합니다.

13. 자주 발생하는 문제와 해결 방법

문제 1. http://localhost:5000 접속이 안 됨

  • docker compose ps로 컨테이너 상태를 확인합니다.
  • docker compose logs local-deep-research로 웹 앱 로그를 확인합니다.
  • 포트 5000을 이미 다른 프로그램이 사용 중인지 확인합니다.
  • Docker Desktop 환경에서는 Docker Compose 방식을 우선 사용합니다.

문제 2. Ollama 모델이 로딩되지 않음

  • docker compose logs ollama로 Ollama 로그를 확인합니다.
  • 모델 이름이 정확한지 확인합니다. 예: gemma3:12b, gpt-oss:20b
  • 모델 다운로드를 위한 디스크 공간이 충분한지 확인합니다.
  • GPU 모델을 사용할 경우 VRAM이 부족하지 않은지 확인합니다.

문제 3. SearXNG 검색이 동작하지 않음

  • docker ps | grep searxng로 SearXNG 컨테이너 실행 여부를 확인합니다.
  • curl http://localhost:8080으로 직접 응답을 확인합니다.
  • LDR Settings에서 SearXNG Instance URL이 올바른지 확인합니다.
  • Docker Desktop 환경에서는 host.docker.internal 주소가 필요한지 확인합니다.

문제 4. GPU가 인식되지 않음

nvidia-smi
docker run --rm --gpus all nvidia/cuda:11.0-base nvidia-smi

위 명령어로 호스트와 Docker 컨테이너 양쪽에서 GPU가 보이는지 확인합니다. 보이지 않는다면 NVIDIA 드라이버 또는 NVIDIA Container Toolkit 설치 상태를 먼저 점검해야 합니다.

문제 5. 검색 결과가 너무 약하거나 부정확함

  • 일반 웹 검색은 searxng 또는 auto를 사용합니다.
  • 학술 주제는 arxiv, pubmed, semantic_scholar를 조합합니다.
  • 개발 관련 질문은 github 검색 엔진을 함께 사용합니다.
  • 더 높은 품질이 필요하면 Tavily, SerpAPI, Brave Search 같은 API 기반 검색을 검토합니다.

14. 운영 환경에서 권장하는 설정

개인 실험용과 운영용 설정은 다르게 접근해야 합니다. 특히 LDR은 사용자별 데이터베이스, API 키, 검색 기록, 개인 문서 컬렉션을 다룰 수 있으므로 서버 공개 여부에 따라 보안 수준을 조정해야 합니다.

항목 개인 로컬 사용 사내/서버 운영
접속 범위 localhost 중심 VPN, 방화벽, 리버스 프록시, HTTPS 권장
회원가입 기본값 사용 가능 초기 계정 생성 후 LDR_APP_ALLOW_REGISTRATIONS=false 권장
로그 문제 해결 시 임시 확인 민감정보 노출 방지, 접근권한 제한
LLM Ollama 로컬 모델 로컬 모델 또는 승인된 클라우드 API
검색 엔진 SearXNG, Wikipedia, arXiv SearXNG + 필요 시 유료 검색 API
문서 컬렉션 개인 문서 업로드 권한 분리, 백업, 데이터 보존 정책 필요
실무 팁: 처음에는 Docker Compose로 로컬에서 작게 시작하고, 모델·검색 엔진·문서 컬렉션 구성이 안정화되면 GPU 서버나 사내 서버로 옮기는 방식이 가장 안전합니다.

15. FAQ

Q1. Local Deep Research는 ChatGPT Deep Research와 같은 건가요?

완전히 같은 서비스는 아닙니다. 다만 사용자가 직접 설치하고, LLM과 검색 엔진을 선택해, 출처 기반 리서치 결과를 생성한다는 점에서 로컬형 Deep Research 도구로 이해할 수 있습니다.

Q2. RTX 4090 같은 GPU가 꼭 필요한가요?

꼭 필요하지는 않습니다. CPU-only Docker Compose 방식으로도 실행할 수 있습니다. 다만 큰 로컬 LLM을 빠르게 쓰려면 GPU가 유리합니다.

Q3. Ollama 없이 OpenAI API만으로도 사용할 수 있나요?

가능합니다. LLM Provider를 OpenAI 또는 OpenAI-compatible endpoint로 설정하면 외부 API 기반으로 사용할 수 있습니다. 단, 이 경우 리서치 질문과 일부 컨텍스트가 외부 LLM API로 전송될 수 있으므로 개인정보·기밀정보 처리 방침을 확인해야 합니다.

Q4. 개인 문서 검색은 어떻게 하나요?

웹 UI의 Collections 기능을 사용해 문서를 업로드하고 인덱싱하면 됩니다. 공식 검색 엔진 문서에 따르면 PDF, TXT, MD, DOCX, CSV 등 여러 형식의 로컬 문서를 사용할 수 있습니다.

Q5. 블로그 글 작성에 바로 활용할 수 있나요?

가능합니다. 다만 AI가 만든 결과는 반드시 원문 출처를 다시 확인하고, 저작권 문제를 피하기 위해 단순 복사 대신 재구성·해석·비평을 추가하는 방식으로 작성하는 것이 좋습니다.

Q6. 운영 서버에 공개해도 되나요?

공개 서버로 운영할 수는 있지만, 인증, 회원가입 제한, HTTPS, 방화벽, 로그 관리, API 키 관리, 문서 권한 분리 등을 먼저 갖춰야 합니다. 특히 MCP 서버는 공식 README에서 로컬 STDIO 사용을 전제로 안내하므로 네트워크 노출은 별도 보안 설계가 필요합니다.

16. 결론: Local Deep Research는 누구에게 적합한가?

Local Deep Research는 단순한 챗봇보다 “자료를 찾고, 비교하고, 출처를 남기고, 보고서 형태로 정리하는 작업”에 초점이 맞춰진 도구입니다. 로컬 LLM과 SearXNG를 함께 사용하면 프라이버시를 강화한 리서치 환경을 만들 수 있고, arXiv·PubMed·Semantic Scholar·GitHub 같은 검색 엔진을 결합하면 논문 조사나 개발 문서 분석에도 유용합니다.

처음 시작한다면 Docker Compose + Ollama + SearXNG 조합을 추천합니다. 이후 필요한 경우 GPU Compose, 외부 LLM API, 프리미엄 검색 엔진, Python API, MCP 연동으로 확장하면 됩니다.

추천 SEO 제목:
Local Deep Research 사용법 완벽 가이드: 로컬 AI 딥리서치 설치부터 Ollama·SearXNG·Docker 실행까지

출처 및 참고 자료

이 글은 아래 공식 GitHub 저장소와 문서를 바탕으로 작성했습니다. 실제 설치 전에는 공식 문서의 최신 내용을 다시 확인하는 것을 권장합니다.

  1. LearningCircuit/local-deep-research 공식 GitHub README
  2. Local Deep Research Installation Guide
  3. Local Deep Research Docker Compose Guide
  4. Local Deep Research pip Installation Guide
  5. Local Deep Research Search Engines Guide
  6. Local Deep Research API Quick Start
반응형