
【無料】DeepWiki:Ollamaを活用した完全ローカルAIドキュメンテーション生成ツール
はじめに:なぜDeepWikiが選ばれるのか?
DeepWikiは、Ollamaと連携して「コードから高品質な技術文書を完全ローカルで自動生成」するオープンソースプロジェクトです。クラウド依存ゼロ、プライバシー重視の開発現場に最適です。
DeepWikiの主な特徴
- データ完全ローカル処理:すべてのコード解析・文書生成がご自身のPC上で完結。機密コードをクラウドにアップロードする必要は一切ありません。
- コストゼロ運用:OpenAIなどの商用APIを経由せず、Ollamaのローカルモデルで動作。月額利用料やトークン課金が発生しません。
- オフラインでも利用可能:インターネット接続がなくても、フル機能(コード解析・文書生成・検索)をすべてご利用いただけます。
- 柔軟なモデル選択:プロジェクト要件に応じて、軽量モデルから高精度モデルまで、複数のAIモデルを自由に切り替え・組み合わせ可能です。
Ollamaのインストール手順(各OS対応)
Ollamaは、Windows/macOS/Linuxに対応した軽量・高性能なローカルLLM実行フレームワークです。以下より、お使いの環境に合わせてインストールしてください。
Windows向けインストール
- Ollama公式サイトからWindowsインストーラー(.exe)をダウンロード
- インストーラーを実行し、画面指示に従ってインストール
- インストール完了後、タスクトレイ(システムトレイ)にOllamaアイコンが表示されます(バックグラウンドで自動起動)
macOS向けインストール
- Ollama macOS版をダウンロード(.dmgファイル)
- ダウンロードしたOllamaアプリを「Applications」フォルダにドラッグ&ドロップ
- 「Launchpad」または「Applications」フォルダからOllamaを起動
Linux向けインストール(Ubuntu/Debian/CentOS推奨)
ターミナルで以下のコマンドを実行:
curl -fsSL https://ollama.com/install.sh | sh※ インストールスクリプトが取得できない場合は、GitHub Releasesページから最新版を手動ダウンロード・解凍してください。
※ カスタムインストール先をご指定の場合(例:/home/your_name/program_files/ollama)、~/.bashrc または ~/.zshrc に以下を追加してください:
export OLLAMA_HOME="/home/your_name/program_files/ollama"
export PATH="$OLLAMA_HOME/bin:$PATH"
export OLLAMA_HOST=localhost:11435 # デフォルトポートは11434ですが、DeepWikiでは11435を推奨設定反映後、Ollamaサービスを起動:
OLLAMA_HOST=0.0.0.0:11435 nohup $OLLAMA_HOME/bin/ollama serve > ~/ollama.log 2>&1 &必要なAIモデルのダウンロード
DeepWikiは以下の2つのモデルを併用して動作します:
- コード解析用埋め込みモデル:
nomic-embed-text(コード構造・意味を高精度で理解) - 文書生成用LLM:
qwen3:1.7b(日本語・英語両対応の高品質な技術文書生成)
ターミナルで以下を実行:
ollama pull nomic-embed-text
ollama pull qwen3:1.7b※ カスタムポート(例:11435)でOllamaを起動している場合は、次のように実行:
OLLAMA_HOST=localhost:11435 ollama pull nomic-embed-textDeepWikiの導入方法(ソースコードから)
GitHubリポジトリから最新版をクローンし、ローカル環境に展開します。
git clone https://github.com/AsyncFuncAI/deepwiki-open.gitプロジェクトルートディレクトリに .env ファイルを作成し、以下の内容を記述してください:
PORT=8001
OLLAMA_HOST=http://localhost:11435
DEEPWIKI_EMBEDDER_TYPE=ollama
embedder_ollama_model=nomic-embed-text
embedder_ollama:
type: ollama
model: "nomic-embed-text"
base_url: "http://localhost:11435"
embedder:
type: ollama
model: nomic-embed-text
base_url: http://localhost:11435 # ※ 必須:ポートは11435に統一バックエンド(APIサーバー)の起動
pip install -r api/requirements.txt
python -m api.mainフロントエンド(Web UI)の起動
npm install
npm run devDockerによる簡易デプロイ(推奨)
- ローカルイメージのビルド:
docker build -f Dockerfile-ollama-local -t deepwiki:ollama-local .- コンテナの起動(ポート3000/8001をホストへ公開):
docker run -p 3000:3000 -p 8001:8001 --name deepwiki \
-v ~/.adalflow:/root/.adalflow \
-e OLLAMA_HOST=http://host.docker.internal:11435 \
deepwiki:ollama-local※ Windows/macOSでは host.docker.internal、Linuxでは 172.17.0.1 を使用してください。
DeepWikiの使い方
- Webブラウザでアクセス: http://localhost:3000
- 対象リポジトリを指定:GitHub URL またはローカルのコードディレクトリパスを入力
- ローカルOllamaモードを選択:「ローカルOllamaモデルを使用する」にチェック
- 文書生成を実行:「ドキュメントを生成」ボタンをクリック
すると、DeepWikiが自動的に以下の処理を実行します:
- →
nomic-embed-textでコードの構造・関数・クラスを解析 - →
qwen3:1.7bで日本語/英語の技術文書(README、API仕様、使い方ガイドなど)を生成 - → 全処理を完全ローカル環境で実行(ネットワーク不要・データ流出ゼロ)


