自宅でChatGPTを動かそう!Windows/Linux対応・Open-WebUIとDockerで実現するプライベートAI環境構築ガイド

AI・機械学習

【決定版】自宅でChatGPTを動かそう!Windows/Linux対応・Open-WebUIとDockerで実現するプライベートAI環境構築ガイド

AIチャットは非常に便利ですが、「月々のAPI料金が気になる」「仕事のデータを外部のAIサービスに送るのは、セキュリティが少し心配」と感じたことはありませんか?あるいは、ご自身だけのAI環境を自由にカスタマイズしてみたいと思ったことはないでしょうか。

この記事では、人気のオープンソースツールOpen-WebUIと、コンテナ技術の標準であるDockerを使い、ご自身のWindows PC自宅サーバー(Linux)上に、高機能なプライベートAIチャット環境を構築する方法を、ステップバイステップで徹底解説します。

じゅんち8

[この記事でわかること] じゅんち8の実感
Dockerを使えば、コマンド一つで驚くほど簡単に、まるでChatGPTのようなUIが手に入ります。この記事のゴールは、単にツールを導入するだけでなく、OpenAIの最新モデルを使ったり、完全なオフライン環境でローカルLLMを試したりと、ご自身の目的に合わせてAIを使いこなす第一歩を踏み出すことです。

本記事は、PCの基本操作に慣れている方から、自宅サーバーで本格的な運用を目指す方まで、幅広い読者を対象としています。さあ、あなただけのAI環境構築を始めましょう。


2. 必要なもの

本格的な環境構築を始める前に、以下の3つを準備しておきましょう。

  • 1. OpenAIのAPIキー
    • 高性能なAIモデルを利用するために必要です。お持ちでない方は、OpenAIの公式サイトからアカウントを作成し、支払い情報を登録することで取得できます。
  • 2. Docker と Docker Compose が動作する環境
    • Open-WebUIを簡単・確実に起動するために、Dockerを利用します。
    • Windows / Mac の方: Docker Desktop をインストールしてください。DockerとDocker Composeの両方が一度に準備できます。
    • Linux の方: Docker EngineとDocker Composeをそれぞれインストールしてください。
  • 3. 【オプション】AI処理を高速化するGPU
    • これは必須ではありません。応用編で紹介するローカルLLMを高速に動作させたい場合に、NVIDIA製のグラフィックボード(GPU)があると、AIの応答が劇的に速くなります。まずはGPUなしで試してみて、速度に不満があれば検討するのがおすすめです。
      (補足:2025年現在、AMD製のRadeon GPUでも、ROCmなどを通じて多くのモデルが動作するようになっています。)

3. Open-WebUIとは?

Open-WebUIは、様々なLLM(大規模言語モデル)と対話するための、オープンソースのWebインターフェースです。元々は「Ollama WebUI」という名前で、ローカルLLMを動かすためのツールとして人気を博しましたが、現在ではOpenAIやOpenRouterなど外部のAPIにも対応し、総合的なAIチャットプラットフォームに進化しています。

じゅんち8

[ポイント] じゅんち8の実感
一言でいうと「自前でホストできる、超高機能なChatGPTの画面」です。動作も軽快で、カスタマイズ性も高く、一度使うと手放せなくなります。

主な特徴は以下の通りです。

  • 多様なモデルへの接続
    • この記事で紹介するOpenAI APIやOpenRouterはもちろん、Ollamaと連携してローカルLLMを動かすこともできます。
  • 快適なチャットUI
    • 公式のChatGPTと非常によく似た、直感的で使いやすいインターフェースを提供します。
  • RAG(検索拡張生成)機能
    • これが非常に強力です。手持ちのPDFやテキストファイルをアップロードし、その文書の内容についてAIに質問することができます。社内文書や論文の読み込みに最適です。
  • 高いカスタマイズ性
    • オープンソースであるため、見た目の変更や機能の追加などを自由に行うことができます。

次のセクションから、いよいよこのOpen-WebUIを、ご自身の環境に構築していきます。


4. Dockerを使った環境構築手順(本編)

ここからは、実際にOpen-WebUIを起動する手順を解説します。Dockerの基本的な知識がなくても、コピー&ペーストで進められるように案内しますので、ご安心ください。

ステップ1: `docker-compose.yml` の作成

まず、PC上で作業用のフォルダを新規作成します(例: `my-open-webui`)。
次に、そのフォルダの中に、以下の内容で `docker-compose.yml` という名前のファイルを作成してください。

じゅんち8

[ポイント] `docker-compose.yml`とは?
これは、Dockerで動かすアプリケーションの「設計図」のようなものです。どのソフトウェア(コンテナ)を、どのような設定で起動するかを定義します。このファイル一つで、複雑な環境構築が自動化できます。

▼ `docker-compose.yml` に、以下の内容をコピーして貼り付け

version: '3.8'

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - ./open-webui:/app/backend/data
    environment:
      - "OLLAMA_BASE_URL=http://host.docker.internal:11434"
    extra_hosts:
      - "host.docker.internal:host-gateway"
    restart: unless-stopped

ステップ2: コンテナの起動

`docker-compose.yml` を保存したら、ターミナル(WindowsならPowerShellやコマンドプロンプト)を開き、そのファイルがあるフォルダに移動してください。

そして、以下のコマンドを一度だけ実行します。

docker-compose up -d

このコマンドが成功すると、Dockerは `docker-compose.yml` の内容に従って、必要なソフトウェアのダウンロードと起動をバックグラウンドで自動的に行ってくれます。(`-d`はバックグラウンドで実行するという意味です)

ステップ3: Open-WebUIへのアクセスと初期設定

コンテナの起動が完了したら、Webブラウザを開き、以下のアドレスにアクセスします。

http://localhost:3000

初回アクセス時には、サインアップ画面が表示されます。

  1. 「Sign up」のリンクをクリックします。
  2. 名前、メールアドレス、パスワードを入力して、最初の管理者アカウントを作成してください。

ログイン後の画面が表示されれば、環境構築は成功です!


5. 外部APIとの連携 (OpenAI & OpenRouter)

環境構築が完了しただけでは、まだAIと会話することはできません。次に、Open-WebUIを外部のAIモデル(頭脳)に接続する設定を行います。ここでは、代表的な二つの接続方法を紹介します。

5.1. OpenAI APIを直接使う場合

まずは、OpenAIのモデルを直接利用する方法です。ここでは、コストと性能のバランスに優れた `GPT-4.1-mini` を例に説明します。

  1. Open-WebUIの画面右上のアカウント名をクリックし、表示されるメニューから「設定(Settings)」を選択します。
  2. 左側のメニューから「接続(Connections)」を選びます。
  3. 「OpenAI」の項目にあるAPIキーの入力欄に、ご自身のOpenAI APIキーを貼り付け、「接続を保存」をクリックします。
  4. メインのチャット画面に戻り、画面上部にあるモデル選択のドロップダウンリストから、`openai/gpt-4.1-mini` を選択します。

これで、高性能なAIと会話を始める準備ができました。

5.2. OpenRouter経由で多様なモデルを使う場合

「色々なモデルを試したい」「コストを最適化したい」という方には、OpenRouterの利用が断然おすすめです。

じゅんち8

[ポイント] OpenRouterで可能性を広げよう
OpenRouterを使えば、GPTシリーズだけでなく、Anthropic社のClaude 4.1 Opusなど、400種類以上のモデルを同じ画面から呼び出せます。モデルごとの料金比較も簡単で、API費用を大幅に削減できる可能性があります。
より詳しい解説は、こちらの記事「OpenRouter徹底活用ガイド」もご覧ください。

設定方法はOpenAIの場合とほぼ同じです。

  1. 「設定」>「接続」画面を開きます。
  2. 今度は「OpenRouter」の項目に、ご自身のOpenRouter APIキーを貼り付け、「接続を保存」をクリックします。
  3. メイン画面に戻ると、モデル選択のリストに `Anthropic/claude-opus-4.1` や `Google/gemini-2.5-pro` など、膨大な数のモデルが表示されるようになります。

6. 【応用編】OllamaでローカルLLMを動かしてみる

APIの料金や外部サーバーへのデータ送信を一切気にせず、完全にプライベートなAI環境を構築したい方のために、Ollamaを使ってローカルでLLMを動かす方法を簡単にご紹介します。

Ollamaは、オープンソースLLMをご自身のコンピューターで驚くほど簡単に実行するためのツールです。

連携の基本ステップ

  1. Ollamaの公式サイトから、お使いのOS用のアプリをインストールします。
  2. ターミナルで ollama run llama3:8b のようなコマンドを実行し、使いたいモデルをダウンロードします。
  3. これだけで、Open-WebUIのモデル選択リストに、ダウンロードしたローカルモデルが自動で表示され、すぐに使えるようになります。
じゅんち8

[予告] ローカルLLMの深掘り記事について
Ollamaを使えば、Meta社の`Llama 3`や、日本語に特化したモデルなど、様々なLLMを試すことができます。各モデルの詳しい性能比較や、GPUを使った本格的な環境構築については、近日公開予定の別記事で詳しく解説しますので、お楽しみに!


7. まとめ

本記事では、DockerとOpen-WebUIを使い、ご自身のWindows PCやLinuxサーバー上に、高機能なプライベートAIチャット環境を構築する方法を解説しました。

この記事で学んだこと

  1. 驚くほど簡単な環境構築
    • Dockerを使えば、たった一つのdocker-compose.ymlファイルと、docker-compose up -dコマンドだけで、複雑な環境がすぐに手に入ります。
  2. 圧倒的な柔軟性
    • OpenAIの最新モデル、OpenRouter経由の多様なモデル、そしてOllamaを使った完全ローカルモデルまで、やりたいことに合わせてAIの「頭脳」を自由に切り替えられます。
  3. プライバシーとコストの管理
    • 機密性の高い情報はローカルLLMで処理し、高度な推論が必要な場合のみ外部APIを使う、といったハイブリッドな運用で、セキュリティとコストを両立できます。
  4. 公式を超える高機能UI
    • PDFなどの文書を読み込ませて内容について質問できるRAG機能など、公式のChatGPTにはない便利な機能を活用できます。

次のステップ

この記事を読み終えた今、もう自分だけのAI環境を手に入れる準備ができています。

まずはPCにDocker Desktopをインストールし、記事で紹介した`docker-compose.yml`を作成するところから、その第一歩を踏み出してみましょう。

AI開発の未来は、適切なツール選択から始まります。この記事が、その助けとなれば幸いです。

関連記事

タイトルとURLをコピーしました