PR

ローカルで動く無料AIエージェント『agenticSeek』環境構築をやってみた

スポンサーリンク

ローカルでAIエージェントを利用できる『agenticSeek』に興味がある方に向けて、環境構築を実施した内容・手順を共有します。

スポンサーリンク

『agenticSeek』とは?

agenticSeekとは、Ollama(オラマ)などのローカルのLLMを利用して、AIエージェントをローカル実行できるツールです。

スポンサーリンク

特徴

READMEより、本ツールの特徴は以下のように書かれています。

  • 🔒 完全ローカル&プライベート – すべてがあなたのマシン上で実行されます — クラウドなし、データ共有なし。あなたのファイル、会話、検索はプライベートに保たれます。
  • 🌐 スマートなウェブブラウジング – AgenticSeekは自分でインターネットを閲覧できます — 検索、読み取り、情報抽出、ウェブフォーム入力 — すべてハンズフリーで。
  • 💻 自律型コーディングアシスタント – コードが必要ですか?Python、C、Go、Javaなどでプログラムを書き、デバッグし、実行できます — すべて監視なしで。
  • 🧠 スマートエージェント選択 – あなたが尋ねると、タスクに最適なエージェントを自動的に見つけ出します。まるで専門家チームが助けてくれるようです。
  • 📋 複雑なタスクの計画と実行 – 旅行計画から複雑なプロジェクトまで — 大きなタスクをステップに分割し、複数のAIエージェントを使って物事を成し遂げることができます。
  • 🎙️ 音声対応 – クリーンで高速、未来的な音声と音声認識により、まるでSF映画のパーソナルAIのように話しかけることができます。
スポンサーリンク

環境構築

以下の日本語READMEの通りに実施していきます。

agenticSeek/README_JP.md at main · Fosowl/agenticSeek
Fully Local Manus AI. No APIs, No 0 monthly bills. Enjoy an autonomous agent that thinks, browses the web, and code f...

音声認識の機能の構築は未実施です。GUIとCUIのみです。

agenticSeekを動かすには、大きく3つのことが必要です。

  • ローカルLLM(Ollama)の実行
  • バックエンドプロセスの実行
  • CLIまたは、GUIの実行
スポンサーリンク

環境構築の前提

Chrome Driver、Docker、Python 3.10が必要です。

Chromeは最新版がインストールされていることを確認してください。

READMEにも記載がありますが、Python 3.10以外の場合、依存関係でエラーになります。

また、Ollamaのモデルは、DeepSeek-R1 14B以上が推奨です。

そのため、PCスペックは12GB VRAM(例:RTX 3060)以上であることを確認してください。

https://github.com/Fosowl/agenticSeek/blob/main/README_JP.md
スポンサーリンク

git clone と仮想環境構築

任意の作業フォルダで以下を実行してください。

#リポジトリのクローンとセットアップ
git clone https://github.com/Fosowl/agenticSeek.git
cd agenticSeek
mv .env.example .env

# 仮想環境の作成
python3 -m venv agentic_seek_env
source agentic_seek_env/bin/activate

Python 3.10ではない場合に本当にエラーになるか確認するためにPython3.12で実施してみると依存関係でエラーが出ました。

スポンサーリンク

自動インストールの実施

自動インストールと書かれている、以下を実施します。

./install.sh

記載のある通り、venvで3.10.0を入れて実施すると、問題なくinstallが完了しました。

音声認識はなくても動くので、READMEの以下はスキップしています。

テキスト読み上げ(TTS)機能で日本語をサポートするには、fugashi(日本語分かち書きライブラリ)をインストールする必要があります:**

** 注意: 日本語のテキスト読み上げ(TTS)機能には多くの依存関係が必要で、問題が発生する可能性があります。mecabrcに関する問題が発生することがあります。現在のところ、この問題を修正する方法が見つかっていません。当面は日本語でのテキスト読み上げ機能を無効にすることをお勧めします。**

必要なライブラリをインストールする場合は以下のコマンドを実行してください:

pip3 install --upgrade pyopenjtalk jaconv mojimoji unidic fugashi
pip install unidic-lite
python -m unidic download
スポンサーリンク

Ollamaのインストール・起動

OllamaというローカルのLLMを利用してagenticSeekを動かす場合、Ollamaの任意のモデルを起動しておく必要があります。

Ollamaのサイトからダウンロードし、実行するか、homebrewなどでインストールを行なってください。

brew install ollama
ollama run deepseek-r1:14b #指定したモデル(deepseek-r1:14b)をダウンロード
ollama serve #これで起動

最低deepseek-r1:14b以上を推奨しているので、このまま試すと問題ありません。

PCスペックに余裕があれば、14B,32Bなどの高性能なモデルに差し替えてください。

スポンサーリンク

設定ファイルの修正

設定ファイルconfig.iniを修正します。

[MAIN]
is_local = True # ローカルで実行するか、リモートプロバイダーで実行するか。
provider_name = ollama # またはlm-studio、openaiなど。
provider_model = deepseek-r1:14b # ハードウェアに合ったモデルを選択してください
provider_server_address = 127.0.0.1:11434
agent_name = Jarvis # AIの名前
recover_last_session = True # 前のセッションを復元するかどうか
save_session = True # 現在のセッションを記憶するかどうか
speak = True # テキスト読み上げ
listen = False # 音声認識、CLIのみ
work_dir =  /Users/mlg/Documents/workspace # AgenticSeekのワークスペース。
jarvis_personality = False # より「Jarvis」らしい性格を使用するかどうか(実験的)
languages = en # 言語のリスト、テキスト読み上げはリストの最初の言語にデフォルト設定されます
[BROWSER]
headless_browser = True # ヘッドレスブラウザを使用するかどうか、ウェブインターフェースを使用する場合のみ推奨。
stealth_mode = True # undetected seleniumを使用してブラウザ検出を減らす

provider_modelをollamaのダウンロードしたモデル名に変更しています。

スポンサーリンク

バックエンドの実行

仮想環境下で、以下を実行してください。

./start_services.sh
スポンサーリンク

CLIまたはGUIの実行

CLIの場合

python3 cli.py

GUIの場合

python3 api.py

を実行した後、Chromeでlocalhost:3000にアクセスしてください。

(別ブラウザで開いたらエラーが出てびっくりしました。)

これで環境構築は完了です。

スポンサーリンク

まとめ

思ったより簡単に構築できました。

が、14Bのモデルは遅くて、精度の悪くて使い物になりませんでした。「簡単なタスクのみ、ブラウジングも苦戦するかも」とREADMEにあったので、その通りでした。

環境さえ作ってしまえばモデルを変えるのは簡単なので、高性能なモデルで試してみようと思います。

agenticSeekのバージョンアップがあった時にどれくらいアプデ対応が楽なのかが使い続けるかどうかの焦点かなと思いました。

(自動インストールが使えなかったら見限ろうと思います。)

コメント