Open WebUIでモデルが見つからないときの対処法

AI・機械学習

概要

ローカルCPUでLLMを動かす方法を以下で紹介しましたが、
その際にOpen WebUIでOllamaにいれたはずのモデルが見つからないということがあったので、
その解決方法を書いておきます。

エラー内容

以下のようにモデル選択のところに何も表示されませんでした。

原因

Ollamaの接続先URLが間違っていることが原因でした。

解決方法

今回は、Dockerで起動している前提で進めていきますが、ローカルでOllamaを起動している場合は、おそらくエラーにならないかと思います。(デフォルトがlocalhostのようなので)

まずは、左側のアイコンから設定を表示します。

続いて、管理者設定を選択します。

その後、接続を選択すると以下のようなURL設定画面になります。

ここのOllamaURLを以下のように書き換えます。

http://host.docker.internal:11434

保存をクリックします。

これで、モデルが読み込まれると思います。

タイトルとURLをコピーしました