2026年3月31日火曜日

local aiの構成2

 今まで、windows版ollamaをインストールしておいて、cuiで起動し、さらにdocker内にいれたopen-webuiを起動して、localhostに繋げていたが、ollma自体をdocker内に入れて、ollamaとopen-webuiというコンテナを作ると、windowsのdockerアプリを立ち上げて、ollamaとopen-webuiのコンテナのスイッチを入れて、web uiを開くだけよくなる。

0 件のコメント:

コメントを投稿