Local LMM
(2024.5)
Macは統合メモリなので、VRAMを利用するLLMを動かしやすいらしい。たっぷりのVRAMを搭載したdGPUは高いけど、MacならApple Siliconでよい。Mac Studio M2 Ultra Unified memory 128GB
Ollamaをインストール
- install ollama
- terminalで操作する
- ollama run llama3 など、HPを参考に使いたいモデルをインストールする、数GBをダウンロードするのに時間がかかる
- そのままterminalで使うこともできる。終わるときはcontrol+d (mac)
- 再びterminalで使うときは、ollama run llama3 こんどはすぐに起動する。終わるときはcontrol+d (mac)
- 下記WebUIを使うと、Terminalでは使わなくなる
Web UIをインストール
- Docker Desktopをインストール
- Docker Desktopを起動する 初回はメッセージがでて、以下のように進めた
- recommand settings
- continue without signing in
- skip survey
- Terminalで以下のコマンドを打つ。ダウンロード等に時間がかかる
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
- Docker Desktopにいくと、コンテナ:Open-webuiができている
- http://localhost:3000 ローカルでアクセス
- アカウントを作る、フリをする 名前とメールとパスワード
- ログインする、フリをする
- 2度目のログインでは、アカウント名やパスワードは問われず。
Web UIを使う
- Docker Desktopを起動
- Containersより、Open-WebUIを選び、Portsで 3000:8080をクリック
- Safariが立ち上がって、http://localhost:3000にアクセスする形で、WebUIが起動する。
- Select a model(llama3:70B, command-r-plus 104Bを、ollamaでインストールしておいた)
- 会話する
Web UIにログインできない?
- Dockerで、コンテナ、イメージ、ボリュームのすべてから、WebUIを削除
- ターミナルからやり直す。docker run -d...(上記)
- Dockerのコンテナからlocalhostへ。アカウント登録作業をやり直す(上記)
- モデルは以前のままリストにでる。ollamaでダウンロードしたもの。