Llamaを自宅PCで使う:Ollamaを使ったインストール手順
量子コンピューターの活用も考え始めている昨今、AIを実務に以下に適用していくかが始まっています。そんな世相の中で私も自宅のPCで色々と試してみたくなったわけです。一般企業に勤める研究職では泣いた私がどんな風に「自分のAI」を実現していくかご覧ください。いろいろと考察した結果。メタ社が行為介しているLlama3というバージョンを題材として作成していきます。
✅ 前提条件
・私のコンピューターは以下スベック:
・実装RAM:16.0Gb
・システム Windows10_Pro_64Bit
・ストレージはネットワークの別PCも使う
・作業PCのインストール前空き容量:119GB
最低PCスペック:
・OS: macOS(M1/M2含む)、Windows 10/11、またはLinux
・メモリ: 最低でも8GB(理想は16GB以上)・ストレージ: 少なくとも10GB以上の空き容量
・GPU: なくても可(あると高速化可能)
① Ollamaのインストール
▶ Windowsの場合:
公式サイト にアクセス
「Download for Windows」をクリック
インストーラーを実行して、手順に従ってインストール
▶ macOSの場合:
公式サイトから
.dmg
をダウンロードアプリケーションフォルダにドラッグしてインストール
▶ Linuxの場合(例:Ubuntu):
② Ollamaを使ってLlamaをインストール
Ollamaがインストールされたら、ターミナル(またはコマンドプロンプト)を開いて以下を実行:
このコマンドで、Meta社の Llama 3 モデルがダウンロードされ、すぐにローカルで対話できるようになります。
💡 Llama 3を使いたい場合は
llama3
と入力するだけです:
③ 実行・利用方法
インストール後は、Ollamaが提供するターミナル上のチャットインターフェースでLlamaに話しかけられます。
もしGUIで使いたい場合は、Open WebUI を使うとブラウザベースでOllamaのモデルとやりとりできます。
🌟 補足:使えるモデルの一覧を確認する
OllamaにはLlamaだけでなく、以下のような多くのモデルも簡単に使えます:
または、Ollamaの公式モデル一覧 も確認してください。
✅ まとめ
手順 | 内容 |
---|---|
① | Ollamaをインストール |
② | ollama run llama3 でLlamaを実行 |
③ | CLIまたはWebUIで対話 |
〆最後に〆
以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。
nowkouji226@gmail.com
【全体の纏め記事へ】