Llamaを自宅PCで使う:Ollamaを使ったインストール手順
量子コンピューターの活用も考え始めている昨今、AIを実務に以下に適用していくかが始まっています。そんな世相の中で私も自宅のPCで色々と試してみたくなったわけです。

皆さんもAI気になりませんか?
一般企業に勤める研究職では泣いた私がどんな風に「自分のAI」を実現していくかご覧ください。いろいろと考察した結果。メタ社が配布しているLlama3というバージョンを題材として作成していきます。業務時間に既に稼働している環境ですから多様安心です。
✅ 前提条件
・私のコンピューターは以下スベック: ・実装RAM:16.0Gb ・システム Windows10_Pro_64Bit ・ストレージはネットワークの別PCも使う ・作業PCのインストール前空き容量:119GB
・最低PCスペック: ・OS: macOS(M1/M2含む)、Windows 10/11、またはLinux ・メモリ: 最低でも8GB(理想は16GB以上) ・ストレージ: 少なくとも10GB以上の空き容量 ・GPU: なくても可(あると高速化可能)
① Ollamaのインストール
(GitHubへのOllamaのインストール画面)
▶ Windowsの場合:
公式サイト にアクセス「Download for Windows」をクリック
インストーラーを実行して、手順に従ってインストール
▶ macOSの場合:
公式サイトから
.dmg
をダウンロードアプリケーションフォルダにドラッグしてインストール
▶ Linuxの場合(例:Ubuntu):
② Ollamaを使ってLlamaをインストール
(コマンドラインでのllama3インストール)
上記のリンクで全体のフレームワークであるOllamaを導入しました。(2025/5/17インストール完了)この時点で私のPC内のメニューの中にラマのマークが出てきて使えるようになりました。可愛いものです。
そして、Llama3本体をインストールします。色々と試しがHuggingFaceというサイトがお勧めです。作業として、私の場合はMetaから以下内容のメールを受け、作業しました。:
🔽 利用可能なモデル一覧: 1. 事前学習済み(Pretrained)モデル Llama-3.1-8B:8Bパラメータ(今回インストール) Llama-3.1-405B:405Bパラメータ Llama-3.1-405B-MP16:モデル並列化16用(高性能GPUノード複数必要) Llama-3.1-405B-FP8:量子化された軽量版 2. 命令調整済み(Instruct)モデル Llama-3.1-8B-Instruct Llama-3.1-405B-Instruct MP16/FP8版もあり 3. 保護(セーフティ)モデル Llama-Guard-3-8B / INT8版 Llama-Prompt-Guard-2-86M / 22M
→ プロンプトインジェクションやジェイルブレイク攻撃を検知する安全フィルター用
🔐 Prompt Guard 2について 86M / 22Mモデルともにプロンプト攻撃の検知が可能 オープンソースとして提供され、開発者が簡単に導入・カスタマイズできる
⬇️ モデルのダウンロード方法
GitHubのLlamaモデルリポジトリ(Meta公式)を開く
Llama CLI
を使用してモデルをダウンロード(READMEに手順あり)ダウンロード時に以下の専用カスタムURLを使用する(クリックしてもアクセス不可):
https://llama3-1.llamameta.net/...?Policy=...&Signature=...&Key-Pair-Id=...
このURLは48時間有効で最大5回までダウンロード可能
必要に応じて再申請で新しいURLを取得できる
このメールとは別にダウンロード案内メールも送付される
🛠 活用アドバイス
GitHubリポジトリにあるコード例やトークン形式の使い方を確認すること
Instructモデルは、システムプロンプトやフォーマットに厳格であり、正しい入力が必要
⚠ 問題の報告先
モデルに関する技術的な問題:GitHub Issueページ
出力に関する懸念の報告:出力フィードバックフォーム
セキュリティ問題の報告:Facebook Whitehat
利用規約違反の報告:
LlamaUseReport@meta.com
📝 解釈と次のステップ
項目 | 内容 |
---|---|
使用可能モデル | Llama 3.1(8B/405B)、Instruct版、Guard系 |
モデル提供形式 | Pretrained / Fine-tuned / Protection |
ダウンロード方法 | CLI + カスタムURL(48時間有効) |
注意点 | 405Bは非常に重いため、高性能GPUが必要 |
推奨 | まずは「Llama-3.1-8B-Instruct」から試すのが現実的 |
また、インストールしたいバージョンはLlama3.1:8B。Ollamaがインストールされたら、ターミナル(またはコマンドプロンプト)を開いて以下を実行:
このコマンドで、Meta社の Llama 3 モデルがダウンロードされ、すぐにローカルで対話できるようになります。
💡 Llama 3を使いたい場合は
llama3
と入力するだけです:
③ 実行・利用方法
インストール後は、Ollamaが提供するターミナル上のチャットインターフェースでLlamaに話しかけられます。
もしGUIで使いたい場合は、Open WebUI を使うとブラウザベースでOllamaのモデルとやりとりできます。
🌟 補足:使えるモデルの一覧を確認する
OllamaにはLlamaだけでなく、多くのモデルも簡単に使えます。そうしたモデルは一覧表で簡単に見れます。:
または、Ollamaの公式モデル一覧 も確認してください。
✅ まとめ
手順 | 内容 |
---|---|
① | Ollamaをインストール |
② | ollama run llama3 でLlamaを実行 |
③ | CLIまたはWebUIで対話 |
〆最後に〆
以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。
nowkouji226@gmail.com
【全体の纏め記事へ】