AIの自宅パソコンへのインストール【MetaのLlamaを題材として実体験】

New Challenge

Llamaを自宅PCで使う:Ollamaを使ったインストール手順

量子コンピューターの活用も考え始めている昨今、AIを実務に以下に適用していくかが始まっています。そんな世相の中で私も自宅のPCで色々と試してみたくなったわけです。

皆さんもAI気になりませんか?

一般企業に勤める研究職では泣いた私がどんな風に「自分のAI」を実現していくかご覧ください。いろいろと考察した結果。メタ社が配布しているLlama3というバージョンを題材として作成していきます。業務時間に既に稼働している環境ですから多様安心です。

✅ 前提条件

・私のコンピューターは以下スベック:
・実装RAM:16.0Gb
・システム Windows10_Pro_64Bit
・ストレージはネットワークの別PCも使う
・作業PCのインストール前空き容量:119GB
・最低PCスペック:
・OS: macOS(M1/M2含む)、Windows 10/11、またはLinux
・メモリ: 最低でも8GB(理想は16GB以上)
・ストレージ: 少なくとも10GB以上の空き容量
・GPU: なくても可(あると高速化可能)

① Ollamaのインストール


(GitHubへのOllamaのインストール画面)

▶ Windowsの場合:

  1. 公式サイト にアクセス「Download for Windows」をクリック

  2. インストーラーを実行して、手順に従ってインストール

▶ macOSの場合:

  1. 公式サイトから .dmg をダウンロード

  2. アプリケーションフォルダにドラッグしてインストール

▶ Linuxの場合(例:Ubuntu):

以下コマンドを入力:
curl -fsSL https://ollama.com/install.sh | sh

② Ollamaを使ってLlamaをインストール


(コマンドラインでのllama3インストール)

上記のリンクで全体のフレームワークであるOllamaを導入しました。(2025/5/17インストール完了)この時点で私のPC内のメニューの中にラマのマークが出てきて使えるようになりました。可愛いものです。
そして、Llama3本体をインストールします。色々と試しがHuggingFaceというサイトがお勧めです。作業として、私の場合はMetaから以下内容のメールを受け、作業しました。:

🔽 利用可能なモデル一覧:

1. 事前学習済み(Pretrained)モデル

Llama-3.1-8B:8Bパラメータ(今回インストール)
Llama-3.1-405B:405Bパラメータ
Llama-3.1-405B-MP16:モデル並列化16用(高性能GPUノード複数必要)
Llama-3.1-405B-FP8:量子化された軽量版

2. 命令調整済み(Instruct)モデル

Llama-3.1-8B-Instruct
Llama-3.1-405B-Instruct
MP16/FP8版もあり

3. 保護(セーフティ)モデル

Llama-Guard-3-8B / INT8版
Llama-Prompt-Guard-2-86M / 22M
→ プロンプトインジェクションやジェイルブレイク攻撃を検知する安全フィルター用

🔐 Prompt Guard 2について

86M / 22Mモデルともにプロンプト攻撃の検知が可能
オープンソースとして提供され、開発者が簡単に導入・カスタマイズできる

⬇️ モデルのダウンロード方法
  1. GitHubのLlamaモデルリポジトリ(Meta公式)を開く
  2. Llama CLI を使用してモデルをダウンロード(READMEに手順あり)
  3. ダウンロード時に以下の専用カスタムURLを使用する(クリックしてもアクセス不可):
https://llama3-1.llamameta.net/...?Policy=...&Signature=...&Key-Pair-Id=...
このURLは48時間有効で最大5回までダウンロード可能
必要に応じて再申請で新しいURLを取得できる
このメールとは別にダウンロード案内メールも送付される

🛠 活用アドバイス
  • GitHubリポジトリにあるコード例トークン形式の使い方を確認すること
  • Instructモデルは、システムプロンプトやフォーマットに厳格であり、正しい入力が必要

⚠ 問題の報告先

📝 解釈と次のステップ
項目
内容
使用可能モデル
Llama 3.1(8B/405B)、Instruct版、Guard系
モデル提供形式
Pretrained / Fine-tuned / Protection
ダウンロード方法
CLI + カスタムURL(48時間有効)
注意点
405Bは非常に重いため、高性能GPUが必要
推奨
まずは「Llama-3.1-8B-Instruct」から試すのが現実的

また、インストールしたいバージョンはLlama3.1:8B。Ollamaがインストールされたら、ターミナル(またはコマンドプロンプト)を開いて以下を実行:

ollama run llama3

このコマンドで、Meta社の Llama 3 モデルがダウンロードされ、すぐにローカルで対話できるようになります。

💡 Llama 3を使いたい場合は llama3 と入力するだけです:

CMDで(コマンドプロンプトで):
ollama run llama3

③ 実行・利用方法

インストール後は、Ollamaが提供するターミナル上のチャットインターフェースでLlamaに話しかけられます。

> ollama run llama3
>>> こんにちは、何ができますか?

もしGUIで使いたい場合は、Open WebUI を使うとブラウザベースでOllamaのモデルとやりとりできます。


🌟 補足:使えるモデルの一覧を確認する

OllamaにはLlamaだけでなく、多くのモデルも簡単に使えます。そうしたモデルは一覧表で簡単に見れます。:

コマンドは ollama list
 

または、Ollamaの公式モデル一覧 も確認してください。


✅ まとめ

手順内容
Ollamaをインストール
ollama run llama3 でLlamaを実行
CLIまたはWebUIで対話

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

全体の纏め記事へ】

タイトルとURLをコピーしました