AIの自宅パソコンへのインストール【MetaのLlamaを題材として実体験】

New Challenge

Llamaを自宅PCで使う:Ollamaを使ったインストール手順

量子コンピューターの活用も考え始めている昨今、AIを実務に以下に適用していくかが始まっています。そんな世相の中で私も自宅のPCで色々と試してみたくなったわけです。一般企業に勤める研究職では泣いた私がどんな風に「自分のAI」を実現していくかご覧ください。いろいろと考察した結果。メタ社が行為介しているLlama3というバージョンを題材として作成していきます。

✅ 前提条件

・私のコンピューターは以下スベック:
・実装RAM:16.0Gb
・システム Windows10_Pro_64Bit
・ストレージはネットワークの別PCも使う
・作業PCのインストール前空き容量:119GB

  • 最低PCスペック:
    ・OS: macOS(M1/M2含む)、Windows 10/11、またはLinux
    ・メモリ: 最低でも8GB(理想は16GB以上)

    ・ストレージ: 少なくとも10GB以上の空き容量
    ・GPU: なくても可(あると高速化可能)


① Ollamaのインストール

▶ Windowsの場合:

  1. 公式サイト にアクセス

  2. 「Download for Windows」をクリック

  3. インストーラーを実行して、手順に従ってインストール

▶ macOSの場合:

  1. 公式サイトから .dmg をダウンロード

  2. アプリケーションフォルダにドラッグしてインストール

▶ Linuxの場合(例:Ubuntu):

以下コマンドを入力:
curl -fsSL https://ollama.com/install.sh | sh

② Ollamaを使ってLlamaをインストール

Ollamaがインストールされたら、ターミナル(またはコマンドプロンプト)を開いて以下を実行:

bash
ollama run llama3

このコマンドで、Meta社の Llama 3 モデルがダウンロードされ、すぐにローカルで対話できるようになります。

💡 Llama 3を使いたい場合は llama3 と入力するだけです:

CMDで(コマンドプロンプトで):
ollama run llama3

③ 実行・利用方法

インストール後は、Ollamaが提供するターミナル上のチャットインターフェースでLlamaに話しかけられます。

> ollama run llama3
>>> こんにちは、何ができますか?

もしGUIで使いたい場合は、Open WebUI を使うとブラウザベースでOllamaのモデルとやりとりできます。


🌟 補足:使えるモデルの一覧を確認する

OllamaにはLlamaだけでなく、以下のような多くのモデルも簡単に使えます:

ollama list

または、Ollamaの公式モデル一覧 も確認してください。


✅ まとめ

手順内容
Ollamaをインストール
ollama run llama3 でLlamaを実行
CLIまたはWebUIで対話

〆最後に〆

以上、間違い・ご意見は
次のアドレスまでお願いします。
最近は全て返信出来てませんが
適時、返信して改定をします。

nowkouji226@gmail.com

全体の纏め記事へ】

タイトルとURLをコピーしました