\

Llama2とは

Llama2 (ラマツー)とは、Facebookを運営するMeta社が開発した言語生成AI (LLM)で、OpenAI社のChatGPTに匹敵する性能を持っています。Llama2の特徴としては、軽量モデルで高性能、そして無料で使えるオープンソースであるため、開発者にとって扱いやすいモデルになっています。

Windowsのローカル環境でLlama2を動かす (llama-cpp-python)

llama-cpp-pythonは、Llama.cppをPythonで扱えるようにしたバインディングです。Llama.cppはもともとMacBookでLlamaを実行することを目指して開発されたランタイムですが、Windowsでも動かすことができます。Windowsの環境では主にCPUを利用して、4bit量子化されたLlama2モデルを実行することが可能です。

Llama 2 のモデル一覧

「Llama.cpp」を利用するには、「Llama 2」モデルをGGML形式に変換する必要があります。HuggingFaceには、変換済みのモデルが公開されていますので、これを使用します。

実行環境

この記事では以下のスペックのMacBookを使用しました。
– OS:Windows 11
– CPU:Intel Core i5-113
– メモリ:8GB

WSL・Ubuntuのインストール

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

Dockerのリポジトリを設定する

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

Dockerをインストールする

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

ユーザーをDockerグループに追加

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

モデルのダウンロード

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

Dockerイメージのビルドとコンテナ起動

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

llama-cpp-pythonのモデル設定

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

llama-cpp-pythonでテキスト生成

Ubuntuのコマンドラインからapt パッケージを更新します。必要なパッケージをインストールします。

まとめ

この記事では、Windows CPUのローカル環境を使ってLlama-cpp-pythonによるテキスト生成をする方法(推論)について紹介しました。Llama2は、Facebookを運営するMeta社が開発した言語生成AI (LLM)で、OpenAI社のChatGPTに匹敵する性能を持っています。Llama2の特徴としては、軽量モデルで高性能、そして無料で使えるオープンソースであるため、開発者にとって扱いやすいモデルになっています。

投稿者 admin

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です