Appearance
Gemma3を動かす
Gemma3は、Gemini 2.0の技術をベースに、軽量に設計されたオープンソースの生成AIモデルです。
より少ないパラメータでより高品質な生成が可能とされており、そのGemma3を試すための環境を構築したいと思います。
今回は、ローカル環境およびGoogle Colaboratoryでの動作確認を紹介します。
ローカル環境での構築方法
動作確認した環境
OS: macOS Sequoia 15.3
メモリ: 32GB
Python: 3.11.9
Gemma3を使用するには、gemma
をインストールする必要があります。
bash
pip install gemma
注意
Gemma3が使用できるgemmaのバージョンは、Python3.11以降が要求されるので事前にPythonのバージョン確認を行いましょう。
bash
python -V
# Python 3.11.9
インストールが完了したら、以下のサンプルコードでGemma3を動かしてみます。
python
import os
from gemma import gm
os.environ["XLA_PYTHON_CLIENT_MEM_FRACTION"] = "1.00"
model = gm.nn.Gemma3_1B()
params = gm.ckpts.load_params(gm.ckpts.CheckpointPath.GEMMA3_1B_IT)
sampler = gm.text.ChatSampler(
model=model,
params=params,
multi_turn=True,
)
turn0 = sampler.chat('Share one methapore linking "shadow" and "laughter".')
print(turn0)
Google Colaboratoryでの構築方法
無料でGPUを利用できるGoogle ColaboratoryでもGemma3を試すことが可能です。
Google ColaboratoryでGemma3を試す場合は、以下の手順で試すことが可能です。
- 以下のGemmaが公開しているGoogle Colaboratoryを開く
- ランタイムのタイプがGPU(T4 GPU)になっていることを確認
- コードを実行
以上で、Google ColaboratoryでGemma3を試すことができます。
まとめ
Gemma3を試すための環境をローカル環境およびGoogle Colaboratoryで構築する方法を紹介しました。