Skip to content
sumnail

Gemma3を試す環境を構築する

created at : 2025/03/18

生成AI
Python
Gemma3

Gemma3を動かす

Gemma3は、Gemini 2.0の技術をベースに、軽量に設計されたオープンソースの生成AIモデルです。

より少ないパラメータでより高品質な生成が可能とされており、そのGemma3を試すための環境を構築したいと思います。

今回は、ローカル環境およびGoogle Colaboratoryでの動作確認を紹介します。

ローカル環境での構築方法

動作確認した環境

OS: macOS Sequoia 15.3
メモリ: 32GB
Python: 3.11.9

Gemma3を使用するには、gemmaをインストールする必要があります。

bash
pip install gemma

注意

Gemma3が使用できるgemmaのバージョンは、Python3.11以降が要求されるので事前にPythonのバージョン確認を行いましょう。

bash
python -V
# Python 3.11.9

インストールが完了したら、以下のサンプルコードでGemma3を動かしてみます。

python
import os

from gemma import gm

os.environ["XLA_PYTHON_CLIENT_MEM_FRACTION"] = "1.00"


model = gm.nn.Gemma3_1B()

params = gm.ckpts.load_params(gm.ckpts.CheckpointPath.GEMMA3_1B_IT)
sampler = gm.text.ChatSampler(
    model=model,
    params=params,
    multi_turn=True,
)

turn0 = sampler.chat('Share one methapore linking "shadow" and "laughter".')
print(turn0)

Google Colaboratoryでの構築方法

無料でGPUを利用できるGoogle ColaboratoryでもGemma3を試すことが可能です。

Google ColaboratoryでGemma3を試す場合は、以下の手順で試すことが可能です。

  1. 以下のGemmaが公開しているGoogle Colaboratoryを開く

Open in Colab

  1. ランタイムのタイプがGPU(T4 GPU)になっていることを確認
  2. コードを実行

以上で、Google ColaboratoryでGemma3を試すことができます。

まとめ

Gemma3を試すための環境をローカル環境およびGoogle Colaboratoryで構築する方法を紹介しました。

参考