最新LLM・モデル
Google、エージェント特化の「Gemma 4」をApache 2.0で公開
ITmedia AI+公開: 2026年4月2日(考察: 2026年4月3日)
出典:ITmedia AI+
この記事のポイント
- 1Apache 2.0ライセンス採用で、商用利用やカスタマイズが完全に自由になった
- 2エージェント向けに設計され、複雑な思考や25.6万トークンの長文理解に対応
- 3小規模なモデルでも巨大モデルに匹敵する驚異的な推論性能をベンチマークで記録
要約
Googleは、最新のオープンウェイトモデル「Gemma 4」をApache 2.0ライセンスでリリースしました。このモデルは、高度な推論、多段階の計画、およびAIエージェント型ワークフローに最適化されており、最大25.6万トークンの広大なコンテキストウィンドウをサポートします。ラインナップは、モバイルやIoT向けの軽量版「E2B」「E4B」、PC環境で高度な生成が可能な「26B MoE」、そして強力なベースモデルとなる「31B Dense」の4種類です。特筆すべきは、前モデルを大幅に上回るベンチマークスコアで、特に「Arena AI」のリーダーボードでは31Bモデルがオープンソースとして世界3位、26Bモデルは自身の20倍の規模のモデルに匹敵する性能を記録しました。NVIDIAのGPUやAndroidのAICoreにも最適化されており、ローカル環境での高速かつプライベートなAIエージェント実行を強力に支援します。
出典:ITmedia AI+ の情報をもとにAIが要約
当サイトの考察
“
ヒナキラです!Gemma 4の登場は、ローカルAI派の皆さんにとって「今年最大の祭り」になるかもしれません。注目は、ライセンスが「Apache 2.0」に変更されたことです。これにより、商用利用や改変がこれまで以上に自由になり、個人でのアプリ開発や副業でのサービス提供が格段にしやすくなりました。先週、OllamaがMacでの推論を劇的に高速化したニュースをお伝えしましたが、Gemma 4はその高速化した環境で動かす「最高のエンジン」になります。特に、26B MoEモデルは「軽量なのに超高性能」という、個人のPC環境には理想的なバランスです。25.6万トークンという広大なメモリがあれば、自分の書いたコードベースを丸ごと読み込ませて、自分専用の「超優秀な開発アシスタント」をローカルで作ることも夢ではありません。GoogleはクラウドのGeminiだけでなく、ローカルのGemmaでも覇権を狙いに来ていますね。これからは「凄すぎるAIを自分のPCで飼う」時代が本格化します!
よくある質問
QGemma 4を自分のパソコンで動かすには何が必要ですか?
A
「Ollama」や「LM Studio」といったツールを使えば、一般的なPCでも利用可能です。特にNVIDIA製GPUやApple Mシリーズチップ搭載機では非常に高速に動作します。
Q「Apache 2.0」になると何が嬉しいのですか?
A
ライセンス費用を気にせず、自分の作ったソフトに組み込んで販売したり、モデルを自由に改造して公開したりすることができるようになります。
Qエージェント型ワークフローに特化しているとはどういう意味ですか?
A
AIが単に答えるだけでなく、「まずAをして、次にBをする」といった手順を計画し、外部ツール(ブラウザやコード実行環境)を使いこなす能力が高いことを指します。
用語解説
Apache 2.0
非常に自由度の高いオープンソースライセンス。商用利用、修正、配布が認められており、作者の著作権表示さえ行えば柔軟に利用できる。
MoE (Mixture of Experts)
複数の「専門家」モデルを組み合わせ、必要な部分だけを動かす技術。高い性能を保ちつつ、計算コストを抑えることができる。
コンテキストウィンドウ
AIが一度に理解できる情報の長さ。25.6万トークンは、一般的な書籍数冊分を一度に読み込めるレベルの巨大さ。
※ この記事の要約・考察・FAQ・用語解説はAIによって生成されています。正確な情報は元記事をご確認ください。

ヒナキラ
Hinakira AI News 編集長
AIツール・LLM・プロンプト活用術を中心に、個人クリエイター・副業者向けのAI最新情報を毎日お届けしています。AI歴3年以上、いろんな用途に実際に使って試してきた知見をもとに、読者が「自分ごと」として活用できる考察を心がけています。
