最新LLM・モデル
Google Gemma 4 実践ガイド — Ollama・HuggingFace で動かすマルチモーダル対応オープンモデル
Zenn AI公開: 2026年4月3日(考察: 2026年4月4日)
出典:Zenn AI
この記事のポイント
- 1Apache 2.0ライセンスへの変更により、商用利用や改変、再配布が完全に自由化された
- 2全モデルで画像・動画入力に対応し、小型モデル(E2B/E4B)は音声にもネイティブ対応
- 3思考プロセスを可視化する「<think>タグ」やAIエージェント向けの機能をモデルレベルで搭載
要約
Googleは、最新のオープンウェイトモデル「Gemma 4」をApache 2.0ライセンスでリリースしました。このモデルはGemini 3の技術を継承しており、テキスト・画像・音声・動画を扱えるフルマルチモーダル対応(一部サイズ)が最大の特徴です。ラインナップは、モバイル向けの「E2B/E4B」、サーバー向けの「26B MoE」、最高品質の「31B Dense」の4サイズ。特に「E2B/E4B」は音声入出力にネイティブ対応しています。また、AIエージェントとしての利用を想定し、Function Callingや構造化JSON出力、さらに<think>タグを用いたステップバイステップの思考プロセスをモデルが直接サポート。ライセンスが従来のカスタムライセンスから、より制約の少ないApache 2.0に変更されたことで、商用利用や再配布のハードルが劇的に下がりました。
出典:Zenn AI の情報をもとにAIが要約
当サイトの考察
“
ヒナキラです!Gemma 4の登場は、まさにローカルAI界の「歴史的転換点」ですね。先週、NVIDIAがGemma 4の高速化を即座に発表したとお伝えしましたが、今回の詳細スペックを見て納得です。何より衝撃的なのは「Apache 2.0ライセンス」への変更です!これにより、個人開発者や副業でAIツールを作りたい人が、法的なリスクをほぼ気にせず世界最強クラスのモデルを組み込めるようになりました。先週紹介した、GoogleがGeminiのストレージを5TBに増量したニュースと合わせると、Googleは「クラウドはGemini、ローカルはGemma」という盤石の体制を築こうとしています。また、Function Callingのネイティブサポートにより、特定のツールを操作する「自律型エージェント」の開発がこれまで以上に簡単になります。Ollamaを使えば自分のPCで今すぐ試せるので、画像や音声を使った自分専用のアシスタント作りに挑戦する絶好の機会ですよ!
よくある質問
Q個人PCでも動かせますか?
A
はい、Ollamaなどのツールを使えば、軽量なE4Bモデルはもちろん、26B MoEモデルも一般的なゲーミングPCで快適に動作させることが可能です。
Q前モデル(Gemma 3)から何が変わりましたか?
A
数学やコーディングの性能が大幅に向上したほか、ライセンスが緩和され、AIエージェントとしての推論能力が飛躍的に強化されています。
Qマルチモーダル機能で何ができますか?
A
画像の内容を説明させたり、動画の中の特定の出来事を要約させたり、さらには音声で直接対話したりといったことが、外部サービスを介さずローカル環境で行えます。
用語解説
Apache 2.0
非常に自由度の高いオープンソースライセンス。商用利用、改変、再配布が認められており、法的リスクが低い。
オープンウェイトモデル
モデルの学習済みデータ(重み)が公開されており、誰でも自分の環境にダウンロードして実行できるAIモデル。
Function Calling
AIが外部の関数(ツール)を呼び出すための指示を出す機能。計算や検索などの実務をAIに行わせるのに必須。
※ この記事の要約・考察・FAQ・用語解説はAIによって生成されています。正確な情報は元記事をご確認ください。

ヒナキラ
Hinakira AI News 編集長
AIツール・LLM・プロンプト活用術を中心に、個人クリエイター・副業者向けのAI最新情報を毎日お届けしています。AI歴3年以上、いろんな用途に実際に使って試してきた知見をもとに、読者が「自分ごと」として活用できる考察を心がけています。
