最新LLM・モデル
楽天、AIモデル「Rakuten AI 3.0」を無償提供 「オープンソースコミュニティ上の最良なモデル」を基に日本語能力を強化
ITmedia AI+公開: 2026年3月19日(考察: 2026年3月20日)
出典:ITmedia AI+
この記事のポイント
- 17000億パラメータのMoEアーキテクチャを採用した国内最大級の日本語特化AI
- 2Apache 2.0ライセンスで無償公開され、商用利用やカスタマイズが自由に行える
- 3日本語性能に加え、DeepSeek由来の高度なコード生成や論理推論能力を兼ね備える
要約
楽天は、国内最大級の日本語特化型AIモデル「Rakuten AI 3.0」の提供を開始しました。このモデルは約7000億パラメーター(700B)という巨大な規模を誇り、複数の専門モデルを組み合わせる「MoE(Mixture of Experts)」アーキテクチャを採用しています。経済産業省とNEDOによる「GENIAC」プロジェクトの一環として開発され、日本語のニュアンス理解や論理推論において世界トップレベルの評価を得ています。ライセンスはApache 2.0で無償公開されており、Hugging Faceからダウンロード可能です。中身は話題の「DeepSeek-V3」の構造をベースにしていると推測されており、日本語の処理能力だけでなく、コード生成や数学的推論でも高い性能を発揮します。
出典:ITmedia AI+ の情報をもとにAIが要約
当サイトの考察
“
ヒナキラです!ついに日本から「本気」の巨大モデルが解禁されました。先週、Xiaomiの1兆パラメータモデル『MiMo-V2-Pro』のニュースをお伝えしましたが、今回の楽天の700Bモデルも、それに匹敵するインパクトがあります。個人クリエイターや副業エンジニアにとっての最大の恩恵は、この最高峰の知能が『Apache 2.0(商用利用可・無償)』で公開されたことです。先々週紹介した『Nemotron 9B』などが「軽量で使いやすい」のに対し、今回のRakuten AI 3.0は「重厚で極めて賢い」存在。DeepSeek-V3ベースという噂もあり、もしそうであれば、これまでGPT-4oクラスに頼っていた複雑な日本語タスクを、自分のPCや安価なGPUサーバーで完結させられる時代が来るかもしれません。日本語の微妙な言い回しに強いモデルがオープンソースで手に入るのは、コンテンツ制作の自動化において最強の武器になりますね。
よくある質問
Q個人でもこのモデルを動かすことはできますか?
A
700Bという非常に巨大なモデルのため、一般的な家庭用PCでフルスペックを動かすのは困難です。しかし、今後コミュニティによって「量子化(軽量化)」されたバージョンが登場すれば、高性能なGPUを積んだPCで動作する可能性があります。
QDeepSeek-V3と何が違うのですか?
A
ベースの構造は似ていますが、楽天が独自のバイリンガルデータで追加学習を行っているため、より日本の文化や文脈、ビジネス慣習に即した回答が得られる点が強みです。
Qビジネスでの利用に制限はありますか?
A
Apache 2.0ライセンスなので、基本的には商用利用も含めて自由に利用・改変が可能です。自社のサービスに組み込んだり、特定の業務向けにファインチューニングして活用するのに最適です。
用語解説
MoE (Mixture of Experts)
巨大なモデルを複数の専門家(エキスパート)に分割し、入力に応じて必要な部分だけを動かすことで、高精度と効率を両立する技術。
GENIAC
経済産業省とNEDOが主導する、国内の生成AI開発力を強化するためのプロジェクト。計算資源の提供などで開発を支援している。
Hugging Face
世界中のAI開発者が自作のAIモデルやデータセットを共有している、AI界のGitHubのようなプラットフォーム。
※ この記事の要約・考察・FAQ・用語解説はAIによって生成されています。正確な情報は元記事をご確認ください。

ヒナキラ
Hinakira AI News 編集長
AIツール・LLM・プロンプト活用術を中心に、個人クリエイター・副業者向けのAI最新情報を毎日お届けしています。AI歴3年以上、いろんな用途に実際に使って試してきた知見をもとに、読者が「自分ごと」として活用できる考察を心がけています。
