最新LLM・モデル
ネイティブなマルチモーダル推論モデル「Muse Spark」をMetaが発表、AI事業の「根本的な見直し」の一環
GIGAZINE公開: 2026年4月9日
出典:GIGAZINE
この記事のポイント
- 1MetaのAI戦略を刷新する新モデル。Llama 4比で10分の1の計算効率を達成
- 2「Contemplating mode」により、複数のAIが並列推論し、難解な問題に高精度で回答
- 3医師1000人と連携した学習により、健康・医療・STEM分野での推論能力が飛躍的に向上
要約
Metaは、ネイティブなマルチモーダル推論モデル「Muse Spark」を発表しました。これはMetaがAI開発体制を根本から刷新し、「個人向けスーパーインテリジェンス」の実現を目指すMuseファミリーの第1弾です。最大の特徴は、Gemini Deep ThinkやGPT-o1に対抗する高度な推論モード「Contemplating mode(熟考モード)」を搭載し、複数のAIエージェントが並列に推論を行う点です。特筆すべき数値として、従来のLlama 4 Maverickと同水準の性能を、わずか10分の1の計算量で実現する圧倒的な効率性を達成。医療分野では1000人以上の医師と協力した学習データを導入し、食品の栄養分析や筋肉の動きなどの複雑な推論を可能にしています。また、安全性評価では生物兵器関連の拒絶率98.0%を記録し、競合のGPT-5.4やGemini 3.1 Proを大きく上回る数値を報告しています。本モデルは段階的にmeta.aiへ展開される予定です。
出典:GIGAZINE の情報をもとにAIが要約
当サイトの考察
“
ヒナキラです!Metaがまたやってくれましたね!先週、Arceeが400Bの巨大オープンモデル『Trinity Large Thinking』をリリースした際、オープンソース界隈の逆襲とお伝えしましたが、この『Muse Spark』はその流れを加速させるMetaの本気弾です。注目は「10分の1の計算量」という点。先週紹介したiPhoneで動く『1-bit Bonsai』のように、モデルの軽量化・効率化は今、開発者にとって最大の関心事ですが、Metaはそれをシステム全体で実現してきました。個人クリエイターにとって重要なのは、医療や健康、STEM教育といった「事実の正確性」が求められる分野で、これまでのAIとは一線を画す回答精度が期待できることです。また、「複数のエージェントが並列で考える」という仕組みは、先週話題にした『Claude Codeのエージェントチーム』をモデル内部で自動化しているようなもの。Metaが目指す「個人専用の超知能」が、いよいよ現実味を帯びてきましたね!
よくある質問
QこれまでのLlamaシリーズとは何が違うのですか?
A
Llamaが汎用モデルなのに対し、Museは「推論能力」と「効率」を極限まで高めた次世代モデルです。特に視覚的な問題解決や、複数のAIによる連携処理に長けています。
Q誰でもすぐに使えますか?
A
現在はmeta.aiを通じて段階的に提供が開始されています。ただし、Metaアカウントでのログインが必須となる仕様です。
Q日本語には対応していますか?
A
公式発表では多言語への言及は限定的ですが、Metaのこれまでの傾向から、日本語を含む主要言語には順次対応していくと考えられます。
用語解説
マルチモーダル推論
テキストだけでなく、画像や動画、音声などを同時に理解し、それらを組み合わせて論理的に思考する能力のこと。
STEM分野
科学(Science)、技術(Technology)、工学(Engineering)、数学(Mathematics)の総称。AIの論理性能を測る重要な指標です。
テストタイム推論 (test-time reasoning)
回答を出す前にAIが「自問自答」して考える時間を設ける技術。これにより、直感的な回答よりも高い精度が得られます。
※ この記事の要約・考察・FAQ・用語解説はAIによって生成されています。正確な情報は元記事をご確認ください。

ヒナキラ
Hinakira AI News 編集長
AIツール・LLM・プロンプト活用術を中心に、個人クリエイター・副業者向けのAI最新情報を毎日お届けしています。AI歴3年以上、いろんな用途に実際に使って試してきた知見をもとに、読者が「自分ごと」として活用できる考察を心がけています。
