楽天グループは2026年3月17日、経済産業省およびNEDOが推進する「GENIACプロジェクト」の一環として開発した最新AIモデル「Rakuten AI 3.0」の提供を開始しました。
本モデルは約7,000億パラメータのMixture of Experts(MoE)アーキテクチャを採用し、日本語に特化した大規模言語モデルです。Apache 2.0ライセンスのもとで無償公開されており、楽天の公式Hugging Faceリポジトリから誰でもダウンロードできます。
複数の日本語ベンチマーク——日本固有の文化・歴史知識、大学院レベルの推論、競技数学、指示遵守能力——で高いスコアを記録しており、前作「Rakuten AI 2.0」(約470億パラメータ)から今回の約7,000億パラメータへと一気に規模を拡大した本モデルは、2026年3月時点で国内最大規模の日本語LLMと位置づけられています。
国が主導する生成AI開発の支援体制が整うなか、オープンソースで商用利用も可能な超大規模日本語モデルの登場は、企業のAI内製化戦略に新たな選択肢をもたらすものと受け取れます。急速に進む日本語AI開発の競争地図のなかで、今回の発表が持つ意味は決して小さくないと考えられます。
GENIACプロジェクトが生む国産LLMの潮流
経済産業省とNEDOが主導する「GENIACプロジェクト」は、日本の生成AI開発力を世界水準に引き上げることを目標に、国内企業・研究機関への補助・採択を通じて大規模モデルの研究開発を後押ししています。楽天は2025年7月にGENIAC第3期公募に採択されており、Rakuten AI 3.0の学習費用の一部もこの補助を通じて賄われています。
こうした政府主導の支援体制が整備された背景には、OpenAIやGoogleをはじめとする米国勢、そしてBaidu・Alibabaなどの中国勢に対して、日本語処理や国内文化・商慣習への対応力で後れを取りたくないという危機意識があります。汎用的な英語中心のモデルは高い能力を持つ一方で、日本語の文語・口語の多様性、敬語体系、固有の文化的背景に必ずしも対応しきれないケースがあり、企業の業務利用における課題として認識されてきました。
楽天はこれまで「Rakuten AI 7B」(約70億パラメータ)、「Rakuten AI 2.0」(約470億パラメータ)と段階的にモデルを大型化してきた実績があります。今回の「Rakuten AI 3.0」は約7,000億パラメータと、前作から約15倍の規模へと飛躍しており、複雑なタスクへの対応力が大幅に向上したとされています。ECや金融、コンテンツ推薦など幅広い事業を展開する楽天グループが独自に蓄積したバイリンガルデータも開発に活用されており、日本語の言語的ニュアンスや文化・慣習の理解に深みをもたらしていると考えられます。
国内のAI開発コミュニティへの貢献という姿勢も、今回の発表の特徴のひとつと言えます。Apache 2.0ライセンスでのオープン公開により、スタートアップから大企業まで、幅広い開発者がRakuten AI 3.0をベースに独自のサービスやアプリケーションを構築することが可能になります。単一企業の競争戦略を超え、国内のAIエコシステム全体の底上げを意図した取り組みとして位置づけることもできそうです。
既存モデルとの比較で見える強みと位置づけ
Rakuten AI 3.0の特徴を把握するうえで、現在市場に存在する主要なモデルとの比較は欠かせません。日本語性能、モデル規模、ライセンス形態、アクセス方法の観点から整理します。
国産モデルとの比較
日本語に特化したオープン系LLMとしては、ELYZAの「ELYZA-japanese-Llama」シリーズ、NTTの「tsuzumi」、富士通の「Takane」、サイバーエージェントの「OpenCALM」、国立情報学研究所などが中心となって進める「LLM-jp」などが挙げられます。これらの多くは数十億〜数百億パラメータ規模であり、Rakuten AI 3.0の約7,000億パラメータという規模は国内公開モデルとして一段大きいと受け取れます。
- パラメータ規模:約7,000億(MoE)は、国内で一般公開されたモデルとして最大級とされています
- 日本語特化度:楽天独自のバイリンガルデータを活用した開発により、文化・慣習の理解精度を高めています
- ライセンス:Apache 2.0(商用利用・改変・再配布が可能)
海外主要モデルとの比較
GPT-4oやGemini 1.5 Proといった商用クローズドモデルと比較すると、Rakuten AI 3.0はオープンウェイトであることが大きな差別化点となります。クローズドモデルはAPI経由での利用に限られ、データの外部送信やコスト管理の面で制約が生じやすい一方、Rakuten AI 3.0はオンプレミスや自社クラウドへのデプロイが原理的に可能であるため、機密データを扱う企業やAPIコストを抑えたい用途に向いていると考えられます。
MetaのLlamaシリーズやMistralのMoE系モデルと比較すると、これらは英語中心の学習データが多く、日本語性能では差が生じやすいとされます。今回のRakuten AI 3.0は、日本語ベンチマークでこれらの主要モデルと比較評価が行われており、複数の評価軸で競争力のあるスコアを達成していることが確認されています。
用途・規模ごとの適合性
観点 | Rakuten AI 3.0 | 小規模国産モデル | 海外クローズドモデル |
|---|---|---|---|
日本語特化 | ◎ | ◎ | △〜○ |
パラメータ規模 | 約7,000億(MoE) | 数十億〜数百億 | 非公開が多い |
商用利用 | ◎(Apache 2.0) | モデルによる | ○(利用規約に依存) |
オンプレ運用 | ○(要高性能GPU環境) | ○ | ✕(APIのみ) |
複雑タスク精度 | ◎ | △〜○ | ◎ |
導入コスト | ダウンロード無償・推論環境は別途 | 比較的低い | API従量課金 |
なお、MoEアーキテクチャは全パラメータを常時活用するわけではなく、処理するトークンに応じて一部のエキスパートモジュールのみを起動する仕組みです。そのため、単純なパラメータ数の比較では見えにくい効率性があり、実推論時の計算コストは総パラメータ数ほど高くならないと見る向きもあります。ただし、7,000億パラメータ規模の推論を自社環境で行うには、依然として相応のGPUリソースが求められる点は考慮が必要です。
導入・検討時に確認しておきたいポイント
Rakuten AI 3.0の活用を検討するIT担当者が事前に押さえておきたい評価ポイントを整理します。
インフラ要件の見積もり
約7,000億パラメータのMoEモデルを自社環境で推論するには、大容量のGPUメモリを備えたサーバー群が必要です。HuggingFaceからのダウンロードは無償ですが、実運用に必要な計算資源(高性能GPUクラスター、あるいはクラウドGPUインスタンス)の調達・維持コストは別途発生します。用途や推論頻度に応じてクラウドGPUサービスとオンプレミスの費用対効果を事前に試算しておくことが重要です。
ファインチューニングの手法選定
Apache 2.0ライセンスはファインチューニングや派生モデルの作成を許可しています。業種・業務特化のユースケース(社内文書の要約、特定業界の専門知識Q&A、コード生成など)では、追加学習によって精度をさらに引き上げることも考えられます。ただし、7,000億パラメータ規模のフルパラメータ更新は現実的でない場合も多く、LoRAやQLoRAといったパラメータ効率的な手法の活用が現実的な選択肢となりそうです。
既存システムとの連携設計
本モデルはHugging Faceのエコシステムに対応しており、Transformersライブラリや関連ツールチェーンとの互換性が期待できます。社内の検索システムやRAG(検索拡張生成)パイプライン、ワークフロー管理ツールとの統合において、LangChainやLlamaIndexなどの既存LLM連携フレームワークがそのまま活用できるかどうかを確認しておくとよいでしょう。
サポート・運用面の現実的な把握
本モデルはオープンソースとして公開されており、楽天からの商用サポートや運用保証が現時点でどこまで提供されるかは公式情報の確認が必要です。本番環境への導入を検討する場合は、コミュニティサポートの活用状況や、将来的なモデルアップデートへの対応方針についても把握しておくことが重要と考えられます。
データプライバシー・法令対応の精査
Apache 2.0ライセンスは比較的自由度が高い一方、モデルの利用に際して個人情報保護法や業種ごとの規制(金融・医療など)との整合性は自社で確認する必要があります。特に、ファインチューニングや推論に用いるデータの取り扱いポリシーについては、法務・コンプライアンス部門との連携が欠かせません。
国内AI開発の新たな節目として
Rakuten AI 3.0の登場は、いくつかの意味で注目に値します。約7,000億パラメータという規模のモデルが、政府プロジェクトの支援を受けながら国内企業から生まれ、オープンソースで広く公開されるという事実は、日本のAI産業の成熟を示す一つの指標と受け取れます。
GENIACプロジェクトを通じた官民連携の取り組みは、単一企業の競争優位にとどまらず、国内のAIエコシステム全体の底上げを意図するものであり、今後もほかの採択企業からの成果公開が続くことが予想されます。楽天自身も次世代LLMの研究開発を継続的に進めていることを明示しており、Rakuten AI 3.0がシリーズの終着点でないことも示唆されています。
一方で、7,000億パラメータ規模のモデルを実際の業務システムに組み込むためのハードルは低くなく、インフラコストやエンジニアリングリソースの観点から、まずはAPIサービス経由での利用環境が整備されるかどうかが普及の鍵を握るとも考えられます。
楽天が「AI-nization(エーアイナイゼーション)」と表現するグループ全体のAI化戦略のなかで、Rakuten AI 3.0がどのような形で自社サービスに組み込まれ、外部への展開が進むのか。その動向は、国内における大規模日本語LLM活用の一つのロードマップとして、引き続き注目されることになりそうです。

