楽天「Rakuten AI 3.0」発表から見る 国内LLMの現在地

海外ビッグテックに対抗するのか、棲み分けるのかを論点整理
1 楽天「Rakuten AI 3.0」は何を発表したのか
楽天グループは2025年12月18日、**日本語に最適化した大規模言語モデル「Rakuten AI 3.0」**を発表しました。公式発表では、約7000億パラメータ規模のMixture of Experts(MoE)モデルであり、日本語に最適化していることが明示されています。(Rakuten Group, Inc.)
この発表でポイントになるのは、単に「大きいモデル」ではなく、性能と計算効率の両立を狙った設計が具体的に説明されている点です。Impress Watchの報道では、計算効率を高めるため、約7000億のうちトークンごとに約400億のみをアクティブ化する構成を採用している、と記載されています。(Impress Watch)
同じくImpress Watchでは、学習が社内GPUクラスタ上で行われ、隔離された安全なクラウド環境で運用し、データが外部に送信されない設計である旨も説明されています。(Impress Watch)
また、日本語性能については、日本語版MT-Bench等による評価で高いスコアを示したと報じられています。(Impress Watch)
ここまでが、楽天の発表として一次情報と主要報道で確認できる中核です。
2 日本の関連プレイヤー
国内LLMはNECだけではなく、複数の企業が公式発表として明確に存在を示しています。
以下は、、代表的なプレイヤーになりますが、他にも数社あり、競争が激化している様にも見えます。
NTT tsuzumi
NTTは自社LLM「tsuzumi」を提供しており、従来型LLMの課題として電力消費や運用コスト、機密情報の取り扱いリスクを挙げつつ、軽量性や企業・自治体での導入を意識した説明を行っています。(NTT)
富士通 Takane
富士通は企業利用を想定したLLM「Takane」を発表し、セキュアなプライベート環境での利用を前提としていることを明確にしています。(Fujitsu)
ソフトバンク SB Intuitions Sarashina mini と Sarashina API
ソフトバンクとSB Intuitionsは、国産LLM「Sarashina mini」に接続できる**法人向けサービス「Sarashina API」**を2025年11月に提供開始すると発表しています。(ソフトバンク)
ここで言える事実は「企業向けAPIとして提供する」という点までで、性能や規模で海外モデルに匹敵するなどの断定は一次情報では確認できません。(ソフトバンク)
NEC cotomi
NECは生成AI「cotomi」を強化し、日本語ベンチマークで高い精度を達成しつつ高速性を維持したこと、またGPUの演算効率改善など運用面の課題にも取り組んだことを発表しています。(NEC)
サイバーエージェント CyberAgentLM3
サイバーエージェントは2024年7月、225億パラメータの日本語LLM「CyberAgentLM3」を一般公開し、商用利用可能なモデルを提供すると発表しています。(サイバーエージェント)
Preferred Networks PLaMo
Preferred Networksは、日本で開発したLLM「PLaMo」系の提供を進め、PLaMo PrimeをAPI経由で商用提供することを発表しています。(株式会社Preferred Networks)
また技術ブログではPLaMo-100Bの事前学習に関する技術的な説明も公開されています。(Preferred Networks Tech Blog)
このように国内LLMは「存在している」だけでなく、企業向け運用やAPI提供、公開モデルなど、形を分けて実装フェーズに入っていることが一次情報で確認できます。(Impress Watch)
3 メディア考察
ここからは「メディアがどう論じているか」です。
様々なニュース・報道・解説記事から、論点を整理しました。
論点1 生成AIはクラウド一極から分散へ向かう可能性
Reuters Breakingviewsは、生成AIがクラウド中心で発展してきた一方、エネルギーや投資回収などの制約が表面化し、より小さくローカルで動くモデルや分散型の方向性が次の焦点になり得る、という趣旨を論じています。(Reuters)
この論点は、国内企業が「閉域」「プライベート環境」を前提にしたLLMを打ち出す動きと整合します。(Fujitsu)
論点2 ローカル言語・ローカル事情を反映した取り組みが重要になる
Natureは、LLMがバイアスを持ちうること、そしてローカル言語話者やローカル機関が関与する取り組みが変化を起こそうとしている点を取り上げています。(Nature)
これは「日本語や日本の業務慣行への適合」を価値として掲げる国内LLMの説明と方向性が重なります。(Rakuten Group, Inc.)
論点3 データ所在と運用要件が競争軸になる
Reutersは、OpenAIが英国でデータを国内に保持できる仕組みを提供する動きなど、政府や企業の要請がプライバシー・セキュリティ・レジデンシー(データ所在)へ向かっていることを報じています。(Reuters)
この論点は、富士通が「セキュアなプライベート環境」を前提にTakaneを説明する点や、楽天がデータが外部に送信されない設計を説明している点と接続します。(Fujitsu)
論点4 各国でローカル言語モデルの取り組みが増えている
Reutersは、インドネシアで通信大手とテック企業がローカル言語向けLLM「Sahabat-AI」の開発を進める事例を報じています。(Reuters)
つまり「自国語・自国の文脈に合わせたモデルを持つ」動きは日本だけではなく、国際的にも観測されている、という整理が可能です。(Reuters)
4 まとめ
一次情報を積み上げると、国内LLMは複数の企業がそれぞれ異なる形で実装を進めています。(Fujitsu)
そのうえで、主要メディアの考察で共通して見えるのは、競争軸が「最大性能の一点勝負」から、分散、ローカル適合、データ所在、運用要件へ広がっていることです。(Reuters)
楽天のRakuten AI 3.0は、その中でも「日本語最適化」と「計算効率」「閉域運用」という、企業が導入時に突き当たりやすい制約に対し、設計として具体策を提示した事例として位置づけられます。(Rakuten Group, Inc.)
参考資料(URL)
https://global.rakuten.com/corp/news/press/2025/1218_01.html
https://www.watch.impress.co.jp/docs/news/2072366.html
https://group.ntt/en/newsrelease/2025/10/20/251020a.html
https://group.ntt/en/magazine/blog/tsuzumi/
https://www.fujitsu.com/global/about/resources/news/press-releases/2024/0930-01.html
https://www.softbank.jp/en/corp/news/press/sbkk/2025/20251105_01/
https://www.sbintuitions.co.jp/news/press/20251105_01/
https://jpn.nec.com/press/202411/20241127_02.html
https://www.nec.com/en/press/202411/global_20241127_02.html
https://www.cyberagent.co.jp/news/detail/id=30463
https://www.preferred.jp/en/news/pr20241202
https://tech.preferred.jp/ja/blog/plamo-100b/
https://www.reuters.com/breakingviews/ais-next-feat-will-be-its-descent-cloud-2024-10-02/
https://www.breakingviews.com/considered-view/ais-next-feat-will-be-its-descent-from-the-cloud/


