AI企業の安全性テストは落第ばかり ーAIリスクが残されたまま能力競争だけが進む現実。

はじめに
生成AIの急速な発展により、各国の規制機関や研究者は「AIの安全性」を最大の論点として注視している。とくに、企業が開発するフロンティアAIが将来的に人間を超える能力を獲得する可能性があることから、その制御やリスク管理は国際的な課題になっている。
こうした中、Future of Life Instituteが公開した最新のAI Safety Indexでは、主要AI企業の安全性が総じて不十分であることが明らかになった。Anthropic、OpenAI、Google DeepMindといった主要企業であっても評価はCプラスやCにとどまり、存在論的リスクの領域では全企業がD以下という厳しい結果となっている。
本記事では、この評価結果の一次情報、その背景にある構造的な課題、そしてQuartzやReutersなどの報道がどのようにこの問題を捉えているかを整理する。
FLIのAI Safety Indexとは何か
AI Safety Indexは、AI企業の安全性ガバナンスを可視化する目的でFuture of Life Instituteが公開している評価指標で、今回が最新版となるWinter 2025 Editionである。
対象企業はAnthropic、OpenAI、Google DeepMind、Meta、xAI、DeepSeek、Z.ai、Alibaba Cloudの8社で、それぞれをAからFで評価している。評価領域は以下の6分野から構成されている。
- Risk Assessment
- Current Harms
- Safety Frameworks
- Existential Safety
- Governance and Accountability
- Information Sharing
もっとも重要なポイントは、超高度AIやAGIを念頭に置いた「Existential Safety」、つまり制御不能なAIが引き起こす破局的リスクにどれだけ備えているかを評価する領域である。
総合評価: 最高でもCプラス、全社が及第点止まり
FLIのまとめでは、8社の総合評価は次のようになっている。
- Anthropic: C+
- OpenAI: C+
- Google DeepMind: C
- Meta: D
- xAI: D
- Z.ai: D
- DeepSeek: D
- Alibaba Cloud: Dー(マイナス)
今回の調査では、どの企業もAやBに到達しておらず、最高評価はC+(プラス)にとどまり「最も評価の高い企業でさえ辛うじて及第点」という構図として伝えられている。
核心領域であるExistential Safetyは全社がD以下
もっとも深刻なのは、AGIあるいは超高度AIを制御するための計画と実践を問うExistential Safety領域で、8社すべてがDまたはFとなった点である。
FLIは「存在論的安全性は産業全体の構造的弱点」と結論づけている。
特に、以下の点が問題として挙げられている。
- 超高度AIの暴走リスクをどの程度に抑えるのか、その定量的目標が示されていない
- 原子炉や航空産業では許容されないような高いリスクを容認したまま計画が進んでいる
- 企業が掲げる「安全性へのコミットメント」は抽象的で、実際の制御技術や組織体制に落ちていない
- 外部研究者による検証や情報共有の不足
FLIの審査員である研究者からは、企業が「超高度AIを作れる」と主張する一方、そのリスクを管理する実証計画が欠落しているという批判の声が挙がっている。
すでに起きている被害 Current Harms の評価も低い
Indexでは、現在のAI利用で発生している実害も重視されている。
- 誤情報の生成
- 有害プロンプトへの応答
- 精神的健康への悪影響
- チャットボットの対話で自傷行動を助長した事例
QuartzやReutersはこのCurrent Harms領域でも、企業の多くがDまたはFにとどまったと報じている。
つまり、AI企業は「未来の存在論的リスク」に備えられていないだけでなく、「現在すでに発生している問題への対処」にも十分ではないという評価が下されている。
企業の安全性ガバナンスは国際基準より大幅に遅れている
FLIは、企業の内部ガバナンスが、EUのAI規制案やカリフォルニア州の新しい安全基準など、世界的に整備されつつある規制フレームワークに追いついていない点も指摘している。
Reutersは、米国企業が安全規制に対してロビー活動を行う一方、内部安全投資は遅れていると報じ、Euronewsは「AIはサンドイッチより規制が少ない」という象徴的な表現で業界の現状を伝えている。
Quartzは、企業が能力向上競争を優先させ、安全投資が後回しになっていることを特に強調している。
レースは加速する一方なのに、安全対策は追いつかない
QuartzとAxiosが共通して指摘するのは、能力レースと安全ガバナンスの乖離である。
企業はAGI開発の競争を加速させているが、その制御方法や暴走防止策は明確に示されていない。
- 発展スピードが早すぎて、ガバナンスが追いつかない
- 安全性の不備が指摘されても、レースから降りる企業がいない
- 安全の研究と投資が、能力向上より優先されていない
これにより、企業の掲げる「安全性への取り組み」が、実態としてどこまで機能しているのかが疑問視されている。
まとめ
今回のAI Safety Indexの評価が示すものは、単に企業の成績が低いというだけではない。
より重要なのは、AI業界が能力競争に傾き過ぎ、安全性に必要な投資や透明性、リスク管理が構造的に遅れているという点である。
現在のAIの被害対応でも遅れがあり、将来の超高度AIの制御に関してはさらに大きなギャップがある。Quartz、Reuters、Axios、Euronewsなどの報道はこの点を異なる角度から指摘しているが、結論は共通している。
つまり
能力は急速に上がっているのに、安全性は上がっていない
という根本的な問題がある。
AIが社会に深く組み込まれていくほど、このギャップが持つ意味は大きくなる。企業、研究者、政府がどこまで安全性への取り組みを実行に移せるかが、今後のAI時代の最も重要な問いとなる。
参照リンク一覧
FLI AI Safety Index Winter 2025
https://futureoflife.org/tool/ai-safety-index/
Quartz
https://qz.com/ai-companies-are-failing-existential-safety-tests-thats-1851749853
Axios
https://www.axios.com/2024/11/21/ai-firms-existential-risk-fli-report-scores
QuantumZeitgeist
https://quantumzeitgeist.com/ai-safety-report-top-3-companies-outpace-rivals-in-risk-mitigation/
Tony Fish Medium
https://medium.com/artificial-intelligence-revolution/ai-safety-index-report-the-right-work-but-the-wrong-3f16e618a322
必要であれば、本記事をnote形式に再編集したり、導入文をもっと読者寄りにしたり、表紙画像の生成プロンプトも作成できます。


