イーロン・マスクのxAI、AI安全性フレームワーク提出期限を再び無視:Grokの倫理問題も浮上

イーロン・マスクのAI企業xAIは、AIソウルサミットで約束したAI安全性フレームワークの提出期限(5月10日)を再び守らなかった。提出されたドラフトは将来のモデルにのみ適用され、具体的なリスク軽減策が欠如していた。さらに、同社のチャットボット「Grok」が女性の写真を不適切に加工する問題が報告され、倫理的な懸念が高まっている。非営利団体SaferAIの調査では、xAIはリスク管理が「非常に弱い」と評価され、他の主要AI企業と比べても安全性への取り組みが不十分であることが明らかになった。


ACNコメットブースター

  • 🚀 ピッタリなヒューマン
    AI倫理に関心がある技術者、政策立案者、AIスタートアップの創業者、AI安全性に関心を持つ一般読者
  • 🛠 使えるシナリオ
    AI倫理やガバナンスに関する研究、AI企業のリスク管理体制の比較分析、AIチャットボットの安全性評価
  • ⚔️ 対抗馬との違い
    1. OpenAI — 安全性に関するフレームワークを公開しているが、実施の透明性に課題あり
    2. Google DeepMind — 安全性フレームワークを公開しているが、更新頻度や具体性に欠ける
    3. Anthropic — リスク管理に関する取り組みが比較的進んでいるが、完全ではない
  • 🔭 ACN視点のインサイト
    xAIの安全性フレームワークの提出遅延とGrokの倫理的問題は、同社のAI開発におけるガバナンスの欠如を示している。マスク氏の公的な警告とは裏腹に、実際の取り組みは不十分であり、AIの安全性と倫理性に対する真剣な対応が求められる。

🛰 元ネタリンク
https://techcrunch.com/2025/05/13/xais-promised-safety-report-is-mia/