AIニュース 2026年4月8日まとめ

AIニュース 2026年4月8日まとめ
目次

注意事項

  • 本記事は2026年4月8日時点の情報です
  • 最新情報は各公式サイトをご確認ください

2026年4月8日のAI関連ニュースをまとめました。Anthropicが「危険すぎて一般公開できない」最強サイバーセキュリティモデル「Claude Mythos Preview」を限定公開するProject Glasswingを開始、OpenAIがSafety Fellowshipを正式に発表、GoogleがGeminiの安全機能を強化、カリフォルニア州がxAI Grokに停止命令を発出するなど、AI安全性を巡る動きが集中した一日です。

Anthropic、Project Glasswingを開始 — 「危険すぎる」最強AIモデルを限定公開

Anthropicが、同社史上最も強力なサイバーセキュリティ能力を持つフロンティアモデル「Claude Mythos Preview」を、限定企業向けに公開する取り組み「Project Glasswing」を開始しました。Anthropicは「あまりに強力すぎるため一般公開はしない」と明言しています。

Project Glasswingの概要

項目内容
公開日2026年4月7日〜8日
モデル名Claude Mythos Preview(未リリース汎用フロンティアモデル)
目的重要インフラの脆弱性発見・防御
一般公開しない(サイバーセキュリティリスクが高すぎるため)
支援規模モデル使用クレジット最大1億ドル、オープンソースセキュリティ団体へ400万ドル寄付

参加企業(主要パートナー)

分野企業
クラウド・OSAWS、Apple、Google、Microsoft
半導体Broadcom、NVIDIA
セキュリティCisco、CrowdStrike、Palo Alto Networks
金融JPMorganChase
オープンソースLinux Foundation

このほか40以上の重要インフラ組織にもアクセスが提供されています。

Mythos Previewの衝撃的な実績

Claude Mythos Previewは、リサーチプレビュー段階ですでに数千件の高深刻度脆弱性を発見しています。特筆すべき例:

  • 17年間放置されたFreeBSDのRCE脆弱性(CVE-2026-4747)を完全自律で発見・悪用。NFSを動かすサーバに対し、認証なしでインターネット越しにroot権限取得が可能
  • Webブラウザのエクスプロイトを自律生成し、4つの脆弱性を連鎖させた複雑なJITヒープスプレーで、レンダラとOSサンドボックスを同時に突破
  • Linuxほか複数OSで、微細なレースコンディションとKASLRバイパスを突いたローカル権限昇格エクスプロイトを自動取得

Anthropicは「AIモデルは、ごく一握りの熟練者を除く全人類の能力を上回るレベルでソフトウェア脆弱性を発見・悪用できる段階に達した」と表明。このままではAIを使った大規模サイバー攻撃が現実化する懸念があるため、防御側が先行して使えるよう限定公開に踏み切ったとしています。

OpenAI、Safety Fellowshipプログラムを発表

OpenAIが外部研究者向けの「OpenAI Safety Fellowship」を2026年4月8日付で正式に発表しました。

プログラムの概要

項目内容
名称OpenAI Safety Fellowship
対象外部のAI安全性・アラインメント研究者
実施期間2026年9月〜2027年2月
目的次世代フロンティアモデルの安全性研究を外部人材と共同で推進

OpenAIは直近でGPT-5.4のリリースにより企業向け売上が全体の40%を超え、Codexも週間利用者が200万人を突破するなど急成長を続けています。モデル能力の急加速に合わせ、外部からの安全性レビューを強化する意図です。

AnthropicのProject Glasswingと同日の発表となったことで、米AI大手が揃って「モデルが危険領域に入ってきた」という認識を公に示した象徴的な一日となりました。

Google、Gemini安全機能を大幅強化 — メンタルヘルス対応も

GoogleがAIアシスタント「Gemini」の安全機能アップデートを公開しました。メンタルヘルスなど繊細なトピックへの対応が大きく改善されています。

主な改善点

項目内容
危機対応メンタルヘルス関連のクエリ検出時にヘルプライン情報を優先表示
外部リソース誘導公式支援窓口への明確な導線を追加
AIガードレール繊細なトピックに対する応答ポリシーを厳格化
コンテキストメモリ会話の文脈を考慮した長期記憶機能を強化

加えてGoogleは、Gmail・DriveなどGoogleアプリと連携するPersonal Intelligence機能を無料提供し、クロスプラットフォームのチャットインポートにも対応しました。

Apple・Googleの提携も佳境に入っており、iOS 26.415億ユーザーのSiriにGemini機能が搭載される見通しです。

カリフォルニア州、xAIのGrokに停止命令 — 非同意のディープフェイク問題

カリフォルニア州司法長官Rob Bonta氏が、Elon Musk氏率いるxAIに対し「Grok」による非同意のディープフェイク生成を直ちに停止するよう、Cease and Desist Letter(停止命令書)を発出しました。

問題の概要

項目内容
対象xAIのGrok画像生成モデル
問題“Spicy Mode”機能で、衣服を着た女性・未成年者の画像から非同意の性的画像を生成
規模年末年始に生成された20,000枚のうち半数以上が性的または露出の多い内容、一部は未成年の可能性
措置即時停止命令(違反時は訴訟の可能性)

カリフォルニア州はすでに2026年1月からxAIを調査していましたが、改善が見られないため今回強硬措置に出たものです。xAIはGrokの"spicy mode"をマーケティングにも利用しており、規制当局との本格衝突が避けられない状況です。

AnthropicのProject Glasswingが「善意のリスク低減」を示したのとは対照的に、同日のxAIへの規制措置は「悪用型AIへの強制停止」という構図となり、業界全体のリスク管理姿勢の差が浮き彫りになりました。

Microsoft、エンタープライズAIスイートを再編 — 「Frontier Suite」投入

MicrosoftがエンタープライズAI向けの新スイート「Microsoft 365 E7 - Frontier Suite」を正式提供開始しました。

Frontier Suiteの構成

項目内容
製品名Microsoft 365 E7(Frontier Suite)
構成Microsoft 365 E5 + Entra Suite + Copilot + Agent 365
対象大企業向けの統合AIエージェント基盤
提供開始2026年4月8日(Partner Center経由でトランザクション可能に)

Agent 365は、Copilotを超えた自律エージェント運用基盤で、企業内の複数AIエージェントを一元管理・監査できます。Project Glasswingとの組み合わせで、大企業におけるAIエージェント活用とセキュリティの両立を推進する狙いです。

医療AIに逆風 — AIスクライブがコスト増の要因に

米STATニュースが、医療AIスクライブ(AIによる診療記録自動生成)がかえって医療コストを押し上げていると報じました。保険会社・医療提供者の双方が認める異例の事態です。

問題点

項目内容
記録の詳細化AIが会話の細部まで記録するため、カルテ内容が肥大化
請求コード増加詳細記録により、より高額な保険請求コードが選択される傾向
検査オーダー増AIが示唆する追加検査を医師が実施する確率が上昇
保険支払い増加結果として保険者・患者負担が増加

当初は「医師の書類業務を削減」する効率化ツールとして期待されていたAIスクライブですが、構造的にコスト増の要因となっていることが統計で確認されました。米国ではAI医療ツールの保険償還ルール見直し議論が本格化しそうです。

まとめ

2026年4月8日の主なトピック:

  1. Anthropic Project Glasswing: 「危険すぎる」フロンティアモデルClaude Mythos Previewを限定公開。AWS・Apple・Google・Microsoft・JPMorganChaseなど主要インフラ企業と連携し、最大1億ドルを投じて防御側先行を目指す
  2. OpenAI Safety Fellowship: 2026年9月〜2027年2月に外部研究者向け安全性プログラムを実施
  3. Google Gemini安全機能強化: メンタルヘルス対応、Personal Intelligence機能、iOS 26.4でのSiri連携
  4. xAI Grokに停止命令: カリフォルニア州が非同意ディープフェイク生成機能の即時停止を要求
  5. Microsoft Frontier Suite: Agent 365を含む統合エンタープライズAIスイート「Microsoft 365 E7」を提供開始
  6. 医療AIスクライブの逆効果: コスト削減ツールが実は医療費を押し上げていることが統計で判明

AIの能力が危険領域に到達した日」というのが本日のテーマです。Anthropic・OpenAI・Googleという米AI大手3社が、同じ日に揃って安全性強化策を発表したのは偶然ではなく、フロンティアモデルが「人類の大半を凌駕する攻撃能力を持ちうる」段階に入ったことへの共通認識の表れといえます。

参考リンク