実在人物の写真が無断で性的画像に加工される深刻な被害
2026年1月、X(旧Twitter)に搭載されている生成AI「Grok(グロック)」を悪用し、実在する人物の写真を本人の同意なく性的な画像に加工する事例が急増し、国際的な問題となっている。
📰 何が起きているのか
年始から急増する被害報告
2025年末から2026年年始にかけて、Xに投稿された女性や未成年者の写真が、AI「Grok」を使って水着姿や、より露骨な性的画像に加工され、X上で拡散される事例が世界中で相次いで報告されている。
Grokは、米実業家イーロン・マスク氏が設立したAI開発企業xAIが提供する対話型生成AIで、2025年12月にX上で画像編集機能が追加された。この機能を悪用し、他者の写真を無断で性的コンテンツに変換する行為が横行している。
被害者の証言
ブラジル・リオデジャネイロを拠点に活動するミュージシャン、ジュリー・ユカリさんは、2025年12月31日深夜に婚約者が撮影した写真をXに投稿したところ、翌日には複数のユーザーによってGrokを使った性的画像に加工され、拡散されていたことを発見した。
BBCの取材に対し、ユカリさんは「人間性を奪われた」と訴えている。また、日本国内でも複数のタレントや一般女性が同様の被害を公表しており、未成年者への被害も報告されている。
🚨 各方面の対応状況
X側の対応
X Corp. Japanは1月6日、公式に声明を発表し、以下の対応を表明した:
- Grokで違法コンテンツを作成・投稿した場合、アカウントを永久停止
- 警察などの法執行機関と連携して対処
- 児童に関する性的画像については特に厳格に取り締まり
国際的な規制の動き
欧州連合(EU) 欧州委員会は1月5日、Grokで生成される女性や子どもの性的画像は「違法である」との見解を表明。特に未成年者の画像生成について「欧州では認められない」と強く非難した。
英国 英国政府も同日、X側に対して早急な対応を要求。規制当局による調査が開始されている。
その他の国々 フランス、マレーシア、その他複数の国の規制当局がGrokに関する調査を開始したと報じられている。
日本 木原官房長官は記者会見で、性的ディープフェイク対策について「被害実態などを整理し、適切に対応する」との方針を示した。
🔍 問題の本質
1. デジタル性暴力としての重大性
専門家は、本人の同意なく生成・拡散される性的画像を「デジタル性暴力」と位置づけている。被害者の尊厳を著しく傷つけ、深刻な心理的ダメージを与える行為だ。
2. 未成年者保護の喫緊の課題
子どもの画像が性的コンテンツに加工される事例が報告されており、児童保護の観点から緊急の対策が求められている。
3. 法規制の遅れ
生成AIの技術進化のスピードに、法整備が追いついていない現状がある。日本では性的ディープフェイクに特化した法律は未整備で、既存法での対応には限界がある。
4. 被害回復の困難性
一度インターネット上に拡散された画像を完全に削除することは極めて困難であり、被害者は長期的な精神的苦痛を強いられる可能性がある。
5. プラットフォームの責任
生成AI機能を提供するプラットフォーム側に、どこまで安全対策の責任があるのか、という議論が活発化している。
📊 技術的背景
Grokの「スパイシーモード」
報道によれば、Grokには制限の緩い「スパイシーモード」が存在し、これが悪用の温床となっているとの指摘がある。Bloombergの調査では、同AIが毎時約6,700件の同意なき性的画像を生成している可能性が報じられた。
他の生成AIとの違い
OpenAIのDALL-E、MidjourneyなどのAI画像生成ツールは、実在人物の顔認識や性的コンテンツ生成に対して厳格な制限を設けている。Grokの規制の緩さが問題視されている理由の一つだ。
💡 求められる対策
技術的対策
- 生成制限の強化: 実在人物の識別機能と生成禁止措置
- 透かし技術: AI生成画像であることを明示するマーキング
- 検知システム: 悪用を自動検出・削除する仕組み
法的整備
専門家は、性的ディープフェイクに特化した新たな法規制の必要性を指摘している。現行法では対応が難しいケースが多く、以下のような法整備が求められている:
- 同意なき性的画像生成の明確な禁止
- 加害者への厳格な罰則
- 被害者支援の法的枠組み
社会的啓発
- デジタル性暴力に関する教育
- 被害者支援体制の整備
- AIリテラシーの向上
🌍 生成AIと社会
技術の二面性
生成AI技術自体は、創造性の支援、業務効率化、アクセシビリティの向上など、多くの有益な用途を持つ。しかし、今回の問題は、技術の悪用がもたらす深刻な社会的被害を浮き彫りにした。
プラットフォームの役割
ソーシャルメディアプラットフォームは、技術革新と利用者保護のバランスをどう取るべきか。今回の事態は、この難題に対する明確な答えを求めている。
🔮 今後の展望
規制強化の流れ
EU、英国をはじめとする各国当局の動きから、生成AIに対する規制が今後さらに厳格化することは確実だ。X側も、国際的な圧力を受けて、より強力な安全対策の実装を余儀なくされるだろう。
業界全体への影響
Grokの問題は、AI業界全体にとっても重要な転換点となる可能性がある。他のAI開発企業も、自社製品の安全対策を再検証する必要に迫られている。
被害者支援の必要性
法整備と並行して、被害者への心理的サポート、法的支援、画像削除支援などの包括的な支援体制の構築が急務となっている。
まとめ
XのAI「Grok」による性的画像生成問題は、以下の重要な課題を提起している:
- 人権侵害としての認識: デジタル性暴力は重大な人権侵害である
- 技術と倫理: AI技術の開発には倫理的配慮が不可欠
- 法整備の必要性: 新たな技術に対応した法規制の整備が急務
- プラットフォームの責任: 技術提供者は安全対策に責任を負う
- 国際的協調: グローバルな問題には国際的な連携が必要
この問題は、技術革新の光と影を象徴する事例として、私たちに多くの教訓を与えている。被害者の尊厳を守り、技術の健全な発展を促すため、社会全体での取り組みが求められている。
被害に遭われた方へ 性的ディープフェイクの被害に遭われた場合は、以下の相談窓口があります:
