「フェイク画像は半永久的に残り続けてしまう」――X、Grokが加速させた“性的ディープフェイク”とAI時代の倫理

X社が提供する生成AI「Grok」を用い、X(旧・Twitter)に投稿された写真が本人の許可なく、水着姿や露出度の高い画像に合成される被害が広がっている。往年の「アイコラ」と比べても精度は格段に高く、素人目には判別が難しいほどリアルな仕上がりだ。
こうした状況に対し、EUやイギリス政府、主要メディアなどから批判の声が相次いだ。その結果、X社は現在、該当機能を「有料会員限定サービス」へと変更している。しかし、同社の対応が被害の抑止につながるかは不透明であり、根本的な解決策とは言い難い。
なぜX社は、“性的ディープフェイク”への対策において、後ろ向きとも受け取られかねない姿勢を取り続けているのか?
コミケで撮影した写真が無断生成の標的に
Grokの画像生成機能「Imagine」が、X上でデフォルト機能として実装されたのは2025年11月のことだった。これ以降、他人の写真を性的に加工する行為(衣服を消す、いわゆる“ディープヌード風”の生成)が世界的に多発。中には子どもの画像が悪用されるケースも報告された。
日本でも年末のコミックマーケット以降、被害が顕在化している。1月にはGrokを用い、第三者がコスプレイヤーやグラビアアイドルの写真を無断で加工し、水着など露出度の高い画像を生成する事例が相次いだ。
撮影会モデルの山下沙織氏も、そうした被害者のひとりだ。同氏は1月5日、自身のXにワンピース姿の写真を投稿したが、その画像が第三者によって無断で使用され、Grokを用いて水着姿の画像へと改変・生成されていたという。
「画像生成を指示したアカウントおよびGrok宛てに削除要請を行ったところ、当日のうちに問題の投稿は削除され、そのアカウントも翌日には凍結されていました。ただし、私の削除要請を受けて相手が自主的にアカウントを削除したのか、それともGrok側のAI判断による措置だったのかは分かりません」
すでに無断で生成された画像の投稿は削除されているが、問題のアカウントからの謝罪や説明はなかった。
山下氏は自身の性的ディープフェイクが拡散されれば、被写体モデルとしての活動や仕事にも影響が出かねないと、懸念を抱いている。
「これまでにも、Grok以外の生成AIを使って、私の写真が勝手に水着姿や性的な画像に改変され、それがリプライやDMで送り付けられてきたことがあります。自分の写真が第三者によって無断で改変・生成されること自体、とても嫌。正直、恐怖も感じます」(山下氏)
撮影会モデルという仕事をしている以上、個人が興味本位で画像を改変することを完全に止めるのは難しいという覚悟はある程度している。ただ、それがXのように大勢の目に触れる場で拡散されるとなると話は別だ。
「元となった生成画像の投稿が削除されたとしても、それ以前に別の第三者が保存していれば、フェイク画像は半永久的に残り続けてしまう。そうした画像が、事実であるかのように受け取られてしまうことを、私は何よりも恐れています」(同)
被害拡大は想定内? X社とイーロン・マスクの思想的背景
性的ディープフェイク被害をめぐっては、2024年の1年間で、国内において警察へ寄せられた相談件数が100件以上に上っている。被害者・加害者の多くが同級生などの中高生であることも判明しており、教育現場においても深刻な社会問題として認識されつつある。
そうした状況の中、Xでは生成AI「Grok」による画像生成・編集機能が追加された。投稿内で「@grok」にメンションを付け、指示文を入力するだけで画像生成や改変が可能となる仕様は、ほかの画像生成AIと比べても操作のハードルが極めて低い。
Xユーザーにとって“日常的な投稿行為の延長線上”で利用できる環境が整えられた以上、性的ディープフェイク被害がさらに拡大・深刻化することは、X社にとっても、また一般的な感覚から見ても、十分に予見可能だったと言わざるを得ない。
しかし、山下氏をはじめ、被害に遭ったコスプレイヤーやモデルらがX上で非難の声を上げたことに加え、本国アメリカでも問題視されたことを受け、X社は当該機能の利用を有料サブスクリプション(X Premium)加入者に限定した。現在、無料ユーザーはSNS上で「@grok」をメンションして行う画像生成・編集機能を使用できなくなっている。
ところが、Grokの公式iOS/Androidアプリなどからは、従来通り画像生成が可能であるなど、依然として抜け道は残されている。
もっとも、xAI(Grokの開発を行うX社の親会社)が提供するGrokの画像生成機能「Imagine」は、X上でデフォルト機能として実装される以前から、アプリ上で性的ディープフェイク的な画像を生成することが可能だった。そのため、今回の措置によって悪用目的の無料ユーザーを一定程度排除し、少なくとも昨年11月以前の利用環境に近い状態へ戻したという見方もできる。
「今回の件に、イーロン・マスク氏の意向がどの程度反映されていたのかは未知数です。ただ、同氏はもともとテクノ・リバタリアン的傾向があります。生成AIに対しては人類への危険性を感じており、一定の規制を求めているものの、基本的には言論や表現の自由を最大化し、国家や政府の規制には懐疑的な立場をとることも多いです。今回もそうした姿勢が、その後の対応にも滲み出ているように見えます」
そう語るのは、情報社会学を専門とする学習院大学非常勤講師の塚越健司氏。
昨年末から続く一連の騒動は、結局のところ、XというオープンなSNS上で「生成・投稿・拡散」が容易に行える設計によって、軽率な利用者が雨後の筍のように可視化されたに過ぎない。マンガ家の田辺洋一郎氏が、自身の公式アカウントでSTU48メンバーの写真を無断で加工・投稿し、物議を醸した一件も、その象徴例だろう。
「性的ディープフェイクを無断で生成すること自体に、重大な倫理的問題があるのは当然です。ただし、悪意の有無にかかわらず、リテラシーの乏しい利用者を誘導しかねないアーキテクチャを提供した点については、プラットフォーマーであるX社の責任が問われるべきです。そもそも、現状でも性的ディープフェイク対策として技術的にできることはあります。『Gemini』や『ChatGPT』のように、あらかじめ大規模言語モデル(LLM)に適切な制限を組み込めば、すべてを防ぐことはできずとも、一定程度有効な対策は実現できます。それを実行するための技術的障壁は、決して高くないでしょう」(塚越氏)
グレーゾーンを突き進む生成AIの立ち位置
昨年4月には、OpenAIの「ChatGPT」による、自撮り写真などを、生成AIによってスタジオジブリ作品風のタッチに変換する、いわゆる「ジブリフィケーション」も、著作権の観点から問題視された。
生成AIをめぐっては、著作権保護や倫理的な議論が常に後回しにされがちで、開発競争そのものが優先されているのが実情だ。とりわけ、スピードと市場拡大を至上命題とするスタートアップ系企業では、こうした傾向がより顕著だという。
「現在の生成AIを取り巻く環境は、初期のYouTubeとよく似ていると感じます。X社に限らず、生成AIを開発する企業がいま最優先しているのは、ユーザーを生成AIの技術やコンテンツに“慣れさせる”ことです。初期のYouTubeは、その多くが違法コンテンツでしたが、物量で既成事実を積み上げ、結果的にコンテンツプロバイダー側が従わざるを得ない関係をつくり上げ、現在の地位を確立しました。この“物量作戦”においては、ユーザーの門戸を狭めるような規制は、むしろ邪魔になります」(塚越氏)
ユーザーの「質」よりも「量」を優先し、プラットフォーマーとして揺るぎない地位を築いてしまえば、コンテンツ提供側の企業やクリエイターは、後追いで参加せざるを得なくなる。そうした空気を先につくることこそが、多くの生成AI開発企業の本音なのだろう。
「世界の生成AIの勢力図で見ると、Grokは“1.5軍”に位置づけられる存在だと思います。ただ、マスク氏が率いていることもあってか、他社に比べてキワどいことやグレーなことを続けてきた印象があります。GrokはGeminiやChatGPTのような“1軍”とは異なり、1.5軍的なポジションで、費用対効果を重視しながら危うさを孕んだ技術を展開していく……。そうした戦略なのかもしれません」(同)
こうした巨大なテック潮流の中で、私たち個人、とりわけ、性的ディープフェイクの被害に遭いやすい女性たちの尊厳は、どのように守られるべきなのか?
「法律や制度よりも、集団内の空気、いわゆる“内輪ノリ”が優位になると、人は簡単にタガが外れ、愚かな行為を正当化してしまいます。日本のXは匿名文化が強く、独特の内輪的な空気がある分、なおさら注意が必要だと思います。そのため、遠回りに思われても、正攻法は『おもしろくない』『やめろ』と、その都度声を上げ続けることで、Xの空気を変えることです」(同)
性的ディープフェイクは、技術の問題であると同時に、社会の想像力と倫理が試される問題でもある。「できてしまうからやる」のではなく、「それをやれば誰が傷つくのか」を想像できるかどうか……。生成AIを巡る議論は、いままさにその段階に差し掛かっている。
(取材・文=伊藤綾)