米実業家イーロン・マスク氏が設立した人工知能(AI)開発企業「xAI」が提供する「Grok」(グロック)によって、実在の人物が勝手に性的な加工をされ、その画像がX(ツイッター)上に数多く投稿される「性的ディープフェイク」の被害が世界中に広がっている。日本でも被害が報告されており、生成AIがもたらす深刻な問題へと発展している。
グロックはXの利用者が投稿のとき、タグ付けすると応答する「AIチャットボット」。昨年12月下旬ごろ、グロックに新たに画像編集機能が追加され、他人が投稿した写真であっても、テキストで指示を出すだけで簡単に改変できるようになった。
X上では今年に入り、投稿された女性の写真に対し、身につけている衣服をビキニや下着姿などに変更するような指示がグロックになされ、指示通り性的な画像が出力・投稿された事例が世界規模で確認されている。ほぼ全裸に見えるものや、男性がビキニ姿にされている画像などもある。
미 실업가 이론·마스크씨가 설립한 인공지능(AI) 개발 기업 「xAI」가 제공하는 「Grok」(그록크)에 의해서, 실재의 인물이 마음대로 성적인 가공을 하셔 그 화상이 X(트잇타) 상에 많이 투고되는 「성적 딥 페이크」의 피해가 온 세상에 퍼지고 있다.일본에서도 피해가 보고되고 있어 생성 AI가 가져오는 심각한 문제로 발전하고 있다.
그록크는 X의 이용자가 투고 때, 태그 붙여 한다고 응답하는 「AI채팅 보트」.작년 12월 하순경, 그록크에 새롭게 화상 편집 기능이 추가되어 타인이 투고한 사진이어도, 텍스트로 지시를 내리는 것만으로 간단하게 개변할 수 있게 되었다.
X상에서는 금년에 들어와, 투고된 여성의 사진에 대해, 몸에 걸치고 있는 의복을 비키니나 속옷차림 등에 변경하는 지시가 그록크에 되어 지시 대로 성적인 화상이 출력·투고된 사례가 세계 규모로 확인되고 있다.거의 전라로 보이는 것이나, 남성이 비키니차림으로 되고 있는 화상 등도 있다.

