Grokが毎時約6700枚の性的画像を生成しているとの指摘、Grok生成画像の85%は性的
X(旧Twitter)上で、AIの「Grok」を使って他人の画像を性的なものに改変する事例が相次いでいます。いくつかの調査で、Grokが前例のないほど大量の性的画像を生成していることが指摘されました。
2025年12月頃から、X上でGrokを使って他人の画像を勝手に編集する行為が相次いでいます。特に画像に写っている人物を性的な様子に改変する行為が目立ち、実質的な性被害が拡大しています。この件は世界中で問題視されており、各国の省庁が調査に乗り出しています。
Xではボタン1つでGrokの画像編集機能を立ち上げられるほか、画像が含まれる投稿に対して「@grok」という文字列とプロンプトを返信するとGrokに画像を生成させることができます。これによりGrokのアカウントのメディア欄には大量のGrokが生成した画像が並ぶようになりました。
調査会社のCopyleaksがGrokアカウントのメディア欄を調査したところ、1分間に約1枚の合意のない性的画像が存在することが分かったそうです。
また、Bloombergが「ソーシャルメディアとディープフェイクの研究者」と紹介したGenevieve Oh氏の調査によると、Grokは性的な画像を1時間あたり約6700枚生成したとのこと。Oh氏は「Grokが生成した画像の85%は性的表現を含んでいた」と指摘しています。
ソース
https://gigazine.net/news/20260108-grok-ai-media/
<ネットでの反応>
意外と少ないな
公開された画像数って事かな
毎時約6700枚?
いやそんな少ないワケないだろ、ローカルPC生成じゃあるまいしw
15%の人は何をしてるん?
これこそが性の平等やぞ
イケメンばっかり美女の裸を見れる時代は終わった😍!
オッスどもさあ…
実在のそれも身近の人間使うと確かに面白い
それだけ需要あるならエ〇特化のAI作ればいいんじゃない?
コソコソやるぶんには世間はお目溢ししてくれるのに
なんでバカはドヤぁ!すんのかね
おまえの能力でもないのに
意外と〇ロ率低いな
98%くらいエロだと思ってたわ
エ〇認定されない命令のコツが知りたい
Grokのサイト掘って出てきた画像と元画像の人をAIで特定して晒すやつ出てきそうだな
便利さより刺激に流れる割合が多かったって話かもだお

市場調査としては分かりやすい結果だな





コメント