生成AIを悪用してニセのわいせつ画像を作る「性的ディープフェイク」による被害が広がっています。SNSの写真などが悪用されることもあるなか、どのように対策すればいいのでしょうか。 ひいらぎネット 永守すみれ代表 「いま現在、被害に遭いやすいのは例えば芸能人の方ですとか、表に出て広く画像が公開されている人」 生成AIを使い「ニセのわいせつ画像」を作らせる「性的ディープフェイク」。先月には警視庁が初めて、芸能人のニセのわいせつ画像をインターネット上で公開したとして30代の男を逮捕しました。 こうした、わいせつ画像をネットパトロールで見つけ、削除要請や通報をしているボランティア団体の代表・永守さんは、最近“ある変化”が生じているといいます。 永守代表 「1、2年の間で中高生、もっと小さいと小学生、一般の子どもたちまで被害に遭っている。卒業アルバムがディープフェイクの素材にされることが大変増えてきている」 あらゆる画像が素材として悪用され、若年層が関わるケースも増えているようです。 警察庁によると、去年1年間の相談は100件を超えました。 20代 「自分の写真がどうやって流出してつくられているか怖くはなります」 20代の母親 「あまりSNSに顔出しすると使われてしまう可能性があるので控えたい」 SNSの普及によって“誰もが被害者になり得る”危険性がある一方で、特定のコミュニティ内で画像が拡散され、本人が気付かないという問題もあります。 永守代表 「完全な自衛は、まずできない。被害拡大を防いでいくために迅速な削除や被害者支援がますます重要になっていく」 海外では法規制が進みつつありますが、日本の法律はまだ追いついていません。 生成AIに詳しい岡田淳弁護士 「AIによる性的ディープフェイクを正面から想定した規律が存在しません」 急速に進化し続けるAIに対応するために社会全体をアップデートしていく必要があるといいます。 岡田弁護士 「必要であれば法律を改正する、新しい法律を制定することも選択肢に入る。学校教育の充実や社会での啓発活動の充実、きちんとやっていく必要がある」