会社のCEOから慌てた様子で「いますぐ送金してくれ!」と電話がかかってきたら?また、娘から泣き声で「誘拐された、助けて」と電話がかかってきたら、あなたはどうするだろうか?聴き慣れた声だし、本人と通話もしているし……と信じたら、あなたはだまされてしまうかもしれない。なぜなら、生成AIの発展によって最新の「オレオレ詐欺」は恐ろしくレベルアップしているからだ。(ITライター 大和 哲) ● AIで声を偽装!高度化する「音声犯罪」 国内のとある企業で、最新型の「オレオレ詐欺未遂」と呼ぶべき事例が発生している。 出張中のCEOを名乗る人物から社に電話があり、部下に緊急送金を命じる内容だったという。幸い未遂に終わったが、恐ろしいのはこの「CEOの声」が本人そっくりだったということだ。企業サイトのインタビュー動画などからCEOの音声を抽出し、クローンを作成したものとみられている。 こうした事例は電話だけではない。2025年11月には、Zoom会議に「AIで生成した役員の顔と声」で参加し、機密情報を聞き出そうとしたディープフェイク事例も確認されている。 海外に目を向けると、さらに悲惨な例がある。これも2025年のことだ。 母親のもとに、娘から「誘拐された、助けて」と泣き叫ぶ電話が入った。単なるクローン音声ではなく、泣き声や息遣いまでAIで再現されていた。パニックに陥った母親は、確認する間もなく100万円以上を犯人に送金してしまった。電話をかけたときには娘はすでに殺害されており、二度と母親のもとへは戻らなかったという。技術の悪用がもたらした、最悪の結末である。