AI生成音声でオレオレ詐欺が判別不可能に? アナログな対処法が有効!
高齢者に対して電話口で子供の名を騙る“オレオレ詐欺”や還付金詐欺など、高齢者を騙して口座に入金させる詐欺は次から次へとその手口が変わってきました。
しかしこの先、もしかすると再び“オレオレ詐欺”に気をつける必要が出てくるかもしれません。
クローン音声を使ったオレオレ詐欺が流行の可能性?
それはなぜかというと、AIの音声クローン生成技術が格段に上がってしまったから。
まずはこちらの記事をご覧ください。
無言電話に「もしもし?」と答えるだけで危険な理由 “AI音声クローン詐欺”の可能性 https://t.co/aArLAi1hSB
— ASCII.jp (@asciijpeditors) January 20, 2026
こちらの記事ではAI音声合成技術を悪用し、無言電話を活用して音声データを収集し、AIで生成した“クローン音声”を悪用した詐欺のリスクについて書かれています。
実際に私も趣味でAI動画生成を楽しんでいますが、実在の人物から素材が提供されれば簡単に本物のような表情で、本物のように喋っているAI動画を生成できてしまうのです。動画でもそれだけ簡単に生成できるのですから、音声だけの生成が容易なことは想像に難くないでしょう。
しかも記事では無言電話の返答を活用して音声データを収集とありましたが、YouTubeやSNSなどで自身の動画などを発信している人なら簡単に音声データを取得できてしまいます。
「声をよく聞けば本人だとわかる」
これまではこの考え方でも防げたかもしれませんが、もう通用しなくなる可能性が非常に高いのです。
対処法 →アナログな“合言葉”を決めておこう
もし家族間で対策を講じるのであれば、アナログな合言葉を決めておくことが有効になりそうです。
家族で共有している思い出や会話はインターネットで調べることができません。
家族間で電話をするときはあらかじめ決めておいた合言葉を言う、質問をするなど、何かルールを決めておけば、AIでどんなに精巧なクローン音声を作られても見破ることができるはずですよ。
Webライター野島
ライター兼Webディレクター。ライティングは真面目な記事からくだけた記事まで、どんなジャンルでも読みやすさを第一に心がけて書いています。 最近はアレンジレシピ関連の仕事もひっそりとこなしているらしい。