その声、本当に「家族」?声を真似するAI詐欺にご用心!

豆知識

こんにちは。今日はちょっとゾッとする、でも知っておかないと危険な話題をお届けします。

最近、「AIの声で詐欺電話がかかってくる」って聞いたことありますか?
実はこれ、映画やドラマの中だけの話じゃなく、すでに現実で起こっていることなんです。


声がソックリ!AIで「なりすまし詐欺」が急増中

最近のAI技術、すごいんです。
「現在電話に出ることができません」「もしもし、〇〇ですが・・・」 このたった数秒の音声データがあれば、その人そっくりの声をAIが作り出せちゃいます。

それを悪用したのが「AIオレオレ詐欺」。

「お母さん、事故しちゃって…」「会社の金、立て替えてくれない?」
——なんて、リアルな“息子の声”や“上司の声”で電話がかかってくると、信じちゃいますよね。

でも、それ、本物の声じゃないかも。

留守番電話の声からも生成可能?

驚くことに、AIはたった数秒の音声でも学習できるため、留守番電話に残した声だけでも本人そっくりの合成音声が作られてしまうことがあります。

たとえば、家族が残した「またあとでかけるね」などの何気ない録音メッセージが、詐欺の材料になる可能性もあります。

「うちは留守電しか残ってないから大丈夫」と油断していると、思わぬ被害につながる恐れがあります。


企業でも被害!社長の声で送金指示?

個人だけじゃありません。
企業でも、「社長の声」を使った詐欺が出ています。

ある会社では、社長の声で「急ぎでM&Aの送金してくれ」と指示が入り、実際に何千万円も送ってしまったという事例も。
まさか社長の声がAIだったなんて、という話です。


高齢者がターゲットにされやすい

特に狙われやすいのが高齢者。

「孫の声に間違いないと思った」
「うまく言えないけど、確かにあの子のしゃべり方だった」

——と、声だけで信用してしまい、大金を振り込んでしまうケースが急増しています。


じゃあ、どうやって身を守ればいいの?被害に合わない防止策

合言葉を決めよう

家族で「合言葉」を決めておくと、いざというときに見破れます。
たとえば「好きな食べ物は?」「ペットの名前は?」など。

録音して確認

iPhone(iOS18以降)などでは通話録音ができるようになりました。
もし不審な電話が来たら、一度録音して家族に相談を。

不安なときは、折り返す

いきなりの電話でお金の話が出たら、一度切って、本当に本人か確認しましょう。
「慌てるとダマされる」が詐欺の常套手段です。


AIがAIを守る時代も?

最近では、AIが詐欺を見抜いてくれるスマホ機能も出てきました。
例えば、シャープの「AQUOS」スマホは、通話中にAIが「詐欺の可能性あり」と判断してくれます。

他にも、海外ではAIが詐欺師と会話を引き延ばして被害を防ぐ“AIおばあちゃん”なんてのも登場しています。


まとめ:その「声」は、本物か?

AI技術はとっても便利。でも、その技術が悪用されると、怖い現実にもなります。

  • 声だけで信用しない
  • お金の話は、まず確認
  • 怪しいと思ったら掛けた本人か身近な誰かに相談

これが、AI詐欺から身を守るカギです。

大切な家族や友人が被害に合わないよう、ぜひこの話をシェアしてくださいね。

コメント

タイトルとURLをコピーしました