電話越しにAI合成音声を聞かせてフェイク人質の身代金を強請り取る〔未遂の?〕事件が米国で発生。

電話越しにAI合成音声を聞かせてフェイク人質の身代金を強請り取る〔未遂の?〕事件が米国で発生。
https://st2019.site/?p=21217

『 Anuj Chopra and Alex Pigman 記者による2023-6-12記事「Can you trust your ears? AI voice scams rattle US」。

   電話越しにAI合成音声を聞かせてフェイク人質の身代金を強請り取る〔未遂の?〕事件が米国で発生。
 実の母親がすっかり騙された。電話から聞こえる声は自分の娘に間違いないと。1秒も疑わなかったという。

 類似の事件が米国では急増している。

 AIに偽音声を合成させるためには、元にする音声サンプルを入手する必要がある。しかしそれは、ほんの短いものでいい。

 こんな犯罪を可能にするソフトウェアが、げんざいでは、オンラインで誰でも入手可能になっている。だからこの手の詐欺はこれから爆発的に増えるはず。』