当前位置:首页 >知识 >诈骗者利用 AI 声音冒充亲人窃取数百万美元 根据 FTC 官员的说法

诈骗者利用 AI 声音冒充亲人窃取数百万美元 根据 FTC 官员的说法

2024-06-28 19:07:26 [百科] 来源:避面尹邢网

诈骗者利用 AI 声音冒充亲人窃取数百万美元

作者:科技狠活与软件技术 人工智能 一段时间以来,诈骗者利人工智能一直是用A音冒科技界的中心话题,因为微软继续在其产品中注入ChatGPT,充亲而谷歌则试图通过推出自己的人窃人工智能产品来跟上潮流。

2022 年,取数超过 5,百万000 名受害者通过电话被骗走钱财。

  • 人工智能语音生成软件让骗子可以模仿亲人的美元声音。
  • 这些假冒行为导致人们在 2022 年通过电话被骗走 1100 万美元。诈骗者利
  • 老年人占目标人群的用A音冒大多数。

诈骗者利用 AI 声音冒充亲人窃取数百万美元 根据 FTC 官员的说法

一段时间以来,充亲人工智能一直是人窃科技界的中心话题,因为微软继续在其产品中注入ChatGPT,取数而谷歌则试图通过推出自己的百万人工智能产品来跟上潮流。虽然人工智能有潜力做一些真正令人印象深刻的美元事情——比如根据一行文本生成图像——但我们开始看到几乎不受监管的技术的更多缺点。最新的诈骗者利例子是人工智能语音发生器被用来骗取人们的钱财。

诈骗者利用 AI 声音冒充亲人窃取数百万美元 根据 FTC 官员的说法

人工智能语音生成软件近来一直是头条新闻,主要是因为窃取了配音演员的声音。最初,软件只需要几句话就可以令人信服地再现扬声器的声音和语气。该技术已经发展到只需几秒钟的对话就足以准确模仿某人的程度。

诈骗者利用 AI 声音冒充亲人窃取数百万美元 根据 FTC 官员的说法

在《华盛顿邮报》的一份新报告中,数以千计的受害者声称他们被冒充亲人的冒名顶替者所欺骗。据报道,冒名顶替诈骗已成为美国第二大最受欢迎的欺诈类型,2022 年提交的案件超过 36,000 起。根据 FTC 官员的说法,在这 36,000 起案件中,超过 5,000 名受害者通过电话骗走了他们的钱,损失总额达 1,100 万美元.

一个突出的故事涉及一对老年夫妇,他们认为他们与儿子交谈过后,通过比特币终端向诈骗者发送了超过 15,000 美元。人工智能的声音让这对夫妇相信,他们的儿子在一场车祸中杀死了一名美国外交官后陷入了法律纠纷。

与故事中的受害者一样,这些袭击似乎主要针对老年人。这并不奇怪,因为在涉及金融诈骗时,老年人是最脆弱的群体之一。不幸的是,法院尚未就公司是否应对人工智能语音发生器或其他形式的人工智能技术造成的损害承担责任做出决定。

责任编辑:华轩 来源: 今日头条 人工智能ChatGPT科技

(责任编辑:热点)

    推荐文章
    热点阅读