ai诈骗犯罪案例、AI模拟变声诈骗频频发生!耳听为虚谨慎核实
- 1、AI模拟变声诈骗频频发生!耳听为虚谨慎核实
- 2、什么是AI诈骗?
- 3、全球首例AI诈骗案与AI“老板”通话后,英国公司痛失170万,人工智能还安全吗?
本文提供多篇内容参考,可直接点击跳转详细解答
AI模拟变声诈骗频频发生!耳听为虚谨慎核实 (一)

答“只要念两个例句,你就可以让AI代替你说话了。”不仅如此,现在的技术已经可以在保证声音高保真的同时,模拟你的音色,甚至细致到你说话时的口音、重音、换气的节奏等等,这完全可以满足实时的互动需求。违法犯罪份子也利用了这一技术动起了歪心思,制造了多起语音诈骗案。
案例一:声音像老板就一定是老板?
某公司财务小王接到领导电话,要求立刻给供应商转款2万元,并将转账信息以邮件形式发送,转款理由是避免缴纳滞纳金。由于老板的口音十分逼真,小王信以为真,在1小时内转款完成,后发现被骗。
案例二:“女儿”找母亲要三十万求救?
去年11月,王欣的母亲突然接到一通“王欣”打来的电话,让母亲转账30万元,着急的王欣母亲立马就打算给对方转钱,被同事拦了下来。
同事建议先给王欣打电话,确认情况,结果真实的王欣正在睡午觉,啥事也没,而那通“求救电话”就是骗子利用王欣的AI克隆声音制作的。
案例三:哥哥我啊,差点就骗到你啦!
江苏警方接到一工厂员工报警称,其同事可能遭遇诈骗。民警赶到现场时,被骗女子情绪激动,不愿配合调查。
民警一直坚持耐心劝导,终于在女子与骗子通话近3个小时后将其拦下。而刚挂断骗子来电后,女子的哥哥就打来电话询问是否是要向其借钱。
民警立刻识破这是一种利用AI技术进行诈骗的新方式,骗子通过AI合成声音,甚至影像向受害人亲友借钱。同时,在通话过程中,骗子还盗取了女子身份进行网贷。最终,民警联系网贷平台中断放款,成功挽回女子5万元损失。
三个案例,均是违法犯罪份子利用AI合成音频的技术实施的诈骗。然而,这种AI合成声音的诈骗还是有很多破绽的,在遇到涉及转账或信息安全等敏感操作时,多留个心眼犯罪分子就难得逞。
AI合成声音有以下几个破绽:
1.AI合成声音不能长时间快速说话;
2.AI合成声音在读某些字词时会有一些怪异的语调;
3.诈骗犯在使用AI合成声时会营造紧张的情景试图让你忽略掉这些瑕疵。
因此,日常遇上涉及这类敏感操作的语音沟通,做到以下几点,就能一定程度防止上当受骗:
1.保持镇定,耐心询问情况,仔细听当事人口音有无异样状况;
2.要求进行视频交流;
3.多做一些试探性的举动如讲讲家乡话等,听听有没有露出破绽;
4.用常用的联系方式与对方再联系一遍进行确认;
5.注意自己的以及身边人生物信息的保护,避免泄露声纹信息等。
什么是AI诈骗? (二)
答近日,包头警方发布了一起利用AI换脸技术实施的电信诈骗案例,一名科技公司老板在10分钟内被骗走430万元。这种新型的诈骗方式具有高度的隐蔽性和欺骗性,给公众的财产安全带来了严重的威胁。
也就是所谓的AI诈骗,它是指利用人工智能技术,如换脸、拟声、文本生成等,伪造他人的身份、声音、图像或内容,进行电信网络诈骗的行为。
要防范AI诈骗,需要从以下几个方面入手:
提高自身的防范意识和技能
首先,我们要提高自身的防范意识和技能,不轻信陌生人或熟人的视频、语音、短信等信息,不随意透露个人或单位的敏感信息,不轻易转账或汇款给不明身份的人。我们要学会辨别AI生成的内容和真实的内容,比如通过观察视频中人物的眼睛、嘴巴、头发等细节(这几个细节AI还不能做到完全的相同)是否自然,语音中是否有杂音或断续等异常现象。我们还要及时更新自己的网络安全知识,了解AI诈骗的最新手段和案例,增强警惕。
加强网络安全法律法规和监管
其次,我们要加强网络安全法律法规和监管,规范AI技术的开发和应用,防止其被滥用或恶用。我们要建立健全AI生成内容的标识、审核、备案等制度,要求AI生成内容提供者明确标注其来源和性质,禁止利用AI生成内容进行虚假宣传、误导舆论、侵犯他人权益等违法行为。我们还要加大对AI诈骗犯罪的打击力度,提高案件侦破率和资金追缴率,对涉案人员依法严惩。
增进社会公众对AI技术的理解和信任
最后,我们要增进社会公众对AI技术的理解和信任,消除对AI技术的恐惧和误解。我们要认识到AI技术本身是中性的,它既可以带来便利和效率,也可以造成危害和风险。我们要积极利用AI技术为社会发展和人类福祉服务,同时防范其可能带来的负面影响。我们要培养公众对AI技术的科学素养和道德责任感,引导公众正确使用和评价AI技术。
综上,要防范AI诈骗,我们需要从个人、社会和法律三个层面入手,提高自身的防范意识和技能,加强网络安全法律法规和监管,增进社会公众对AI技术的理解和信任。只有这样,我们才能在科技发展的浪潮中保持清醒和警惕,既享受AI技术带来的便利和效率,又避免AI技术带来的危害和风险。
正如一句名言所说:“科技是一把双刃剑,关键在于我们如何使用它。”
全球首例AI诈骗案与AI“老板”通话后,英国公司痛失170万,人工智能还安全吗? (三)
答据《每日邮报》9月6日报道,英国一名公司高管被另一名人诈骗了24万美元(170万人民币),该男子使用某种语音模仿软件,假装成该高管的老板要求汇款。据报道,此案被认为是全球首例人工智能诈骗案,可能将重新引发人们对人工智能软件被用于犯罪的担忧。
这家英国能源公司的承保人Euler Hermes说,这位公司高管当时以为自己是在和他的德国老板谈话,于是电汇了这笔钱,为的是帮助公司避免拖欠罚款。
据《华盛顿邮报》报道,这位公司高管当时也产生了疑心,对对方要求汇钱的做法感到奇怪,但当时他的确听到了老板的德国口音。
在接到电话后,他向匈牙利的一个秘密账户汇去了24万多美元(170万人民币),现在这个骗局已经被承保人Euler Hermes揭露。
保险公司说:“骗子使用了某种人工智能软件,能够模仿他人的声音、语调和口音。”
在骗子们第二次尝试这个诡计时,这一次这名高管开始发现哪里不对劲,于是直接给他的老板打了电话。
该公司的保险公司表示,这笔钱在被分散到其他地方之前,是通过匈牙利和墨西哥的账户转账的,目前还没有嫌疑人的名字,据信这笔钱已经无法找回。所幸保险公司承诺将承担全部的损失费用。
一些研究人员表示,这是世界上首次公开报道的人工智能诈骗案。
变声技术的工作原理是把一个人的声音分解成音节或声音,然后再重新排列,再形成新的句子。尽管该系统仍处于早期开发阶段,但如果犯罪者假装在汽车或繁忙的环境中,就可以将变声后令人生疑的地方掩盖过去。
一家名为Lyrebird的公司允许任何人在上传一分钟的语音片段后使用这项变声技术,它称这是“世界上最真实的人造声音。”
我们通过阅读,知道的越多,能解决的问题就会越多,对待世界的看法也随之改变。所以通过本文,酷斯法相信大家的知识有所增进,明白了ai诈骗犯罪案例。