推广 热搜: ???  ????  content=  时期  校长  日方  创新  裂缝  药厂  小品 

紧急提醒!接到陌生电话先别出声:只需5秒,你的“声音”就能被“偷走”

   日期:2026-03-31 09:02:06     来源:光明网    浏览:4    评论:0    

随着人工智能技术

和语音大模型应用的发展

如今,AI声音随处可见

但相关乱象也随之频发

从“张文宏医生”推销蛋白棒视频

被本人“打假”

到多位配音演员发声维权

控诉声音被AI“盗用”

再到不法分子利用AI合成语音

实施新型电信诈骗……

而这一系列乱象背后

声纹被盗用

正是其核心风险所在

仅需5秒

你的“声音”就能被偷走

声纹如同指纹一样具有唯一性,是个人身份的重要生物标识。而随着人工智能语音合成技术的成熟,声纹的采集与复刻门槛已大幅降低。

据国内声纹识别领域领军企业相关负责人表示,当前技术水平下,仅需5到10秒的语音样本,即可完整提取并复刻一个人的声纹。

5-10秒语音就能复刻你的声纹

这些样本往往来自日常通话中的随意应答、社交平台上的语音留言、彩信、短视频,甚至是在与陌生号码“闲聊”时不经意间留下的声音片段。

此前,央视也曾曝光过AI克隆声音乱象,在多个网络平台上,以“声音克隆”为关键词进行搜索,能轻易找到大量相关教程视频和软件下载信息。部分博主不仅详细演示操作过程,还直接提供软件资源。

网络安全专家潘季明介绍,基于开源的语音大模型,只需一段清晰的语音样本,任何人的声音都可能在极短时间内被克隆,并能被操纵说出攻击者设定的任意内容。

新型诈骗套路用你的声音

骗你的亲友

当前,一种正在悄然蔓延的新型诈骗模式:犯罪分子通过非法渠道获取目标人物的少量语音样本,利用AI语音合成技术复刻其声纹,再冒充本人向亲友实施诈骗。

“妈,我手机丢了,这是我新号,急需用钱!”“爷爷我打架进派出所了!”“姥姥我女朋友怀孕急需手术费!”骗子通过非法渠道获取家庭信息,用哭喊、喘息声甚至AI合成语音模拟求救声音,虚构车祸、斗殴、疾病等突发事件制造恐慌。

声音几乎一模一样,再加上情感上的紧迫感,亲属很容易放松警惕。这类骗局之所以成功率极高,正是因为它绕过了传统诈骗中“口音不正”“话术生硬”的弱点,直接利用了人与人之间最基础的信任——声音的辨识。

日常生活中如何警惕并防范

声纹被盗用及AI换声诈骗

不随意与陌生号码“闲聊”

接到自称“客服”“熟人”“公检法”等陌生来电时,避免长时间对话,更不要主动提供语音回应。一旦发现可疑,立即挂断。

不随意发送语音与彩信

在社交平台、短视频、短信等场景中,避免向陌生账号或公开渠道发送个人语音信息。语音彩信、语音留言同样可能被截取利用。

选择可信平台

不要随意下载未经官方认证的App,即便其提供免费通话或其他看似诱人的功能,也可能暗藏陷阱。

涉及转账汇款,务必“双重核实”

凡是接到亲友通过陌生号码、社交平台新号提出借钱、转账、代付款等请求,必须通过原有联系方式进行视频通话或当面核实。仅凭“声音像”就转账,存在极高风险。

声纹和身份证、银行卡密码一样

是我们个人核心隐私的一部分

无论是主动规避

抑或是在信息泄露后

及时止损、留存证据维权

每一步都需要我们

主动警惕、积极行动

保护好个人敏感信息

就是守住个人权益的第一道关卡

唯有重视细节、做好防范

才能让信息泄露的“暗箭”

无处可藏

东方网综合央视新闻、湖北日报、法治日报、深圳新闻网

来源:东方网

内容由网友发布或转自其他网站,如有侵权及其他问题,请发送邮件至jiyuwang@qq.com,我们将第一时间处理。
 
打赏
0相关评论

推荐图文
推荐资讯
点击排行
网站首页  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报
Powered By DESTOON