《消费者警示》:知名语音克隆应用未设防,欺诈风险高悬不保安全防线

admin92025-03-11 17:12:11

标题:语音克隆技术安全担忧:多数热门工具缺乏有效防护措施

发布日期:2023年3月11日

导语:近日,《消费者报告》发布了一项针对市场上热门语音克隆工具的安全研究,揭示了当前市场上这些工具在安全防护方面的不足。

正文:

在数字化时代,语音克隆技术正逐渐成为一项热门的应用。然而,据《消费者报告》最新研究显示,市场上多款备受瞩目的语音克隆工具在安全防护方面存在显著缺陷,未能有效遏制欺诈或滥用行为的发生。

调查背景:

IT之家了解到,《消费者报告》此次调查针对的是六家知名语音克隆产品提供商,包括Descript、ElevenLabs、Lovo、PlayHT、Resemble AI和Speechify。研究团队对这些产品的安全机制进行了深入考察,重点关注它们是否具备阻止恶意用户未经授权克隆他人声音的能力。

研究结果:

令人遗憾的是,调查结果显示,仅有Descript和Resemble AI两家公司在其产品中实施了有效的安全措施来防止滥用。而其他公司则仅要求用户在克隆声音前勾选确认拥有相应的合法权利,或进行类似的自我声明。

专家观点:

《消费者报告》政策分析师格蕾丝・盖迪(Grace Gedye)对此表示,缺乏足够的安全措施,AI语音克隆工具可能会大大增加冒名顶替诈骗的风险。盖迪在一份声明中指出:“我们的评估表明,企业可以采取一些基本措施,以增加未经授权克隆他人声音的难度。然而,遗憾的是,部分公司并未采取这些措施。”

结论:

语音克隆技术的广泛应用无疑为人们的生活带来了便利,但同时也带来了安全风险。我们期待相关企业能够重视并加强安全防护,共同维护这一领域的健康发展。


注:为确保排版符合博客发布要求,本文已对原文进行了适当的调整和扩写。