AI“偷声”真假难辨,谁决定“我的声音”?
随着算法的偷声不断进步,在高性能设备和高精度模型的真假帮助下,人工智能产生的难辨铃鹿御前养父声音已经从过去的“假”发展到“难以区分真假”,人工智能声音滥用现象不时发生。决定当一些企业在短视频平台上带货时,偷声通过人工智能模仿知名人士的真假声音编造内容,不仅严重误导了消费者,难辨而且对当事人产生了不利影响。决定
如今,偷声铃鹿御前养父人工智能的真假声音在网络平台上随处可见。然而,难辨人工智能的决定滥用越来越突出。例如,偷声在社交平台上,真假使用人工智能技术模仿和恶搞名人的难辨短视频并不少见,其中一些视频包含了不当的评论,引起了社会的热烈讨论。另一个例子是,通过人工智能手段模拟熟人的声音进行欺诈和其他犯罪活动,很容易放下警惕。因此,人工智能技术必须依法规范,严厉打击人工智能声音滥用等违法行为。
作为一种生物识别特征,个人声纹信息具有很高的可识别性。根据《个人信息保护法》的规定,声纹信息被归类为敏感的个人信息,受到严格保护。随着人工智能技术的日益成熟,从收集到的声音样本中准确提取频率、音色、音调、语速等特征,转化为复杂的数学模型,可以产生高度逼真的声音。也就是说,只要当事人有少量的声音材料,就能快速实现声音的“AI克隆”,产生与当事人真假难辨的声音。
显然,AI“偷声”乱象迫切需要规范和整顿。民法典第一千零二十三条规定,对自然人声音的保护,应当参照适用肖像权保护的有关规定。在人工智能生成声音的过程中,每个环节都可能涉及不同主体的权益,包括声音样本的采集、使用、算法的研发和应用。因此,有关部门应跟上《时代》的步伐,完善声音权益保护的法律体系,完善人工智能克隆技术的法律规定,明确侵权行为的定义和责任。
在治理层面,应采取多种措施。首先,平台应认真履行监督职责,建立健全人工智能声音审计和侵权报告机制,及时发现和拦截侵权、虚假、违法等不良内容;其次,有关部门应加强打击人工智能技术欺诈等违法犯罪行为,形成更完善的正常治理机制;第三,个人还必须加强对个人生物特征信息的保护意识。
谁决定“我的声音”?这是一个不应该有第二个答案的问题。期待各方加强合作,遏制人工智能“窃取声音”的步伐,共同保持网络世界的安全底线。
丁家发《工人日报》(2025年2月26日) 05版)。
(责任编辑:休闲)
- 秦德英:一家三代人继承了22年 孝老爱亲的故事上演
- 《灵魂骇客2》“日刊・林檎与恶魔的将去瞻看”开端!
- 亚马逊拿下语音助手头把交椅,支持alexa设备超61%
- 年卡仅需149!3DM网游减快器周年庆开启
- 湖南省第一家艺术博物馆开业 首发经济增加动能
- 《仁王2》公布海量新截图 新兵器战自定义人物
- 称霸鬼域回去!建制人先容新做《鬼域之旅》设念细节
- 米家推出洗烘一体机,低价策略能否成功打入市场?
- 山东传媒职业学院“山传青年宣传团”获得共青团中央表彰
- 董明珠:格力才是世界上最好的空调,与小米不在一个层面
- iRobot推出可自动倒垃圾的扫地机器人Roomba i7+
- 《半条命》炫丽光遁结果演示 水光潋滟脸孔一新
- 从未授权收取履约保证金和特许经营费!茅台文化旅游严格声明
- 《三国志14》新武将谜题:同行刺韩遂 与尾献曹操