近期,一些短视频平台上出现了大量知名企业家的吐槽视频。视频中,该企业家对堵车、休假、游戏等热门话题进行调侃和批评,甚至穿插猥亵言语,引发网友热议。
事实上,那些抱怨并不是企业家本人发出的,而是网友利用AI软件采集企业家原声配音的。然而现实的效果却让不少人信以为真。
人工智能的发展给生活带来了很多便利,但一些乱象也引发了质疑。以AI语音合成技术为例,只需打开软件,动动手指,一段和真人一样的配音视频就会发布出来。但有些视频跨越戏谑的界限,“盗用”他人声音进行恶作剧、散布谣言,带来了恶劣的社会影响。
20秒即可生成一段AI音频
记者在社交软件上搜索AI配音发现,不少用户发布了如何生成相关视频的教程。其中,大部分视频的配音来自大型沉浸式语音模型应用。
在应用网站上,创作者上传任意角色的音频片段作为训练材料,然后AI可以通过学习克隆一个语音角色。网站上的其他用户只需输入文本即可使用该语音生成内容。
根据网站的使用指南,记者添加了上述知名企业家的语音角色,输入了100字的文字,然后点击“开始生成”。大约20秒的时间,一段与企业家声音非常相似的AI音频就生成了。生成。记者发现,截至目前,该语音字符已被使用79.9万次,生成字符数已达4455.5万个。
有很多公众人物的声音被“窃取”。今年9月底,一段据称由某直播平台老板卢某某录制的醉酒录音在网络上流传。整体表现出卢某某对消费者的傲慢态度以及对相关人员的不尊重表情,导致该平台引起更多关注。引起了不小的争议。警方随后调查发现,该音频内容不实,是用大型模型伪造的。
一位业内人士告诉记者,通过模仿音频样本的语调、语速、情绪、口音、发声等特征,AI技术已经能够将音频样本的声音高度还原到难以辨别的程度。人耳和其他识别方法之间。
“从早期的‘一眼就假’到如今的‘真假难辨’,人工智能的发展已经进入了‘深度伪造’时代。”中国社会科学院大学法学院副教授、互联网法治研究中心主任刘晓春告诉记者,未来将在未经授权、不加标签的情况下,利用他人的声音打造AI语音产品尤其是“借用”公众人物的声音,很容易引起误解。这不仅会侵犯个人信息安全,还可能扰乱网络空间生态秩序。
滥用他人声音侵犯人格权
目前,不少网友在合成别人的AI音频时仅抱着娱乐心态,并没有意识到其背后隐藏的法律风险。记者注意到,在一段“AI配音教程”视频的评论区,有学生提问“这不是侵权吗?”
该博主回复:“大家都在做,如有违规,直接删除。”
对此,北京英善律师事务所律师张庆新分析称,与“肖像”类似,自然人的声音是独一无二的、独一无二的,是自然人人格的重要组成部分。发言权是人格权的一种。制作、上传他人人工智能音频的行为,无论是出于商业目的还是娱乐目的,均构成对其人格权的侵犯。如果配音内容违法或违反公序良俗,可能会侵犯他人名誉权。
据了解,今年4月,北京互联网法院一审宣判了全国首例人工智能语音侵犯人格权案。本案中,配音员认为自己的声音权益被短视频平台利用人工智能生成语音产品的方式严重侵犯,遂将短视频平台、制作方等五家公司告上法庭。最终判决原告经济损失25万元。
庭审中,被告公司辩称,人工智能合成的语音产品在人格属性上与自然人的语音不同。目前的技术会对人工智能合成语音进行水印,将人工智能合成语音与自然人的语音截断。它们之间的联系不会产生与自然人相对应的人格属性。法院认为,人工智能声音与原告的声音高度一致,能够引起普通人产生与原告相关的思想或情感活动,并且能够将声音与原告本人联系起来。在可识别的前提下,自然人声音权利的保护范围可以延伸至人工智能生成的声音。
“这个判断对于厘清和把握人工智能声音的边界具有指导意义。”刘晓春说道。
治理方法必须跟上科技步伐
清华大学新闻传播学院新媒体研究中心今年4月发布的研究报告显示,过去一年经济和企业AI谣言数量增长了99.91%。接受采访的专家表示,法律法规和治理方式必须跟上科技发展的步伐,明确限制人工智能技术的应用,引导科技向善。
张庆新认为,AI语音应用工具提供商不能“置身事外”,而必须做好第一步,加强对素材的控制和生成内容的监管,完善操作规则,出现问题时积极配合有关部门。出现。部门追查非法音频的来源。
今年9月,国家网信办发布《人工智能合成内容标识办法(征求意见稿)》,提出提供网络信息内容传播平台服务的服务提供者应当采取措施规范传播。生成合成内容的活动。这包括提供必要的识别功能、提醒用户主动声明发布的内容是否包含生成的合成内容等。
“短视频等传播平台作为内容传播服务提供者,应当履行相关义务。”刘晓春建议,平台除了提示用户识别外,还应该建立对AI生成内容的筛选和追踪机制。如果发现涉嫌伪造内容或收到相关投诉,应要求内容发布者及时对伪造内容进行标注。若内容未标注,可根据平台规则删除该内容。造成严重后果的,该内容可以被封禁或者封禁。处理。