AI 语音合成技术:20 秒生成以假乱真的音频,是便利还是乱象?
近期,网络平台上流传了一段真假难辨的企业家抱怨视频,经查证,该视频实际上是通过AI技术采集真实语音并合成配音的产物。这一事件引发了众多关于AI声音合成技术的问题与讨论。AI配音易生成
当前科技背景下,AI语音合成技术操作简便。以普遍应用的AI语音合成技术为例,用户仅需轻点软件,便能迅速制作出逼真的配音视频。在社交平台,记者观察到众多用户分享了相关视频制作教程,凸显了AI配音的易用性。几乎任何人都可以在相关应用平台上进行尝试。在这些平台上,创作者只需上传音频作为训练材料,AI便能模仿并克隆声音角色。记者亲自测试,添加企业家声音角色,输入100字文本,大约20秒后便生成了高度相似的音频。
AI声音合成技术的应用日益广泛,其操作简便性亦十分显著,即便未接受专业培训的个人,亦能轻松制作出颇具专业水准的AI配音作品。
AI合成声音引发争议事件
今年九月末,一宗事件引起了广泛关注。网络上流传了一段声称是直播平台老板卢某某的酒后录音。录音中,卢某某对消费者表现出傲慢态度,对相关人士缺乏尊重,导致该平台面临众多争议。但随后查明,这实际上是AI合成的声音,并非卢某某本人所录。此类未经授权的合成声音一旦扩散,可能误导公众,使人们在错误信息的引导下对他人形成负面印象。
该事件显著揭示了,在缺乏监管的条件下,AI技术合成他人声音可能引发的不良后果,以及对个人形象和声誉可能造成的负面影响。
http://www.qianxianly.com/data/attachment/forum/20241029/1730142244828_0.png
法律风险不可忽视
刘晓春,中国社会科学院大学法学院副教授兼互联网法治研究中心主任,指出,未经授权且未标注的情况下,将他人声音用于AI语音产品,尤其是公众人物的声音,极易造成误解。这不仅侵犯了个人信息安全,还可能扰乱网络空间生态秩序。目前,众多网友合成他人AI音频仅为了娱乐,并未意识到其中的法律风险。不论是为了商业还是娱乐目的,制作和上传他人AI音频均构成对人格权的侵犯。曾经,一位配音师因声音权益受损,将涉事公司告上法庭,并最终获得了25万元的赔偿。
当前AI声音合成技术正迅速进步,相应地,法律规范和公众意识亦需同步更新。若未能及时跟进,很可能会引发大量侵权争议。
人格权保护的判定
在案件审理过程中,被告公司提出了一种辩解,他们认为人工智能合成的声音与人类自然声音在人身权属性上存在差异。目前的技术在人工智能合成的声音中加入了水印标记,这切断了与人类自然声音的联系,不会引发与特定人类人格属性的相关性。然而,法院的观点是,如果AI声音与原告的声音高度相似且具有辨识度,足以使普通人对原告产生思想感情上的关联,那么在此情况下,对人类自然声音权益的保护也应扩展至AI生成的声音。
在司法判定过程中,对AI合成声音所涉及的人格权保护问题给予了高度重视,确保不会因技术上的细微差异而忽视对权益的侵犯。
应用提供方的责任
http://www.qianxianly.com/data/attachment/forum/20241029/1730142244828_1.jpg
张清鑫指出,AI语音应用工具的提供方需承担起责任。他们需严格把控源头素材,并对生成内容进行有效监管。此外,还需完善运营规范,一旦发现问题,应与相关部门协作追踪非法音频的来源。同时,还应提供内容标识功能,并提醒用户关注内容是否为合成。
在整个AI语音合成的流程中,应用提供方占据着至关重要的地位。他们理应肩负起防范违规音频生成的职责。
传播平台的义务
短视频等内容的传播平台,作为服务提供方,肩负着特定的责任。他们不仅应允许内容的传播,还必须承担起监管职责,以遏制涉嫌侵犯版权的AI合成声音内容的大规模扩散。
传播平台在保障个人权益与构建良好网络环境方面承担着关键职责。它们通常作为信息传播的主要途径,因此必须强化内部监管机制。
各位读者,针对如何在推动AI语音合成技术进步的同时,有效遏制侵权行为的问题,您有何见解?欢迎点赞、转发,并在评论区分享您的看法。
页:
[1]