AI歌手风险不可忽视
2023-08-11 09:34:49
文章来源
学习时报

  AI歌手顾名思义是由计算机技术生成的歌手。通过人工智能软件将歌手的声音数据输入、训练,再以具有仿冒歌手音质感的声音唱出其他歌曲。当前的AI技术逐渐能以较大规模深度合成人声,用一个人的声音素材“仿真”组合出他没有说过的话、唱过的歌。其实AI歌手的技术原型在我们身边早已有之,例如车载地图软件以男女明星的声音来导航,甚至可以合成自己声音的导航软件,但相比此类略呆板的、逐个读字的软件,AI歌手初步实现了一种更连贯的、音色音质水准较高的表达技术,是AI模仿技术的突破,AI歌手的出现刷新了人们对人工智能能做什么的认知。同时应该注意,新事物的产生在带来新的发展机遇时也会产生新的风险。


  声音就跟肖像一样,是人身权益的一类。声音作品指的是具有版权的特定作品。目前AI歌手还少见到自主生成原创新内容,一般是翻唱他人的作品。法律允许个人基于学习、研究或者欣赏目的,在小范围内使用他人肖像、声音、作品。大规模的使用或营利性使用,就会超出个人合理使用的标准。目前AI歌手尚未进入商业收费流程,但流传范围已经较广,有了不少流量,如果出现大规模的滥用、商用行为,可能会导致对声音权利人的民事侵权风险。


  但是,AI歌手或AI说话人软件可能造成的更大风险是仿冒。声音是我们辨识一个人身份的重要维度,如果是AI合成的歌曲,即便听着神似甚至可能水准更胜一筹,那也是一种“假货”。就像仿冒他人商标的产品,即便质量更佳,也是一种假货。更有甚者利用“AI说话人”的技术合成,制造他人的一段虚假话语或言论,用来诈骗钱财或者散布以败坏他人名誉,或者在法院诉讼中作为伪证。国家互联网信息办公室、工业和信息化部、公安部于2022年11月公布的《互联网信息服务深度合成管理规定》对此已经有所规定。其界定的深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术。不难理解,仿冒式的合成是不被允许的。对于高度逼真的“高技术”仿冒,由于鉴定难度大、鉴定成本高,给他人造成的不安全感也特别强,在造成重大危害后果或重大风险时,还应当被纳入法律的视野。


  随着AI技术的广泛应用,AI技术与我们的生活息息相关,如何在保护自身权益的同时让AI技术走得更远,这是我们应当审慎思考的问题。要积极制定和完善相关法律法规,让创新在规则内运行。建立明确合理的AI歌手技术运用规则,完善相应的授权使用制度规范,出台行业规范,用制度规制规范行业发展。AI技术应用过程中不可避免地要收集、储存大量数据信息,要兼顾好数据使用与安全的关系。加强对承载AI唱歌视频的网络平台的监督和管理,如删除违法内容、惩罚违规者等。同时,加强用户的法治教育增强其法治意识,尊重原创、避免抄袭。除了规定相关实体义务,还需要使AI技术服务提供者完善处置措施,应当采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改,建立健全投诉、举报机制,设置便捷的投诉、举报入口,公布处理流程和反馈时限,及时受理、处理公众投诉举报并反馈处理结果。此外,我们还需继续投入研发,提升原创能力,让技术更好服务产业。AI歌手已经为我们打开了人工智能文化创意产业的一扇窗。未来,更多AI文化创意产业等待我们去挖掘。


责任编辑:刘利香

AI歌手

仿冒

免责声明

发现网登载此文出于传递更多信息之目的,并不意味赞同其观点或证实其描述。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。违法、不良信息举报和纠错,及文章配图版权问题均请联系本网,我们将核实后即时删除。


  • 版权所有 发现杂志社