最近,复活生成式人工智能毫无疑问是用AI已个热词。而随着这项技术的故明发展,出现了用AI“复活”逝者的星否现象,尤其是涉及未经亲属允许“复活”明星等公众人物,当然这个“复活”是侵权加引号的,更多指的边界是声音和形象的再现。而由此带来的复活感受和看法,却是用AI已不一样的。
从不同的故明声音来看,大家争论的星否对象,更多的涉及是在未经亲属允许,对于明星等公众人物的侵权“复活”。对于亲属自己要求的边界,大家也在关心相关数据如何保护和使用的复活问题。
那么,用AI“复活”逝者,究竟行不行?这项技术的使用边界在哪儿?怎么依法依规又安全地使用?在人工智能大力发展之下,相关的法律法规如何更完善?我们一起关注。
用AI“复活”已故明星,是否涉及侵权?
中国政法大学数据法治研究院教授 张凌寒:对于死者人格权益的保护,包括肖像权、隐私权和名誉权,《民法典》已有相关规定,只是现在对于AI如何侵犯死者的权益,包括死者在AI技术之下“复活”,对相关权益的保护提出了一些新的挑战。如果按照传统的《民法典》规定,毫无疑问,没有取得死者近亲属的同意,这样是侵权的,我们可以通过事后侵权责任追究的方式来对其进行法律责任的规制。此外,在《互联网信息服务深度合成管理规定》当中,要求“深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意”。那么很显然粉丝如果想去“复活”明星的话,很难真正取得死者家属的知情同意,那么毫无疑问这就是一个侵权行为。
我国人工智能领域的治理,有哪些成绩?又有哪些短板?
中国政法大学数据法治研究院教授 张凌寒:我国的人工智能治理现在是走在世界前列的,我国人工智能治理的特点是小、快、灵。一个方法就是及时出台一些具体的规章,能够应对技术的快速发展,同时能够解决新出现的问题。目前欧盟的《人工智能法案》刚刚通过,美国在去年10月份也颁布了白宫行政令去规制人工智能。中国已有的一些人工智能的法规可以说是强制性的,同时速度是非常快的,也有一些符合中国本土特色的制度。但是即使如此,我们可以看到,现在对人工智能的治理,相对还存在一些法律上的不足。比如大部分是以部门规章为主,这样效力位阶就比较低。另外,很多监管部门基于自己的监管职能去出台部门规章,这样可能就缺乏一个统筹协调的机制和视角。后续我们可能要做的工作就是让这些部门的职能更好地协调,能够让它更好地落地。
人工智能快速发展,如何让规范和监管跟上,甚至走在前面?
中国政法大学数据法治研究院教授 张凌寒:让监管和技术发展尽可能同步,听起来似乎是一个不太可能完成的任务,因为人工智能的技术发展非常之快。大家回忆一下,2023年这个时候,ChatGPT的用户数量刚刚突破1亿,现在我们又可以看到更多的人工智能大模型出现在市场上。所以说人工智能治理面临的最大的困难,就是技术发展的快速性,以及技术发展和风险的不确定性。那么如何让监管更前进一步呢?我想我们可能更需要做的是让产业发展,“让子弹多飞一会”,看看人工智能技术的发展,可能给社会和公民个人带来一些什么样的危害。如何让监管走到前面,我觉得比较稳妥可行的方法是始终划定技术发展的红线和底线,就是我们始终要求技术的发展不能突破国家安全、社会公共利益和公民个人权益保护的底线。
AI“复活”技术,对服务提供者提出怎样的约束和提醒?
中国政法大学数据法治研究院教授 张凌寒:我们其实对制作方的规范是非常多的,大家可以参见我国《互联网信息服务深度合成管理规定》,要求如果能够提供生成音频视频的这样一些深度合成的话,首先对于数据要有非常严格的安全管理,同时要尽到对于用户的提示义务,就是每当用户在去做一些上传敏感的个人信息,像人脸人声去进行编辑的时候,要提醒需要取得相关个人的同意。但是同时也可以想见,对于这个平台来说,或者这样一个服务提供者来说,也是比较难的。因为有海量的用户可能去生成一些这样的内容。如果你要求它挨个去审核,它是不是经过了相关个人的同意,可能在体量上比较难。即使有难度,互联网信息服务深度合成的提供者,还是要承担起监管的义务。首先在用户协议方面,做好相关的提示工作。其次在用户做这样的事情的时候,比如说它上传的是一些名人的敏感个人信息时,很可能是没有取得授权同意的,就做一些相关的屏蔽和处理。