文|InternetLawReview
2021年1月,早在OpenAI推出ChatGPT之前,微软就获批了一项以聊天机器人的形式“复活”逝者的新专利。
这项技术通过收集逝者生前的语音数据、社交媒体内容等个人信息进行大数据分析,能够模仿逝者生前的性格、声音、讲话特征等,创建一个AI机器人与其亲人进行实时互动和对话,甚至可以创造出一个虚拟形象来增加互动实感。
但当时,囿于这一技术的可控性和敏感性问题,微软宣称并不计划正式推出相关产品。
如今,生成式人工智能的爆发,让这一技术已经变得“唾手可得”。前有包小柏用AI复活已故女儿的感人故事,后又有好事的网友用AI“复活”乔任梁、高以翔等已故名人却遭其家人痛斥并拒绝。
我们可以看到,技术意图超越“死亡”的敏感性正牵动着人们的情绪和心理状态,也制造了前所未有的社会伦理和法律困境。
近期,剑桥研究人员对“数字来世产业”所产生的法律和道德挑战进行了深入研究,并提出一个从“数据提供者(逝者)、数据接收者(AI服务商)、服务交互者(逝者亲友)”三个主体权益进行区分的方法论框架。这对于我们理解并进一步解决“数字来世产业”问题提供了一个非常有益的基础——我们需要考虑参与AI克隆人项目不同利益相关者群体的相互关联的利益、权利和需求。
“AI复活”为何能成为蓬勃发展的中国生意?
在过去的三年里,中国的人工智能虚拟形象开发领域迅速成熟,数字复制品已经从长达数分钟的渲染视频,发展为可以与人互动的“实时”虚拟形象。而且由于中国人工智能公司之间的价格战,这一技术的成本也从数千美元,降至了到亲民的价格。
在一些电商平台上,AI“复活”的商品标价从几十元至数千元不等,所交付的产品形态和技术含量有所不同,当然,相似和还原程度也有差别。
从公共讨论中可以看出,目前,人们对这类“产品”的接受度仍旧存在问题:
一些人质疑AI复活逝者是否真的是一种处理悲伤的健康方式,已故亲人“生动”的音容笑貌会让很多人感到不舒服,甚至反感。所以,一些家人想要制作AI复制品的过程,有时会被另一些家人的反对而中止。
而另一些人则认为,AI复刻逝者从本质上与传统肖像没有太大区别,它不仅迎合了中国人与逝者沟通寻求安慰的悠久文化需求,而且因为增加了互动性,因此比扫墓、烧香、烧纸钱这些单向的对话能够提供更多的安慰和疗愈功能。
正如一位该产业的投资者所言,即使只有1%的中国人能够接受AI克隆死者,这仍然是一个巨大的市场。
而《互联网法律评论》认为,“数字未来产业”越有发展前景,其从业者或参与者,以及法律政策制定者,更应当注意容易被忽略的伦理和法律问题。
如何保护逝者的人格利益?
从法律上来说,自然人死亡后便丧失民事主体资格,其肖像、名誉、隐私等人格权也失去了存续的基础,但其承载和保护的利益却并不因此当然消失。根据我国《民法典》,逝者的近亲属仍需保护死者的肖像、名誉、隐私等权益。
然而,这一问题却因为AI服务商与逝者亲友之间的协议,以及逝者亲友之间的分歧,引发了更复杂的法律和伦理问题:逝者的人格权益是否得到了其亲友以及AI服务商的足够尊重和保护?AI服务商如何最大程度上避免其服务被指侵犯了逝者人格权益?
从交互设计的角度来看,在设计过程中将逝者视为利益相关者,不仅违反常识而且不可能获得逝者的同意。另外,彻底禁止使用再创造服务来“复活”逝者,目前看也不太现实。
因此牛津研究者建议:
伦理:将逝者的数据和信息,视为其具有内在价值的“数字遗骸”予以尊重,而不仅仅是实现利润等目的的手段。
法律:AI服务提供商在签署协议前,应提示逝者亲友考虑逝者的观点和同意,提醒他们应该尊重逝者的数据,从而确保逝者亲友反思他们与逝者的关系,在整个开发过程中牢记逝者的偏好和愿望,并将其确认结果纳入协议之中。例如,使用引导问题,“您是否曾与某某谈论过他们希望如何被记住?”或“某某是否表达过于在其去世后处理其个人物品的任何指示?”
如何对特殊群体(特别是儿童)进行保护?
目前,外国已经有专门的公司生产开发已故父母的AI复刻产品,例如Paren't,作为逝者仍未成年子女的陪伴和情感支持,旨在帮助儿童应对并顺利度过他们的悲伤期。
这一产品看上去具有极其强烈的人文关怀和心理疗愈的目的,本是好事儿,但是儿童作为弱势群体,尚未形成特定的世界观、生死观,不会像成年人一样将其视为与父母不能等同的AI产品。与AI克隆人的互动,有可能会混淆儿童对真实世界的判断,甚至产生一些错误的情感连接和诉求。
在一个案例中,一个失去母亲的儿童使用“过去时态”来描述已故母亲的时候,AI克隆的母亲却纠正了他,宣称“妈妈会永远在你身边”,并且很快会跟他面对面相见。当逝者亲属是成年的抑郁症患者,这一情况可能会更为复杂。
对于上述特殊人群,“复活”逝者的行为应当而且必须保证,AI机器人的“胡言乱语”不会导致人类的“神经错乱”。
因此,出于对逝者亲属特殊群体的保护,《互联网法律评论》结合目前的研究建议:
伦理:目前没有研究可以证明,允许儿童与AI“复活的”父母互动是有益的,或者至少不会伤害这个弱势群体。相关公司在研发产品前,应当获取社会学、心理学相关研究的支持,以证明产品的效用和效果。
监管:将专门服务特殊群体/弱势群体、帮助他们处理悲伤情绪的AI复刻产品,归类为医疗设备,予以专门的限制和特殊监管,例如进行年龄限制等。
法律:根据2023年7月颁布的《生成式人工智能服务管理暂行办法》,对AI开发过程中进行数据标注做了硬性要求,如果AI的制作方在销售过程中不进行标注,是一种违法行为。此外,也建议AI服务提供商向用户提供有关对话式人工智能性质的易懂信息,确保用户不会对与之交互的AI能力产生错误的认识(例如,将AI克隆人视为有意识或活着的)。
如何为逝者亲属提供保护?
在有些案例中,开发AI克隆人的协议并非源于逝者亲属的意愿,而是出于某些非亲友的公众,或者根据逝者生前的遗愿。
无需任何心理学基础,即便从普通人的视角也能够理解,对于某些人来说,与AI克隆人互动可能是一种积极且理想的体验,但对于其他人——甚至目前可能是更大的一部分群体来说,逝者亲友音容再现可能会在情感上造成二次乃至更大的创伤,导致不必要的压力。
在某些网友用AI“复活”李玟、高以翔、乔任梁等已故明星的案例中,逝者家属大多表达了明确的反对。虽然在实践(而非法律维度)上,明星大多用一部分隐私换取了大众流量和商业机会,所享受的隐私权是一种“有限的隐私权”,但使用已故明星的资料并开发AI产品,没有取得其近亲属的同意,则肯定是侵犯其亲属权益的侵权行为。
而在一个“创造自己的AI克隆人”的逝者遗愿案例中,逝者未征得其儿女的同意请AI服务商制作其替身,并预付了二十年订阅费用。然而,被动地接收邮件、链接、与AI母亲互动,让逝者的儿女都感到困扰,甚至成为心理负担。于是他们请求AI服务商停止这项服务,却遭到拒绝,原因是暂停该机器人将违反该公司与逝者签署的合同条款。
死亡是一件极其微妙和敏感的事情,不仅影响去世的个人,而且影响他们所生活其中的群体。因此结合牛津发布的研究成果建议:
法律:无论是在数据提供者去世之前还是之后,AI服务提供商都应当取得逝者及其亲属的明确的同意,逝者亲属有权拒绝参与或接收AI克隆人的服务。这在目前传统法律所规制的法律关系中,也能够得到相应的支持。
伦理:消化亲友死亡的悲伤,是一件高度个人化的旅程,逝者及其他人应当理解并尊重其亲友选择悲伤的方式,而且AI服务商也应当在设计系统时,以及大众用AI纪念某位已故明星时,应尽量避免将一种预先确定的标准化悲伤处理方式强加给逝者的亲属。
超越死亡?大可不必
对于AI服务提供商,“AI克隆人”仅仅具有“产品属性”,但对于逝者和逝者亲属而言,它却带有强烈的“人格属性”,很多伦理和法律问题,是因为二者交叠、模糊而产生的。
而牛津研究院最新的研究和建议中,就其本质而言,一方面是要求AI提供商在提供服务时理解、尊重并赋予AI设计一定的“人格属性”;另一方面,通过对AI提供商的规制和建议,也是要逝者亲属明白,AI克隆人无论有多逼真,终究不过是一种产品/服务,不能替代人。
AI技术所探索的“复活”、“克隆”,应当帮助人承认死亡,而不是超越“不可避免的死亡”。