AI“复活”的话题引发重重争议,其中就涉及“数字遗产”问题。北京康达(厦门)律师事务所高级合伙人张翼腾说,逝者生前的个人信息、聊天记录等“数字遗产”能否继承,目前没有明确法律规定。对于谁有权使用、如何避免不当获取、使用时应遵循何种规范等问题,仍需进一步明确。
此外,相关服务中,AI需要处理大量个人敏感数据,如面部表情、语音语调等;数据一旦被滥用或泄露,会对用户隐私造成威胁。业内人士建议,开发者和使用者都应承担责任,确保技术不会误导用户或影响人类情感;同时也要注意隐私保护和数据安全。
值得关注的是,AI“复活”技术使用不当,也可能成为犯罪分子实施诈骗等犯罪活动的工具。
“服务提供者不会也没有能力核实‘逝者’的身份信息,一些不法分子也可能以‘复活’之名行‘诈骗’之实。”中国科学技术大学网络空间安全学院教授左晓栋说,面对新的电信网络违法犯罪活动时,不熟悉网络应用的中老年群体更易成为受害者。
AI“复活”也可能衍生新型法律纠纷。“不排除有人会借AI‘复活’来伪造逝者遗嘱或做出其他违背逝者意愿的事。”王新锐提出,如有近亲属利用这项技术伪造音视频遗嘱,或将耗费更多时间和人力成本来验证真实性,甚至给司法鉴定带来一定挑战。
业内专家认为,技术创新永无止境,其应用应有道德边界和法律规范。应抓紧完善相关法律法规,警惕AI“复活”技术可能产生的社会风险。
首先,AI“复活”技术的应用,应严格遵守知情同意原则,在网络传播过程中不侵犯他人利益。
2022年,国家网信办等三部门发布《互联网信息服务深度合成管理规定》,对深度伪造等新技术应用进行了规范。规定明确,深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。业内人士认为,如果被编辑人是逝者,理应取得有义务保护逝者肖像权的亲属的同意。
其次,不少专家提出,AI“复活”产品应恪守技术管理规范,加强内容“标识”。
左晓栋等专家表示,根据有关规定,相关技术服务提供者必须对“生成内容”进行“标识”;在已有原则性要求的背景下,可出台相关行业标准,要求相关技术服务提供者在生成式内容中添加“水印”,防止不法分子借用该技术实施违法犯罪活动。
另外,业内人士提出,在数据处理过程中,要更注重隐私保护和数据安全。
2023年,国家网信办、国家发展改革委、教育部等七部门联合发布《生成式人工智能服务管理暂行办法》,进一步明确了生成式人工智能的行业发展规范。办法规定,提供者应当依法承担网络信息内容生产者责任,履行网络信息安全义务。涉及个人信息的,依法承担个人信息处理者责任,履行个人信息保护义务。
专家还建议,要进一步落实相关平台的主体责任,处置借AI“复活”概念不当牟利的不法商家。
“不能放任AI‘复活’变成一门没有规矩和底线的‘生意’,尤其要保护对新技术不敏感的中老年用户群体。”中国法学会消费者权益保护法研究会副秘书长陈音江建议,有关平台要帮助中老年用户群体辨别深度伪造技术,取缔不当得利的违法违规商家,尽可能减少技术滥用带来的社会风险。
法律界人士建议,有关部门对AI“复活”的需求和其衍生的产业链要保持关注、合理辨析,在现行法律法规基础上做好数据保护、涉诈犯罪风险预防等方面的监管。
此外,普通群众在面对诸如AI“复活”等新技术时,要提高警惕,一方面要避免掉入不法商家借新技术之名设下的虚假宣传之坑,另一方面也要提防诈骗者运用深度伪造技术乔装“亲友”实施电诈行为。
据新华社