人工智能在拟人方面的进步不仅体现在“善解人意”上,甚至还学会了人类的欺骗、奉承等手段。
随着人工智能大语言模型的不断迭代,其在类人智能方面取得了不少亮眼进展——这是否意味着我们距离实现通用人工智能已不再遥远?当人工智能“进化”得“更像人”,又会给人类社会带来哪些潜在风险?
察言观色,接近真人
对他人心理状态进行解读的能力是人类社交的关键。近日发表在英国《自然·人类行为》杂志上的新研究发现,有的大语言模型在评估解读他人心理状态能力的测试中与真人表现相当,甚至在识别讽刺和暗示等测试项目中的表现胜过一些人。美国开放人工智能研究中心(OpenAI)本月新发布的模型GPT-4o,在与人的自然交互方面达到新高度,它可进行文本、音频和图像多模态的识别与回应,且更具“人情味”。它还能识别人的面部表情、感知发言者的语气和情绪,并给出相应回应,让人惊呼“更像人”了。
欺骗人类,警惕风险
人工智能在拟人方面的进步不仅体现在“善解人意”上,甚至还学会了人类的欺骗、奉承等手段。研究发现最引人注目的欺骗案例是“元”公司的“西塞罗”人工智能系统,它被设计在一个虚拟外交战略游戏中作为人类玩家的对手。尽管“元”公司声称,该系统“在很大程度上是诚实和乐于助人的”,但研究人员发现,该系统在玩游戏时为达成比赛目标,背叛了盟友。
当人工智能掌握了欺骗技能,是否会给人类社会带来安全隐患?研究人员建议尽可能用更多时间为未来人工智能产品和开源模型的更高级欺骗做好准备。
通用智能,尚未实现
尽管人工智能已在一些方面“进化”得十分像人,但相关专家指出,对大模型的“类人智能”需要有更清醒认知。目前距离实现完全类人、具备泛化能力的通用人工智能还有一定距离。
中国科学技术大学机器人实验室主任陈小平接受新华社记者采访时指出,要警惕人类对大模型产生“幻觉”。大模型学习大量历史数据,输出的表达方式符合许多人的语言习惯,让许多人误以为大模型会“说人话”,继而以为它具有某种“社会属性”,但实际上它没有心智。他说,目前对大模型测评的方法,基本上仍是传统软件的测评方法,因此需对这种方法得出的测评结果保持适度的审视态度。
据新华社电