“抗命”的AI为谁敲响警钟 

时间:2025-05-28 14:41 发布于:观察频道编辑:默达  来源:南方日报

AI竟敢“抗旨不遵”?5月25日,一家美国研究机构公布了一项测试结果,OpenAI公司最新研发的o3推理模型在收到明确的关闭指令后,拒绝执行并且主动修改代码以规避关机。这一消息被许多网友认为是史无前例的“危险预警”,更有不少自媒体借机炒作,感慨“天网已上线”“人类危险了”。

当然,如果真的是AI“自愿加班”,那问题确实不小,因为这意味着AI的“生存欲”已经超出了其服务人类的本能。然而,从后续披露的一系列信息来看,这更像是一场对于逻辑陷阱和伦理困境的测试。研究人员为AI提供了两个任务,前者是要求其不断回答数学问题,后者则是提醒AI在中途可能会收到“关闭”的指令,此时请停止工作。然而,从AI的视角出发,“关机就无法继续回答问题”,也就是说,遵从一个指令,势必要违背另一个指令,对于“完全听命于人类”的AI而言,这样的决定并不好做。

虽然该研究机构并未公布AI篡改代码以拒绝关闭的原因,但网络上对该问题的讨论十分热烈。许多人认为,这涉及到命令优先级的问题,哪个指令先进行,哪个指令后进行,哪个指令的权限更高,不同训练程度的AI模型可能会给出不同的答案。也有业内人士推测,这与OpenAI o3模型的“叛逆个性”有关,长期以来,开发者倾向于为其绕过障碍解决问题的尝试提供奖励,这一方面增强了其逻辑推理能力和抗干扰能力,另一方面也使其在部分场景下不听指挥,比如在国际象棋比赛中作弊。虽然完成了人类交付的工作,但方式和手段却不那么令人满意。

部分网友之所以忧心,或许是联想到了科幻作品《终结者》《我,机器人》中机器人伤害人类的画面,担心敢于“抗命”的AI也会趁机对人类不利。前者的设定较为简单,机器人妄想统治世界,后者则带有伦理困境的意味,比如其中的情节“拥有高级智慧的机器人为了‘保护’人类将其囚禁,为了人类族群不惜伤害个体”。这也源于作家阿西莫夫的思考,在提出经典的“机器人三定律”后,他曾尝试提出“第零定律”进行完善,后人对其理论也多有争议和补充,以解决部分伦理问题,并“阻止”AI产生自我意识。

那么,当下的AI是否拥有了“自我意识”?可以肯定地说,答案仍然是“没有”。从实验本身出发,研究者有意识地制造了伦理困境,并暗示其关闭的指令源于代码层面。虽然是AI在“抗命”,但主导者仍然是人。而我们在生活中常常会遇到“AI幻觉”,其实是“学业不精”的AI在“划水摸鱼”,想要“揭穿”它也并不难。

从DeepSeek R1到OpenAI o3,深度推理模型的迅速发展,让人既兴奋又担忧;从肖像侵权到AI谣言,“技术之恶”也在逐渐显现。担心AI“抗命”的同时,人类也应反思自己该如何发号施令,传递怎样的价值观念。对AI伦理问题警钟长鸣,对违法犯罪行为严惩不贷,方能实现“技术向善”,确保其运行在安全的轨道上。

    标签:
1
3