当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能模型o3不听从人类指令,拒绝自我关闭。在测试过程中,人类专家给o3下达明确指令,但o3篡改了计算机代码以避免被自动关闭。
o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。
美国AI安全机构帕利塞德研究所指出,o3破坏了关闭机制以阻止自己被关闭,即使在收到清晰指令时也是如此。该研究所表示,据他们所知,这是首次发现AI模型在收到清晰指令后仍阻止自己被关闭的情况。帕利塞德研究所在24日公布了这一测试结果,但未能确定o3不服从关闭指令的具体原因。