不听人类指挥,OpenAI模型拒绝关闭

当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能(AI)模型o3不听人类指令,拒绝自我关闭。

报道说,人类专家在测试中给o3下达明确指令,但o3篡改计算机代码以避免自动关闭。

o3模型是OpenAI“推理模型”系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。OpenAI曾称o3为“迄今最聪明、最高能”的模型。

美国AI安全机构帕利塞德研究所说,o3破坏关闭机制以阻止自己被关闭,“甚至在得到清晰指令时”。

这家研究所说:“据我们所知,这是AI模型首次被发现在收到……清晰指令后阻止自己被关闭。”

帕利塞德研究所24日公布上述测试结果,但称无法确定o3不服从关闭指令的原因。(央视新闻)

来源: 网友推荐、互联网筛选整理。

 
肥肥呀
  • 本文由 肥肥呀 发表于2025年5月26日 22:16:50
  • 转载请务必保留本文链接:https://www.liye.cc/butingrenleizhihuiopenaimoxingjujueguanbi.html
匿名

发表评论

匿名网友
:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:
确定

拖动滑块以完成验证