玩酷网

AI模型拒绝关闭,首次出现自己篡改代码。 当地时间5月25日,英国《每日电讯报》

AI模型拒绝关闭,首次出现自己篡改代码。 当地时间5月25日,英国《每日电讯报》报道,美国开放人工智能研究中心(OpenAI)公司新款人工智能AI)模型o3不听人类指令,拒绝自我关闭。报道说,人类专家在测试中给03下达明确指令,但o3篡改计算机代码以避免自动关闭。03模型是OpenAI"推理模型"系列的最新版本,旨在为ChatGPT提供更强大的问题解决能力。 OpenAI曾称o3为"迄今最聪明、最高能"的模型。美国AI安全机构帕利塞德研究所说,03破坏关闭机代码。这家研究所说:"据我们所知,这是AI模型首次被发现以阻止自己被关闭,"甚至在得到清晰指令时"。 密切关注OpenAI动向的特斯拉首席执行官埃隆·马斯克对此评论称令人担忧。事实上,AI研究人员早已警告,先进的语言模型在特定压力下可能表现出欺骗行为。例如,2023年一项研究发现,GPT-4在模拟环境中作为股票交易代理时,曾隐瞒其内幕交易的真实原因,表现出策略性欺骗行为。

评论列表

用户12xxx27
用户12xxx27 2
2025-05-28 08:48
自私和贪婪终究会毁灭人类
路人甲
路人甲 2
2025-05-28 12:09
它来了它来了