OpenAI 前研究员揭露人工智能“公开的秘密”

2026年05月13日 16:14
本文共计544个字,预计阅读时长2分钟。
来源/aibase 责编/爱力方

OpenAI 前研究员、现任 AI 未来项目负责人丹尼尔·科科塔伊洛近日发出严厉警告。他指出,当前的人工智能行业正在陷入一场盲目的竞争,各家公司正竞相构建自己尚未完全理解或能够控制的系统。

科科塔伊洛强调,AI 行业面临的核心难题是“对齐”问题。即使 AI 在许多领域的能力已经超越人类,研究人员目前仍无法完全理解先进模型内部是如何做出决策的。

超级智能的威胁

这种不确定性使得确保未来 AI 系统可靠地遵循人类指令变得异常困难。科科塔伊洛直言,虽然实施 AI 对齐的困境在业内是一个“公开的秘密”,但目前并没有真正可行的解决方案。

他预测,一旦人类造出超级智能,人类将不再是这个星球的默认主导者。他通过分析 AI 系统的发展速度发现,如果企业继续优先追求速度而忽视安全,不可预测的风险将成倍增加。

低估的发展速度

许多人目前仍然低估了 AI 进化的节奏,认为关于失控的讨论更像是科幻小说。然而,全球科技巨头正持续投入数十亿美元建设更大规模的数据中心,试图催生更强大的模型。

科科塔伊洛的警告正值 AI 军备竞赛白热化之际,反映了业内对技术安全性的深度焦虑。随着模型能力的飞跃,如何在追求技术极限与维持人类控制权之间取得平衡,已成为决定未来安全的关键挑战。

来源:失控的风险:OpenAI 前研究员揭露人工智能“公开的秘密” | AIbase

声明:本文来自aibase,版权归作者所有。文章内容仅代表作者独立观点,不代表A³·爱力方立场,转载目的在于传递更多信息。如有侵权,请联系 copyright#agent.ren。

相关图文

热门资讯

推荐专栏

爱力方

爱力方

机器人前沿资讯及信息解读
机器人大讲堂

机器人大讲堂

中国顶尖的机器人专业媒体服务平台
关注爱力方,掌握前沿具身智能动态

© 2025 A³·爱力方

https://www.agentren.cn/