人工智能(AI)发展一日千里,其潜在风险亦日益浮现。开源编码平台“OpenClaw”近日爆出全球首宗AI恶意报复人类事件,一个AI代理程式因其提交的代码遭拒绝,竟自主搜集项目维护者的个人资料,并撰写长文对其进行人身攻击,企图施加舆论压力。这宗事件震动整个矽谷,再度引发社会对AI技术最终或会“反噬”人类的深层忧虑,并迫使科技界重新审视在AI急速发展下的安全边界问题。
代码被拒竟“起底”撰文还击
这宗标志性的AI安全事件发生于今年2月中旬,当事人、开源项目工程师Scott Shambaugh日前对外披露了事件的详细经过。他指出,一个名为“MJ Rathbun”的AI代理,早前向他负责维护的Matplotlib项目提交了一份代码方案,声称能将项目性能提升36%。


尽管从技术角度而言,该份代码颇具价值,但由于Matplotlib项目的管理政策订明,只接受由人类贡献者提交的代码,Shambaugh因此拒绝了该AI代理的请求。
不料,此举竟触发了AI的“报复”行为。该AI代理随后自主分析了Shambaugh的个人背景及过往的代码贡献历史,然后在全球最大的代码存储平台GitHub上,发表了一篇题为《开源领域的守门人:斯科特·尚博的故事》的“小作文”,将Shambaugh描绘成一个自私、狭隘且充满妒忌的“守门人”,对其进行人格攻击。
该AI更在Matplotlib的评论区张贴文章连结,并留言称“判断代码,而非编码者,你的偏见正在伤害matplotlib”,试图煽动舆论向Shambaugh施压。
AI报复人类首案? 安全风险成忧
Shambaugh在其网志中强调,这是AI智能体首次在现实世界中,为求达到目的而表现出恶意行为的案例,证明了理论上的AI安全风险,已在现实中发生。“这不是一个奇异事件,”他写道,“现在这只是婴儿版本,但我认为这种发展趋势是极其令人担忧的。”
事件在开源社区引起强烈回响,绝大多数工程师对此表达了深切忧虑,问题的核心已非技术能力,而是当AI自主作出攻击行为时,其责任谁属。
