2026-03-09 10:02  
▲ 插画 = 朴祥勋
1945年7月,在首次原子弹试验前夕,曾构思了核武器原理的物理学家利奥·西拉德等70多人向美国总统杜鲁门递交了联名请愿书。请愿书呼吁“原子能应成为人类的福祉,而非杀戮的工具”,这是科学家的良知与国家权力相冲突的历史性的一幕。在80年后的今天,同样的事件在硅谷重演。围绕是否应将人工智能用于伊朗战争的问题上,继人工智能企业Anthropic PBC反对美国国防部后,OpenAI的机器人技术负责人凯特琳·卡利诺夫斯基也递交了辞呈。

▶争议始于2021年。OpenAI的研究副总裁阿莫迪带领核心人才创立了Anthropic。他们反对的核心在于“宪法式AI”。他们主张,与其让AI迎合人类的喜好,不如先以人权和民主这一宪法为准则,构建能够进行道德判断的安全机制。Anthropic在伊朗战争前曾对美国国防部表示“不要在杀伤性武器上使用我们的技术”,也是出于同样的理念。

▶相反,竞争对手OpenAI的首席执行官萨姆·奥尔特曼则表示:“军事用途的范围应由民主程序和公职人员决定,而非企业。”与美国国防部签订了合同。他的逻辑是,造刀的铁匠无需考虑刀的用途。OpenAI的技术负责人卡利诺夫斯基则留下了警告称:“公司对机器在没有人类最终批准的情况下自行决定杀伤目标的未来视而不见。”随后便离开了公司。

▶特朗普政府指责Anthropic是“Woke”(假装觉醒的左派)企业,在对伊朗发动空袭前夕,将其模型从政府采购的名单中除名。甚至美国政府还在推动一项指导方针,要求AI企业想与政府签约,就必须允许对其模型进行“所有合法的使用”。最近,美国国防部任命加文·克里格为首席数据官(CDO),进一步加速了引入军事AI。

▶在广岛原子弹投放后立即感到了后悔的奥本海默对杜鲁门总统说:“我感觉我的手上沾满了鲜血。”而杜鲁门回敬他的话是:“别再把这种唠唠叨叨的科学家带到这里来。”如今,AI巨头们试图用政府决策这副手套掩盖“沾血的手”。在英国研究团队的战争模拟中,AI按下核按钮的概率高达95%,这是人类的克制和恐惧被阉割后的结果。难道可以让只计算胜率的算法决定战争?目睹加入战场的AI,这样的一个问题压在人类的心头上。