
IT之家2月18日消息,人工智能企业与美国军方的关系正进入紧张的全新阶段。位于旧金山、以“人工智能安全”为核心理念的初创公司Anthropic,成为这场风波的焦点。据Axios最新报道,美国国防部正威胁终止与Anthropic价值2亿美元(IT之家注:现汇率约合13.83亿元人民币)的合作项目,双方核心分歧在于:私营企业应在多大程度上管控军方对其软件(如Claude人工智能模型)的使用方式。
数月来,美国国防部一直在向四大人工智能巨头——Anthropic、OpenAI、谷歌及xAI施压,要求允许军方将其模型用于“所有合法用途”。这本质上意味着取消常规的安全限制,这些限制原本禁止普通用户将人工智能用于武器研发、情报搜集或战场作战等敏感领域。
报道显示,OpenAI、谷歌和xAI均表现出一定的灵活性。而Anthropic则是其中态度最为强硬的一方。该公司在两个具体问题上划下明确红线:禁止使用Claude模型对美国民众进行大规模监控,以及禁止用于研发完全自主武器——即无需人类介入即可自主开火的系统。
在美国军方发起抓捕委内瑞拉前总统尼古拉斯.马杜罗的行动后,双方矛盾彻底爆发。《华尔街日报》披露,五角大楼在此次任务中,通过与数据公司Palantir的合作使用了Claude模型。这一事件引发了Anthropic内部的质疑。
据称,当Anthropic询问其技术是否被用于这场发生“火力打击”(实战交火)的抓捕行动时,美国国防部官员极为不满。军方认为这种事后审查完全不具备可行性,主张作战人员在实战行动中,不可能停下来与软件供应商逐一协商使用场景。
这场争端凸显了双方巨大的文化冲突。Axios援引官员的说法称,Anthropic是所有人工智能实验室中最“意识形态化”的一家。据悉,该公司执行极为严格的内部使用政策,甚至连其工程师内部,都对军方相关业务存在不同意见。但五角大楼也陷入两难:尽管摩擦不断,官员们承认,在面向政府专项与涉密应用场景中,Claude目前的表现仍优于竞品。
若双方无法达成一致,五角大楼暗示可能将Anthropic列为“供应链风险方”,并逐步寻找替代方案。而Anthropic方面则坚称致力于维护国家安全,并强调自己是首家将模型接入涉密网络的人工智能企业。目前,双方仍在沟通之中。
恒正网提示:文章来自网络,不代表本站观点。