
美国国防部近期对两家本土人工智能企业采取了截然不同的态度,引发外界关注。一边将安特罗匹克公司列入供应链风险名单广东股票配资开户流程详解,并单方面终止合作合同;另一边则迅速与OpenAI达成深度合作。这一鲜明反差,折射出美国军方在推进人工智能军事化进程中,对技术伦理与企业自主权的强硬姿态。
据外媒3月6日报道,美国国防部以“构成供应链风险”为由,将安特罗匹克公司及其人工智能模型Claude列入黑名单,并终止双方价值2亿美元的合同。值得注意的是,这类标签通常针对外国企业。几乎同一时间,OpenAI迅速“补位”,宣布接受美国政府所有合作条件,并与国防部达成协议,将其先进人工智能模型部署于军方机密网络。
回溯美军与两家公司的合作历程,这一反差尤为耐人寻味。2025年夏季,美国国防部主动与安特罗匹克公司展开合作,后者一度成为军方最倚重的人工智能合作伙伴,其Claude模型也是唯一获准进入美军涉密网络的商业大模型。然而仅半年后,形势急转直下,因该公司拒绝移除模型中的两项安全限制,即禁止用于国内大规模监控和全自主致命武器,国防部不仅终止合作,更罕见地将其等同于外国企业处置。与此形成对比的是OpenAI的迅速转身。这家曾明确反对与军方合作的企业,自2024年起逐步放宽立场,最终在此次事件中完成从技术创新企业到军方重要伙伴的转变。
这一系列动作并非孤立事件,而是美国国防部推行人工智能“无限制军事化”原则的集中体现。美国今年1月发布的“人工智能加速战略”明确提出,要将美军打造为“人工智能优先”的作战力量,让人工智能从辅助工具上升为贯穿情报、指挥、杀伤、保障全流程的核心支柱。为实现这一目标,军方要求技术供应商无条件服从作战需求,清除任何可能阻碍军事应用的伦理限制。
美国国防部将安特罗匹克公司列入黑名单,意在杀鸡儆猴,迫使整个人工智能行业接受“作战优先、伦理让路”的规则,为发展“自主武器、全域监控、智能杀伤链”扫清制度和舆论障碍。讽刺的是,尽管Claude模型在美国国内被封禁,但在美国近期的中东军事行动中,该模型据称仍在发挥作用。
这场风波揭示了美国科技领域政企关系的潜在逻辑:当国家利益与霸权目标被置于首位,即便再顶尖的技术、再有原则的企业,也必须俯首听令,任何坚持伦理底线的行为都可能被排除在合作之外。有分析认为,讲求“安全与伦理”的企业受罚,迎合退让者获订单,这种“逆向激励”或导致行业伦理底线全面失守。当权力可以左右技术方向广东股票配资开户流程详解,当霸权可以撕裂伦理底线,人工智能军事化的失控风险将与日俱增。(李海)
盛宝优配提示:文章来自网络,不代表本站观点。