|
85个国家齐聚柏林,讨论的是关乎未来战争形态的大事,最后只有35个国家愿意在文件上签字? 这场原本应该凝聚共识的峰会,怎么变成了一场各怀心思的表演? 令人深感意外的却是世界军事AI的研发投入最大的两个国家——中国和美国都将其拒之门外 。 2026年2月4日清晨,德国柏林的会议中心迎来了一场不同寻常的聚会 。 第三届负责任军事人工智能峰会在这里召开,参会代表大约600人,代表着85个国家的立场 。 会场外停着各国代表团的车队,安保措施严密得像在防范一场战争 展开剩余92%。 会议议程排得很满。 两天时间里,各国代表要讨论20条关于军事AI应用的原则性条款 。 这些条款涉及自主武器系统的限制、算法透明度要求、人类最终控制权等敏感话题 。 听起来很技术化,实际上每一条背后都藏着利益博弈 。 美国派出的是国防部负责AI政策的助理部长带队,随行人员包括五角大楼的技术顾问和国务院官员 。 中方代表团由外交部军控司副司长李驰江领衔,团队规模不大,带了几位技术专家 。 俄罗斯也派团参加,三个军事AI研发大国难得坐在一张桌子旁 。 我想说,这场会议从一开始气氛就不对劲 。 讨论进行到第一天下午,关于 " 自主武器系统"的定义就出现了严重分歧 。 欧洲国家希望明确禁止完全自主的致命武器,美国代表却反复强调"技术中立性",认为不应该限制具体技术路线 。 但中方的代表也提出了一个值得商榷的意见,即不能将辅助的决策AI和完全自主的武器完全划等号,不能一刀切地对待两者 。 到了第二天,关于"技术透明"的条款更是争得不可开交 。 美国要求各国公开军事AI的研发进展和部署情况,这个提议立刻遭到多国反对 。 有代表当场质问:"情报卫星的算法要不要公开?无人机蜂群的指挥系统要不要透明?"会场一度陷入尴尬的沉默 。 2026年2月5日下午,峰会接近尾声 。 《REAIM 2026行动路径》文件摆在各国代表面前,这份20页的文件用了大量模糊表述,比如"在适当情况下""根据各国国情""逐步推进"等措辞 。 说实话,这种外交辞令谁都看得出来缺乏实质约束力 。 签字仪式开始了。 德国、法国、英国率先签字 。 北欧国家、部分拉美国家跟进 。 然后气氛变得微妙起来——印度代表犹豫了很久,最终没有走向签字台 。 随后巴西代表的身影便消失在了会场的视线中,显然他们已经做出了相应的决定 。 美国代表团在座位上低声交流,始终没有起身 。 {jz:field.toptypename/}中方代表团保持着礼貌的微笑,同样没有动作 。 最终统计,85个参会国只有35个签了字 。 这个数字比前两届峰会少了很多 。 2023年海牙峰会有60个国家签字,2024年首尔峰会也有60个国家 。 现在降到35个,签字率还不到42% 。 我觉得这个数字本身就说明了问题 。 会议结束后,各国代表陆续离场 。 美国代表团第一时间发布了声明,措辞很强硬:"文件缺乏对军事AI风险的实质约束机制,未能对自主武器系统作出明确限制,也没有纳入技术透明要求,不符合美国的安全利益 。 "声明还专门点名批评中国"拒绝负责任的国际规则" 。 中方代表团准备离开柏林的时候,在机场贵宾室接受了媒体采访 。 李驰江副司长的那番话很快传遍了各大新闻网站 。 他强调,中方向来高度重视人工智能军事应用领域的风险防范和安全治理,坚持"以人为本的军事人工智能"理念,坚持多边主义,推动军事AI服务于维护和平与安全 。 这话听起来客气,细品却很有力度 。 什么叫"以人为本"?就是人类必须保持对武器系统的最终控制权,不能让算法自己决定谁该死 。 什么叫"多边主义"?就是规则应该在联合国框架下由所有国家平等协商制定,不是某个国家或小圈子说了算 。 国际红十字会在峰会结束当天发布了一份评估报告 。 与前两届相比,其签字国的数量也由60降至35,同比降幅高达41.7% 。 这反映出各国对非联合国框架规则的信任度正在下降 。 其中最为核心的争议点还不外乎“最后的把控权落在人类手中”、“算法的透明度”以及对相关的核查机制的把握等几大问题上就足够了 。 想想看,okooo澳客app为什么会出现这种局面? 斯德哥尔摩国际和平研究所2月6日公布了一组数据 。 2025年全球军事AI研发投入达到870亿美元 。 美国占了42%,大约365亿美元;中国占28%,约244亿美元 。 这两个国家加起来占了全球投入的70% 。 它们都不愿意签字,剩下那些签字的国家在军事AI领域的话语权有多大? 清华大学人工智能国际治理研究院在峰会后发布了一份研究报告 。 报告指出,《REAIM 2026行动路径》最大的问题是没有区分"致命自主武器"和"辅助决策AI" 。 这种模糊性很危险,容易被用来限制发展中国家的常规军事AI应用,却为技术领先国家的"特殊情况"留下后门 。 我认为,这才是问题的关键所在 。 技术发展的速度远远超过了规则制定的速度 。 2023年第一届峰会讨论的还是"是否应该发展自主武器",2024年第二届峰会讨论的是"如何限制自主武器",到了2026年这届,美国的无人机蜂群已经能够执行自主协同作战任务,中国的AI辅助指挥系统据说已经在边境监控中应用 。 技术早就跑到规则前面去了 。 麻省理工学院技术与国际安全研究中心2月6日的报告揭示了一个有意思的现象 。 中国的军事AI侧重于"人机协同"和"非致命应用",比如边境监控、灾害救援、后勤保障;美国的军事AI更强调"自主作战系统",比如无人机蜂群、智能打击决策、自主防御网络 。 技术路线不同,对规则的诉求自然不同 。 中国担心的是,如果按照美国的标准制定规则,会不会把正常的技术发展空间也给限制住了?美国担心的是,如果不设置严格的透明度要求,怎么知道对手的技术发展到了什么程度? 2月7日,中国和俄罗斯在联合国裁军谈判会议上联名提交了《军事人工智能国际治理框架草案》 。 草案提出了几个核心条款:人类必须保持最终控制权,各国必须进行强制性风险评估,明确禁止自主致命武器 。 40多个国家的共同发起之际,这份草案的合法性和代表性也逐渐得到了一致的认可 。 同一天,美国宣布联合英国、日本、澳大利亚启动"军事AI负责任应用伙伴关系" 。 这个伙伴关系计划在2026年6月发布首批技术标准和伦理准则 。 从成员名单上看,明显排除了中国和俄罗斯 。 这就形成了两条平行的轨道 。 一条是联合国框架下的多边治理,另一条是西方盟友主导的小圈子规则 。 两条轨道互不兼容,各自为政 。 国际电信联盟看不下去了,宣布将在2026年5月举办"全球军事AI治理大会",邀请中美及各国参与,试图推动技术标准与国际规则的对接 。 这个努力能不能成功,现在谁也说不准 。 印度和巴西的态度很有代表性 。 印度外交部2月6日表示,将观望联合国框架的进展,不会急于参加任何小圈子规则制定 。 巴西更直接,外交部发言人说:"我们不想在大国博弈中选边站队,只想确保技术发展服务于人类福祉 。" 欧盟的态度有点骑墙 。 多个欧盟国家表示,会同时参与REAIM峰会和联合国谈判,希望最终能实现"规则融合" 。 这种想法很理想化,实际操作起来困难重重 。 你可能会问,难道就没有一个各方都能接受的方案吗? 日内瓦国际与发展研究所的一位教授给出了他的看法 。 在中美两国的科技竞争日趋白热化背景下,其间的军事AI治理已然成为两国地缘竞争的必由之路 。 在这种背景下,任何规则框架都会被视为战略工具而非纯粹的技术规范 。 中方的"以人为本"理念契合多数国家对技术安全的诉求,美国的"小圈子规则"在国际上难获广泛认可 。 最终出路还是联合国框架,但这需要大国展现政治意愿 。 美国布鲁金斯学会的高级研究员提出了一个尖锐的观点 。 他说,美国未签字是担心规则限制自主武器研发,中方的表态却暴露了美国的"双重标准"——既想主导规则制定又不愿意被规则约束 。 这种自相矛盾的立场,反而让中国占据了多边主义的道义优势 。 中国社科院军备控制与防扩散中心的研究员有另一种解读 。 他认为,中方拒签并亮明理念,实际上是把军事AI治理从"西方主导的软规则"拉回到"联合国主导的硬治理" 。 这招既坚守了原则,又掌握了道义制高点,让美国在"规则霸权"与"国际责任"之间进退两难 。 说到底,这场博弈还远没有结束 。 技术在快速迭代,规则在艰难谈判,各国立场在不断调整 。 柏林峰会只是这个漫长过程中的一个节点,远不是终点 。 你觉得未来会怎样?军事AI的规则最终会在哪个框架下诞生?欢迎在评论区说说你的看法 。 发布于:江西省 |


备案号: