你的位置: okooo澳客APP官方网站 > 传统足彩 > okooo澳客app 柏林峰会落幕,中美都没签字,中方带队回国,临行前撂下一句狠话
热点资讯

okooo澳客app 柏林峰会落幕,中美都没签字,中方带队回国,临行前撂下一句狠话

发布日期:2026-02-08 11:35    点击次数:148

okooo澳客app 柏林峰会落幕,中美都没签字,中方带队回国,临行前撂下一句狠话

85个国家齐聚柏林,讨论的是关乎未来战争形态的大事,最后只有35个国家愿意在文件上签字?

这场原本应该凝聚共识的峰会,怎么变成了一场各怀心思的表演?

令人深感意外的却是世界军事AI的研发投入最大的两个国家——中国和美国都将其拒之门外

{jz:field.toptypename/}

2026年2月4日清晨,德国柏林的会议中心迎来了一场不同寻常的聚会

第三届负责任军事人工智能峰会在这里召开,参会代表大约600人,代表着85个国家的立场

会场外停着各国代表团的车队,安保措施严密得像在防范一场战争

展开剩余92%

会议议程排得很满。

两天时间里,各国代表要讨论20条关于军事AI应用的原则性条款

这些条款涉及自主武器系统的限制、算法透明度要求、人类最终控制权等敏感话题

听起来很技术化,实际上每一条背后都藏着利益博弈

美国派出的是国防部负责AI政策的助理部长带队,随行人员包括五角大楼的技术顾问和国务院官员

中方代表团由外交部军控司副司长李驰江领衔,团队规模不大,带了几位技术专家

俄罗斯也派团参加,三个军事AI研发大国难得坐在一张桌子旁

我想说,这场会议从一开始气氛就不对劲

讨论进行到第一天下午,关于

"

自主武器系统"的定义就出现了严重分歧

欧洲国家希望明确禁止完全自主的致命武器,美国代表却反复强调"技术中立性",认为不应该限制具体技术路线

但中方的代表也提出了一个值得商榷的意见,即不能将辅助的决策AI和完全自主的武器完全划等号,不能一刀切地对待两者

到了第二天,关于"技术透明"的条款更是争得不可开交

美国要求各国公开军事AI的研发进展和部署情况,这个提议立刻遭到多国反对

有代表当场质问:"情报卫星的算法要不要公开?无人机蜂群的指挥系统要不要透明?"会场一度陷入尴尬的沉默

2026年2月5日下午,峰会接近尾声

《REAIM 2026行动路径》文件摆在各国代表面前,这份20页的文件用了大量模糊表述,比如"在适当情况下""根据各国国情""逐步推进"等措辞

说实话,这种外交辞令谁都看得出来缺乏实质约束力

签字仪式开始了。

德国、法国、英国率先签字

北欧国家、部分拉美国家跟进

然后气氛变得微妙起来——印度代表犹豫了很久,最终没有走向签字台

随后巴西代表的身影便消失在了会场的视线中,显然他们已经做出了相应的决定

美国代表团在座位上低声交流,始终没有起身

{jz:field.toptypename/}

中方代表团保持着礼貌的微笑,同样没有动作

最终统计,85个参会国只有35个签了字

这个数字比前两届峰会少了很多

2023年海牙峰会有60个国家签字,2024年首尔峰会也有60个国家

现在降到35个,签字率还不到42%

我觉得这个数字本身就说明了问题

会议结束后,各国代表陆续离场

美国代表团第一时间发布了声明,措辞很强硬:"文件缺乏对军事AI风险的实质约束机制,未能对自主武器系统作出明确限制,也没有纳入技术透明要求,不符合美国的安全利益

"声明还专门点名批评中国"拒绝负责任的国际规则"

中方代表团准备离开柏林的时候,在机场贵宾室接受了媒体采访

李驰江副司长的那番话很快传遍了各大新闻网站

他强调,中方向来高度重视人工智能军事应用领域的风险防范和安全治理,坚持"以人为本的军事人工智能"理念,坚持多边主义,推动军事AI服务于维护和平与安全

这话听起来客气,细品却很有力度

什么叫"以人为本"?就是人类必须保持对武器系统的最终控制权,不能让算法自己决定谁该死

什么叫"多边主义"?就是规则应该在联合国框架下由所有国家平等协商制定,不是某个国家或小圈子说了算

国际红十字会在峰会结束当天发布了一份评估报告

与前两届相比,其签字国的数量也由60降至35,同比降幅高达41.7%

这反映出各国对非联合国框架规则的信任度正在下降

其中最为核心的争议点还不外乎“最后的把控权落在人类手中”、“算法的透明度”以及对相关的核查机制的把握等几大问题上就足够了

想想看,okooo澳客app为什么会出现这种局面?

斯德哥尔摩国际和平研究所2月6日公布了一组数据

2025年全球军事AI研发投入达到870亿美元

美国占了42%,大约365亿美元;中国占28%,约244亿美元

这两个国家加起来占了全球投入的70%

它们都不愿意签字,剩下那些签字的国家在军事AI领域的话语权有多大?

清华大学人工智能国际治理研究院在峰会后发布了一份研究报告

报告指出,《REAIM 2026行动路径》最大的问题是没有区分"致命自主武器"和"辅助决策AI"

这种模糊性很危险,容易被用来限制发展中国家的常规军事AI应用,却为技术领先国家的"特殊情况"留下后门

我认为,这才是问题的关键所在

技术发展的速度远远超过了规则制定的速度

2023年第一届峰会讨论的还是"是否应该发展自主武器",2024年第二届峰会讨论的是"如何限制自主武器",到了2026年这届,美国的无人机蜂群已经能够执行自主协同作战任务,中国的AI辅助指挥系统据说已经在边境监控中应用

技术早就跑到规则前面去了

麻省理工学院技术与国际安全研究中心2月6日的报告揭示了一个有意思的现象

中国的军事AI侧重于"人机协同"和"非致命应用",比如边境监控、灾害救援、后勤保障;美国的军事AI更强调"自主作战系统",比如无人机蜂群、智能打击决策、自主防御网络

技术路线不同,对规则的诉求自然不同

中国担心的是,如果按照美国的标准制定规则,会不会把正常的技术发展空间也给限制住了?美国担心的是,如果不设置严格的透明度要求,怎么知道对手的技术发展到了什么程度?

2月7日,中国和俄罗斯在联合国裁军谈判会议上联名提交了《军事人工智能国际治理框架草案》

草案提出了几个核心条款:人类必须保持最终控制权,各国必须进行强制性风险评估,明确禁止自主致命武器

40多个国家的共同发起之际,这份草案的合法性和代表性也逐渐得到了一致的认可

同一天,美国宣布联合英国、日本、澳大利亚启动"军事AI负责任应用伙伴关系"

这个伙伴关系计划在2026年6月发布首批技术标准和伦理准则

从成员名单上看,明显排除了中国和俄罗斯

这就形成了两条平行的轨道

一条是联合国框架下的多边治理,另一条是西方盟友主导的小圈子规则

两条轨道互不兼容,各自为政

国际电信联盟看不下去了,宣布将在2026年5月举办"全球军事AI治理大会",邀请中美及各国参与,试图推动技术标准与国际规则的对接

这个努力能不能成功,现在谁也说不准

印度和巴西的态度很有代表性

印度外交部2月6日表示,将观望联合国框架的进展,不会急于参加任何小圈子规则制定

巴西更直接,外交部发言人说:"我们不想在大国博弈中选边站队,只想确保技术发展服务于人类福祉

。"

欧盟的态度有点骑墙

多个欧盟国家表示,会同时参与REAIM峰会和联合国谈判,希望最终能实现"规则融合"

这种想法很理想化,实际操作起来困难重重

你可能会问,难道就没有一个各方都能接受的方案吗?

日内瓦国际与发展研究所的一位教授给出了他的看法

在中美两国的科技竞争日趋白热化背景下,其间的军事AI治理已然成为两国地缘竞争的必由之路

在这种背景下,任何规则框架都会被视为战略工具而非纯粹的技术规范

中方的"以人为本"理念契合多数国家对技术安全的诉求,美国的"小圈子规则"在国际上难获广泛认可

最终出路还是联合国框架,但这需要大国展现政治意愿

美国布鲁金斯学会的高级研究员提出了一个尖锐的观点

他说,美国未签字是担心规则限制自主武器研发,中方的表态却暴露了美国的"双重标准"——既想主导规则制定又不愿意被规则约束

这种自相矛盾的立场,反而让中国占据了多边主义的道义优势

中国社科院军备控制与防扩散中心的研究员有另一种解读

他认为,中方拒签并亮明理念,实际上是把军事AI治理从"西方主导的软规则"拉回到"联合国主导的硬治理"

这招既坚守了原则,又掌握了道义制高点,让美国在"规则霸权"与"国际责任"之间进退两难

说到底,这场博弈还远没有结束

技术在快速迭代,规则在艰难谈判,各国立场在不断调整

柏林峰会只是这个漫长过程中的一个节点,远不是终点

你觉得未来会怎样?军事AI的规则最终会在哪个框架下诞生?欢迎在评论区说说你的看法

发布于:江西省

----------------------------------