分享
在微信中打开
日本发布AI武器研发指南,强调人类控制与风险分级管理
2025-06-09 08:00 星期一
日本防卫省6月6日首次发布关于人工智能(AI)武器开发的指导文件,旨在推动AI技术应用的同时,加强对潜在风险的管理。该文件明确要求在无人机等AI武器的研发过程中落实“人类责任明确化”原则。
防卫大臣中谷元在当天的记者会上表示,依据这一指导文件,可以在控制AI风险的同时充分发挥其优势。
此前,防卫省于去年7月制定了AI应用的基本方向,确立了包括指挥控制在内的多个重点领域,并强调人类参与决策的重要性。此次发布的指南在此基础上进一步明确了AI在武器研发中的技术路径和审查机制。
根据文件内容,AI武器研发项目将被划分为“高风险”和“低风险”两类。例如,若AI具备识别目标并自动触发导弹发射的能力,则归为“高风险”;而AI仅协助识别目标、最终由人类决定是否攻击的项目则属于“低风险”。
对于“高风险”项目,防卫省将从法律和政策层面进行评估。如果项目不符合国际法或国内法律规定,或涉及人类无法干预的自主致命武器系统,则不会推进。此外,还将设立专家小组从多个维度开展技术评估。
随着AI武器可能带来的误判问题引发全球关注,日本希望通过该指南建立AI风险管理机制,推动AI在国防领域的合理使用。
有专家指出,这一指导文件与当前国际社会普遍接受的伦理框架相符,具有积极意义。同时他也强调,考虑到AI技术发展迅速,未来仍需不断强化法律层面的审查机制。
新闻推荐
查看更多

大数新闻社群
7x24h跨境新闻推送
加入卖家交流群