您的位置 首页 科技

美国通过在武器中使用人工智能的伦理原则

据俄罗斯卫星通讯社sputniknews报道,美国五角大楼2月24日发表声明宣布,正式通过了在武器中使用人工智能的伦理原则。据悉,在经过为期15个月制定出作战机器的伦理原则后,这些建议于2019年秋季送交美国防部长马克∙埃斯珀。人工智能本身将在未来可能定义和执行作战任务的可能性正在引起美国国内外专家针对军方的激烈争议和批评。目前,五角大楼将遵循五项基本原则。人工智能应是“负责”(Responsible)、“公平”(Equitable)、“可追踪”(Traceable)、“可靠”(Reliable…

  据俄罗斯卫星通讯社sputniknews报道,美国五角大楼2月24日发表声明宣布,正式通过了在武器中使用人工智能的伦理原则。

  据悉,在经过为期15个月制定出作战机器的伦理原则后,这些建议于2019年秋季送交美国防部长马克∙埃斯珀。人工智能本身将在未来可能定义和执行作战任务的可能性正在引起美国国内外专家针对军方的激烈争议和批评。

  目前,五角大楼将遵循五项基本原则。人工智能应是“负责”(Responsible)、“公平”(Equitable)、“可追踪”(Traceable)、“可靠”(Reliable)和“可控”(Governable)的。

  五角大楼解释说,“负责”原则要求在作战机器研制时具有“应有的常理和谨慎水平”。五角大楼认为,“公平”是指作战机器“为最大程度减少意外偏差所需的步骤”。同时,“可追踪”的人工智能是指军方将拥有所需的技术和操作技能,并确保程序和文档记录的透明度。如果在开发和使用过程中赋予人工智能“明确描述的功能”以及对其不断测试,那么人工智能就应该是“可靠”的。美国军方将“可控性”原则称为,当人类操作员在任何情况下都保有关闭“显示实施计划外行为”的作战机器的能力。

  美国国防创新委员会制定了人工智能使用原则,该委员会除军方和官员外还采用了技术专家的意见。

免责声明:文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。如本文内容影响到您的合法权益(内容、图片等),请及时联系本站,我们会及时删除处理。

为您推荐

罗德与施瓦茨RedCap测试解决方案获得GTI Awards2024大奖

罗德与施瓦茨RedCap测试解决方案获得GTI Awards2024大奖

罗德与施瓦茨R&S CMX500 无线通信测试仪支持RedCap从早期研发到认证和一致性测试而荣获GTI Aw...
聚焦科技与创新,技械骑士实力演绎飞凡体验

聚焦科技与创新,技械骑士实力演绎飞凡体验

随着2023年电子竞技成为正式比赛项目,并在亚运会亮相,电竞游戏全民化的趋势愈发明显,这一变革不仅推动了电竞产业的发展,...
乌镇世界互联网大会“关键词”:AI、AIGC和算力

乌镇世界互联网大会“关键词”:AI、AIGC和算力

11月10日,2023年世界互联网大会乌镇峰会正式闭幕,这是乌镇峰会走过的第十个年头。 回顾往年的大会,来自阿里、腾讯、...
第八届“创客中国”智能装备专题赛圆满落幕

第八届“创客中国”智能装备专题赛圆满落幕

摘要:华谱科仪获得企业组一等奖,莱登低温团队获得创客组一等奖 2023年10月12日,第八届“创客中国”智能装备中小企业...
“创客北京2023”中小平台赛区复赛圆满举办

“创客北京2023”中小平台赛区复赛圆满举办

9月22日、9月27日,“创客北京2023”中小平台赛区复赛在创伴空间和建行大学圆满举办。本赛区由工业和信息化部、财政部...

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

返回顶部