快猫官网 美国:人工智能在军事武器系统中的兴起

摘要: 在过去的几年里,人工智能(AI)的能力有了显著的提高系统,同时引入新的风险和潜在的利益。在军事方面,这些被讨论为新一代的“自主”«武器系统和未来的相关概念“超级战争”«。尤其是在德国,这些想法正面临着在社会和政治中有争议的讨论。由于人工智能在世界范围内的使用越来越多在防卫等一些敏感领域,就这个问题制定一项国际禁令或具有法律约束力的文书是不现实的。 在决定具体的政策之前,要共同理解这样做的风险和好处必须获得技术,包括重申基本的伦理和原则。致命力量的使用必须由一个人来指挥和控制,只对人类有效可以被追究责任。联邦国防军意识到有必要处理这些事态发展,以便能够履行其在未来所有情况下保卫国家的宪法使命,

在过去的几年里,人工智能(AI)的能力有了显著的提高系统,同时引入新的风险和潜在的利益。在军事方面,这些被讨论为新一代的“自主”«武器系统和未来的相关概念“超级战争”«。尤其是在德国,这些想法正面临着在社会和政治中有争议的讨论。由于人工智能在世界范围内的使用越来越多在防卫等一些敏感领域,就这个问题制定一项国际禁令或具有法律约束力的文书是不现实的。

在决定具体的政策之前,要共同理解这样做的风险和好处必须获得技术,包括重申基本的伦理和原则。致命力量的使用必须由一个人来指挥和控制,只对人类有效可以被追究责任。联邦国防军意识到有必要处理这些事态发展,以便能够履行其在未来所有情况下保卫国家的宪法使命,并抵御使用这种系统采取行动的敌人发展计划。因此,需要以概念和具有法律约束力的规章为目的在获得利益的同时控制风险是当务之急。

本意见书解释了夫琅和费VVS关于当前技术状态的观点,探讨好处和风险,并提出可解释的和可控的人工智能。为实现所提出的概念所必需的选定研究课题是确定并讨论了一条通往可信赖的人工智能和负责任的使用这些系统在未来。遵循参考体系结构的概念和规则的实施是ai武器可接受性的关键促成因素系统,验收的先决条件。


1. 导言——本意见书的现状和范围

在过去的几年中,人工智能(AI)的重要性显著提高。人工智能在民用领域的伦理维度已经得到了广泛的研究,但在军事领域[1],对人工智能缺乏清醒和深入的分析。然而,这是在人工智能方法的使用中最有争议的讨论方面之一,特别是作为武器系统的一个组成部分。一个全球禁止基于人工智能的武器系统不太可能。因此,联邦国防军被迫处理这样的系统他们的宪法的任务。人工智能是一个复杂的研究领域人们普遍担心,它将改变武装的性质冲突会带来不可预知的风险,从而使情况变得更糟。

然而,这似乎也是一个机会来增加武器效果的精度和可扩展性可能减少不必要的损害或伤亡,拯救人类生命和资源。详见[2]讨论。


本立场文件针对两点。首先,设置作用域夫琅和费VVS,第二,界定最迫切的方面,研究和发展的必要性在这个范围内才能保证一个负责任的、安全的和这种技术的受控使用以及这些系统行为的透明解释。

这些方面的实现是人工智能武器系统的可接受性。这是对科学家,国防工业,政客的挑战在德国社会是寻找并同意一种方法允许部署包含AI组件的系统,以匹配响应时间和效率在许多国家目前开发的武器系统中,同时还具有有效和可靠的伦理和法律控制机制。更准确地说,它必须得到保证该系统的行动符合联合国的规定宪章和各自的交战规则。这引发了诚信和合规的问题人工智能系统的可预测性可以在所有情况下得到保证环境。

西方世界,尤其是欧洲的公众舆论是关于人工系统是否应该是否能够自主决定是否武器系统应该用来对付一种可能人类——目标。这就引出了最重要的一个问题人工智能方法的区别:自动系统和自动系统之间。夫琅和费VVS的立场是阻止直接针对人类的自主系统。


在这篇立场论文中,将研究主题和必要的步骤专注于物理武器的自动系统。但是,此约束并不限制应用程序。所有复杂程度的AI系统都可以是一个复杂系统的重要组成部分,包括一个各种不同的传感器和主动技术系统以及作为人类。此外,应用程序范围从战术级别的决策和范围内提议的行动在战略层面上的约束,目标在态势感知和复杂决策支持方面。

这就引出了责任的核心问题。之一在当前的讨论中最具争议的一点是AI系统的独立行动水平是多少生效。更静态的规则和有限的自由人工智能系统所具有的可预测性和一致性更强结果包含。另一方面,更多的自由为人工智能系统可以增加它的通用性和实用性,而且增加了人在系统及其决策中必须承担的责任。没有被就人本身而言,人工智能系统没有责任或责任在事件后负责的意义上这些概念通常是被公众所理解的。因为AI系统被人类编程和使用,后果法律责任必须归于人类。在这里,最佳折衷办法和最佳做法都不明确需要进一步的研究。


一个特殊的问题是资格鉴定和测试方面给定的AI系统。目前的技术还没有提供要构建的ai特定测试程序的定义可信度和可预见性。 这就导致了武装人工智能系统的开发者和制造商之间的冲突,一方是另一边是运营商(军方)和司法部门由中间研究社区支持。夫琅和费VVS旨在概述概念值得信赖的AI并提供必要的动力 研究和开发的步骤,以确保负责任,安全和控制的使用人工智能军事武器的基本伦理和法律规则系统。


2. 智能系统

智能«和»自主性«是无所不在的现象在生活的各个方面。在任何科学反思或技术实现之前,生物将感官印象与信息是他们自己学会的,并通过其他生物的交流获得的。通过这种方式,他们认为相关在各自的环境方面才能有所作为在此基础上符合客观和语境。

人工智能或更广泛意义上的数字化就是这种转变概念到辅助基础设施和IT结构,旨在帮助人类在其行为中理解其并做出相应的反应。因此,数字化在国防领域,技术帮助军事用户在指挥、侦察、打击等领域中处于高位和支持。这些能力将扩大联邦国防军的能力能力概要以重要的方式[3]。必须考虑的是,估计自身的能力和能力对手的人工智能武器系统将会越来越多困难。

计算机中对智能系统的唯一定义在心理学中,科学和人类智力的定义一样困难。因此,在本文中,我们将使用术语»智能系统«在非常广泛的意义上,因此包含了一个广泛的领域的基于ai的软件系统在复杂环境中表现出目标导向、高度自动化的行为动态环境。一个技术解决方案是系统遵循基于主体的范式,处于他们感知、融合、推理和主动行动的环境中时尚[4]。认知辅助系统的类别得到改进情境图像和人类操作员的意识,使用机器学习、数据挖掘或基于知识。1626529042273002916.png


>>>>>>>>更多原文内容索取完整版PDF英文版,请咨询客服小编。>>>>>>

上一篇: 武器装备智能化管理中的人工智能

下一篇: 警用装备管理系统云平台-警备通

299
分享到: