您的位置:首页 >科技 >

人工智能在国防领域的应用:解决问题,抓住机遇

2023-08-12 11:13:00    来源:互联网

人工智能将继续改变国防格局,在带来一系列问题的同时,也带来了前所未有的机遇。各国必须全面了解当前和未来人工智能发展的潜在挑战并利用机会,确保国防系统中人工智能的安全性、可靠性和平衡系统的能力,从而提高作战效率、预测准确性并获得战略优势。

人工智能是一个广义术语,指的是设计用于模仿人类智能的计算机系统,可以通过编程来学习、推理、解决问题、感知甚至解释语言。人工智能的两个突出子集是机器学习和深度学习,机器学习即系统从数据中学习以提高其性能,深度学习是一种以人类大脑为模型的更复杂的机器学习形式。

人工智能在国防领域的潜力巨大。它可以简化作战、增强决策、提高军事任务的准确性和有效性。无人机和自动驾驶车辆可以执行人类无法完成的危险任务。人工智能分析可以通过预测和识别威胁来提供战略优势。


(资料图)

1

人工智能在国防领域的潜力

目前,人工智能和机器学习在以下几个领域获得了关键进展,显示出该技术对于重塑军事和国防格局的巨大潜力:

自主系统:自主系统的发展,特别是无人机和无人驾驶车辆,一直是一个关键的领域。自主系统可以处理一系列任务,从侦察任务到后勤支援,甚至直接参与作战。可以在危险环境中执行任务,减少人类士兵的风险。

预测分析:先进的人工智能/机器学习模型用于预测分析,可以预测潜在的威胁或维护的需求,可以分析大量的数据,以发现人类分析师可能无法辨别的模式和趋势,从而有助于确定防御策略和有效的资源分配。

赛博安全:人工智能和机器学习在对抗赛博威胁方面至关重要。这些技术可以比传统方法更快地实时识别和响应潜在威胁。还可以从每次攻击中学习,不断提高防御能力。

人工智能也被用于模拟高度逼真的作战环境以达到训练目的。这些虚拟环境可以复制各种作战场景和条件,为士兵提供多样化和全面的训练体验。

通过智能化指挥控制系统,人工智能技术可以帮助处理和解释现代战争中产生的大量数据,从而为指挥官提供全面的、接近实时的战场图像,帮助制定决策和战略规划。

2

人工智能存在的问题

上文对人工智能潜力的研究表明了人工智能对国防领域的深远影响,也意味着未来作战效率、战略优势和准确性的提高。然而,也必须正视这项革命性技术带来的一系列问题。必须全面了解潜在挑战并利用机会,同时确保国防系统中人工智能的安全性、可靠性和平衡集成系统的能力。在国防领域采用人工智能值得注意的问题如下:

“一致性”(Alignment)指的是确保人工智能系统的目标和行动与人类的意图一致。人工智能的复杂性、独立学习的能力以及决策过程中缺乏透明度,都导致了一致性问题。不一致的人工智能可能会导致意想不到的后果,在完成任务的同时也会造成不好的后果,能包括对军事行动的间接影响,以及国防后勤的中断。想要解决这一问题,需将明确的人类价值观融入编程、持续监控、提高人工智能决策过程的透明度以及建立纠正行为的反馈机制。

“能力衰弱”(enfeeblement)指的是担心对人工智能的过度依赖,随着时间的推移,这可能导致人类基本技能的下降。随着人工智能接管更多任务,军事人员在这些任务上可能会变得不那么熟练,这可能会影响作战准备。这就需要一种平衡的方法,即使用人工智能来增强而不是取代人类的能力。定期训练和技能更新对于保持人类在人工智能辅助军事任务中的熟练程度至关重要。

“被侵蚀的知识系统”(eroded epistemics),指的是由于过度依赖人工智能而导致的知识系统的潜在退化。如果国防部门不加批判地接受人工智能系统的输出,而没有充分理解或质疑这些输出是如何产生的,这可能会导致错误的战略和国家安全决策。为此,需要加强国防人员的人工智能教育和培训。这不仅包括如何使用人工智能系统的培训,还包括对其潜在决策过程的理解。除此之外,培养一种重视批判性思维、将人类直觉和机器智能视为互补力量的文化至关重要,在这种文化中,人们可以挑战人工智能的输出。此外,设计更透明的系统,为人工智能决策提供可理解的解释,可以确保更好的审查和理解,有助于防止对人工智能的“黑箱”感知。

“价值锁定”(Value lock-in)指的是人工智能系统放大或巩固现有价值观、信仰或偏见的风险,可能对国防行动构成挑战。这可能导致基于固有偏见的决策失衡,甚至由于人工智能系统中反映的不同文化或伦理价值观而影响国际合作。

减轻这种风险需要一些必要的措施:首先,对人工智能系统的偏见进行持续测试和审计应该作为一个标准程序。其次,在为人工智能系统设定目标和价值观时融入不同的观点,让来自不同领域的专家参与进来,可以帮助确保价值观的平衡。最后,提高人工智能开发的透明度,使人工智能系统的决策过程和训练数据公开接受审查,可以帮助识别和解决潜在的价值锁定偏见。

还有一个与价值锁定相关的问题——“偏见”。人工智能系统反映了它们所接受训练的数据,可能会无意中存在偏见。在国防方面,这些偏见会影响关键功能,从指挥、控制、通信、计算机、情报、监视与侦察(C4ISR)活动到威胁识别和任务规划。

所有的系统都存在固有偏见,关键在于如何识别和减少可能影响军事战备和能力的偏见。如果缺乏谨慎的管理,偏见会影响战略决策,可能会损害态势感知和其他关键防御功能。针对这一问题提出的解决方案包括使用具有广泛代表性的训练数据,对人工智能系统中的偏差进行持续审计,可以实时检测和纠正。此外,人在回路的关键决策方法增加了额外的审查层,有助于管理和减轻可能影响军事能力和任务执行的偏见,最终最大限度地提高人工智能对国防行动的有益贡献。

人工智能系统被利用进行“欺骗”的能力不仅限于“深度伪造”,即通过数字处理扭曲现实的视频或图像。一个担忧是人工智能驱动的网络欺骗,人工智能可能被用来发动复杂的赛博攻击、掩盖入侵,甚至制造诱饵目标来转移国防资源。这种欺骗策略会削弱威胁检测能力,破坏通信渠道,威胁关键任务系统。

另一个担忧是人工智能可以增强心理行动,人工智能可以用来制造虚假信息活动,利用个人或群体的脆弱性来影响士气、造成混乱、破坏对指挥结构的信任。人工智能还可以用于战场欺骗。

为了减轻这些威胁,先进的基于人工智能的检测工具可以帮助识别和打击欺骗性的人工智能战术。部署可识别人工智能欺骗模式的机器学习算法,对于预先防范赛博攻击或虚假信息宣传至关重要。数字取证是另一个关键技术。对数字证据的严格分析可以发现人工智能产生的欺骗迹象。在组织方面,提高国防人员的意识和应变能力至关重要。定期对最新的人工智能欺骗策略进行培训,可以帮助人员识别潜在的威胁。对未经证实的信息保持怀疑态度,也可以加强对人工智能引起的心理行动的防御。

人工智能的崛起引发了人们对失业的担忧。这种转变可能会扰乱关键任务,造成社会经济影响,影响士气并减少军队积累的知识和经验。想要减轻这些担忧需要制定积极的计划,人员的技能提升和再培训计划可以为未来与人工智能集成做好准备,提高有效管理人工智能系统的能力。

最后,令人担心的是人工智能本身的“武器化”,人工智能武器将突破科幻小说的限制,成为现实。人工智能和自主系统的快速发展使武器编程能够独立选择和攻击目标,打开了潘多拉的盒子。由人工智能驱动的自主武器可能涵盖所有领域,从具有先进瞄准能力的导弹系统到能够在最少人为干预的情况下进行监视或打击的自主无人机。人工智能还可以用于赛博作战,以人类无法比拟的速度为自动化攻击或防御提供动力。此外,人工智能可以进行广泛的数据收集,帮助识别威胁和制定战略决策。

然而,除了人工智能潜在的能力之外,存在的问题也令人担忧。首先,人工智能自主决策的能力引发了关于战争问责制的严重伦理、道德和法律问题。如果自主武器做出错误的决定,导致意外的平民伤亡,谁来承担责任?如何确保人工智能武器遵守战争规则和国际法?虽然这些问题至关重要,但并不是在人工智能武器化时代所面临的所有问题,还有一个同样紧迫的问题:在全球人工智能和军事能力军备竞赛中落后的风险。世界各国都在积极发展人工智能技术,以增强军事能力。跟不上人工智能发展步伐的国家会发现自己在战场上处于战略劣势。

3

解决方法

要解决这些复杂问题,必须采取多管齐下的办法。应该考虑严格的国际监管、人工智能武器开发的透明度和健全的问责制度。但除此之外,各国还应该投资自己的人工智能开发,以跟上全球进步的步伐。各国应该合作,而不仅仅是竞争,为国防领域使用人工智能建立国际标准和规范。

解决这些问题需要采取综合办法。健全的道德准则、严格的测试、透明度和培训至关重要。必须专注于使用人工智能来增强人类的能力,而不是取代人类。人工智能治理需要确保与人类价值观保持一致,必须对潜在的欺骗或偏见保持警惕。

尽管存在这些担忧,但人工智能在国防领域的应用也带来了巨大的机遇。当前的发展目标不应该是阻止人工智能的进步,而应该是深思熟虑地管理人工智能。通过主动承认和积极解决这些问题,使人工智能在不损害安全、能力、战备或社会价值观的情况下为国防做出重大贡献。

标签:

相关阅读