标题摘要内容
当前的位置:
详情
ChatGPT与国家安全
来源: | 作者:AI丹 | 发布时间: 2023-02-13 | 2339 次浏览 | 分享到:

大型语言模型将如何影响美国国家安全?

ChatGPT风靡全球。自2022年11月发布以来,OpenAI的聊天机器人在SAT考试中取得了1020高分,通过了医疗执照考试,成功地降低了用户的有线电视费用,甚至起草了如何监管AI的立法。从课堂到播客再到餐桌,甚至名人云集的电视节目,它一直是热门话题。

关于ChatGPT对教育和劳动力等领域的影响,有很多评论。但是这个“ChatGPT时刻”,以及更广泛的大语言模型(Large Language Models,LLMs),对美国国家安全意味着什么?

在战略层面,各国将寻求利用AI模型获得经济、军事和国家安全优势。正如OpenAI首席执行官 Sam Altman在国家AI安全委员会(NSCAI)2021年全球新兴技术峰会期间告诉Eric Schmidt的那样,“将有多种全球努力来构建这些强大的人工智能系统,而在世界上获得我们想要的结果的最佳方式,即与自由民主制度相一致的AI,将需要我们和我们的盟友首先构建它们”

本文的其余部分将概述LLMs的一些战略考虑,首先评估我们今天在AI进步的高潮中所处的位置,然后转向LLMs对国防部、情报界和更广泛的美国国家安全机构的具体影响。我们将以决策者的关键考虑作为结尾。

AI进步的“ChatGPT时刻”

ChatGPT并非凭空出现。相反,它是AI快速发展的更广泛趋势线中的最新数据点。近年来,自然语言处理(Natural Language Processing,NLP)以及其他提高机器任务性能的机器学习(ML)功能发展迅速。在OpenAI于2020年发布GPT-3和2022年底发布ChatGPT的时间之间,仅LLMs生态系统就已经发展到包括来自世界各地的十几个实体,它们已经基于开源LLMs发布模型和构建适合特定用途的工具。

LLMs生态系统中的参与者

今天推动LLMs向前发展的许多主要参与者都是美国公司。但是,中国的实体和公司,以及英国、以色列、韩国等国家的组织,也成为了重要的参与者。虽然美国私营部门具有竞争优势,但中国决心在AI领域超越美国,在各个领域争夺领导地位,包括算力、算法、数据、应用程序、集成和人才。中国也是LLMs的快速追随者,百度将在3月份发布自己的类ChatGPT的聊天机器人。

更重要的是,我们可以预期AI生态系统将进一步扩展,因为训练AI模型的障碍(如成本)会随着“无代码AI”等新技术的出现而减少。美国必须为世界上越来越多的参与者,从国家到公司再到个人,做好准备,以便能够为各种目的创建和利用定制算法。

事实上,LLMs等工具正变得越来越实用和易于使用。据报道,在上线的两个月里,ChatGPT的月活跃用户已达到创纪录的1亿。TikTok花了九个月的时间才达到这一里程碑。谷歌宣布将很快发布自己的聊天模型Bard,该模型建立在其内部LaMDA模型之上。与许多其他组织一样,SCSP在最近几个月使用LLMs来帮助生成内容。在我们的第一份报告《国家竞争力的中期挑战》中,我们尝试了三个LLM:OpenAI的GPT-3、Hugging Face的BLOOM和Anthropic开发的模型,向它们询问报告旨在解决的关键问题(大致上,LLMs的回答是合理的)。我们还使用LLMs来帮助撰写本文的前一版,我们的2022年全球新兴技术峰会邀请了Anthropic LLM(与Anthropic联合创始人Jack Clark一起)回答观众的现场提问。

然而,LLMs可以做的不仅仅是谈论国家安全形势,他们实际上开始塑造它。以下是美国国家安全企业中LLMs的一些潜在用例。

美国国家安全企业的机会

LLMs作为“智能化intelligentized”工具的接口:类似于ChatGPT的LLMs可以成为人类访问各种AI工具的接口,包括计算机视觉和机器人技术。在癌症筛查等任务中,人机团队(Human-machine teams,HMT)已经证明比单独使用人类或AI模型更有效。在国家安全背景下,此类智能化工具可以通过AI生成的预测洞察力改变指标和警告格局,启用半自主系统,例如使用LLMs来训练有用的机器人并与之交互,以及支持从物流和供应链管理到出口管制申请审查的任务。

LLM和情报:ChatGPT和其他新兴技术有能力在所有情报学科(INT)和情报周期的各个阶段,以及在战争的各个层面为军队建立一个更强大、更快的情报社区。使用ML模型的HMT功能已经证明能够通过过滤大量数据和标记重要信息来提高情报处理和分析的效率,并使分析师能够专注于更深入的分析。LLMs还可以通过帮助生成估计分析草稿、准确翻译外文等来提高生产力。特别是对于开源情报(OSINT),具有外部搜索能力和专家知情培训数据的LLMs将增强我们的收集和分析能力。可以为对开源情报中心的需求和情报目的训练和开发这些工具。

决策支持:决策优势将归于领导人最有能力利用AI模型作为决策支持工具的国家。通过将AI、数据、建模和仿真功能以及预测洞察力正确组合,模型将能够制定出各种政策选项,并向人类决策者提供分析。最近的成就,例如AI模型在战略游戏“强权外交Diplomacy”中的表现优于人类,其中涉及与对手互动和讨价还价,以及在战争游戏中展示了这一技术向量的相当大的进步,即使还有更多的工作要做。LLMs在做出操作决策的半自治系统中应扮演的角色有明显的局限性。然而,这些“专家”可能是房间里的另一个声音,提供关于政策或战争选择的实时、数据知情的观点。

其他重要的国家安全考虑

信息格局:ChatGPT增加了NSCAI最终报告第1章中描述的风险,即在我们制定适当的对策之前,我们的对手转动了启用AI的信息操作的表盘。诸如ChatGPT之类的LLMs可用于以速度和规模生成独特的文本,从而避开现有的过滤系统。也许最重要的是,尽管这些技术能力在ChatGPT之前就已经存在,但随着公众的关注,更多人可能会质疑他们在社交媒体等上阅读的内容是否由AI生成。我们可能确实正在进入一个我们消费的大部分内容都是AI生成的世界,为国家和非国家行为者创造新的载体来塑造信息格局。令人欣慰的是,最近合成内容检测功能的激增,包括OpenAI发布的文本分类器和C2PA的规范标准,提高了国家安全专业人员和知情公民等人将拥有可用于帮助识别合成媒体的工具的前景。

数据和训练是基础:LLMs近年来取得了长足的进步,但它们不是神谕。它们最终只能与训练它们的数据一样好,并且可以产生没有事实依据的“幻觉”信息。它们的使用总是会带来相关的风险,人类必须仔细考虑。尽管如此,LLMs将继续激增,因为国家、公司和其他参与者推动了最先进的技术水平,并且人们将ChatGPT等工具集成到他们的日常生活中。任何拥有全球技术野心的国家都不会在生态系统向前发展时转身离开。

AI对抗AI:随着AI功能被整合到国家安全设备中,我们的LLMs可能会与我们的对手进行测试,无论是在特定情况下还是为了整体信息优势。美国将需要利用私营部门的竞争优势来确保我们的LLMs是世界上最好的。此外,我们需要确保美国军方和情报界的AI工具在适当情况下能够与我们的盟友和合作伙伴的AI工具进行互操作。

黑匣子问题:随着我们越来越依赖AI系统,我们需要一种方法来解释和理解它们。“注意力建模attention modeling”和“思维链推理chain-of-thought reasoning”方面的进步是有前途的,但我们仍然无法“查询”AI应用程序以“讨论”其思维过程。这一领域的突破将使人类用户能够理解AI系统做出特定决定的原因,从而有助于建立对AI系统的信任。

网络安全和代码:LLMs将通过代码生成在基础计算机科学层面影响国家安全,对国家安全机构、企业和消费者产生影响。Copilot是针对代码生成进行微调的GPT-3版本,已经大大提高了编码准确性和生产率。类似的技术开始用于检测和防止零日攻击,并且通常可以帮助强化代码。LLMs还将为网络安全创造新的风险载体,例如降低恶意网络参与者的进入门槛。这些风险将使大规模部署有助于确保我们的网络系统安全的AI工具变得更加重要。

跟上技术的发展速度:无论是制定AI法规还是将AI能力整合到人类劳动力中,政府都将努力跟上技术快速发展的步伐。例如,欧盟委员会正在努力解决欧盟即将出台的AI法案将如何处理ChatGPT等系统的问题,这凸显了设置适用于最新功能的治理模型的难度。同样,工具和技术的快速变化可能会导致政府部门和机构采取保守的态度并继续使用时已经过时的系统。唯一的前进方向是让采购流程和治理框架等变得足够灵活,以便它们能够跟上AI的步伐。

归根结底,无论我们的领导者和组织是否倾向于“ChatGPT时刻”,LLMs和AI都将更广泛地重塑国家安全格局。今天,美国在LLMs研发的前沿具有关键的竞争优势。但长期优势将通过采用此类工具来塑造,而那些无法适应和落后的人将面临风险。


来源:AerospaceDefense

作者:James.W