过去两年,围绕人工智能 (AI) 的炒作空前,因此推动了理解和采用人工智能驱动的业务支持能力。
各垂直行业的企业领导者希望利用人工智能的力量来提高效率、提取数据驱动的见解并推动积极的业务成果。
虽然人工智能工具确实正在为许多组织提供价值,但这一快速发展的类别的知名度不断提高,暴露了人工智能使用的另一个副产品:组织风险升高。
认识到这一风险已促使一些全球监管机构和立法者采取行动。一个突出的例子是美国政府概述的指令,其目的是确保政府推动的人工智能工作走上安全、可持续的道路。
报告称,大型科技公司封闭的人工智能生态系统正在阻碍信任和发展
2024 年 10 月 30 日,白宫发布了《关于安全、可靠和值得信赖的人工智能开发和使用的行政命令》,该框架旨在指导美国联邦机构采用人工智能驱动的功能。
AI 行政命令以其深度和明确的指示而闻名,其中包括要求 20 多个机构采取行动的具体呼吁。实施期限为 30 至 365 天。
当我们在该指令发布一年后审视人工智能的前景时,所取得的进展(包括最近发布的人工智能国家安全备忘录)令人鼓舞。
虽然这些行动有效地建立了基线期望,即在采用人工智能时隐私和安全不能是事后才想到的,而必须从一开始就有意识地集成到人工智能系统中,但充满行动的一年并不是故事的结束。
继续致力于创造一个承认人工智能风险、尊重隐私和安全为基础的环境非常重要。
安全人工智能的核心是最大限度地降低风险并实现信任和安全,同时增强决策、保护隐私和应对风险。
为了提供最佳结果,需要使用广泛、多样化的数据源来训练和丰富 AI/ML 功能。
隐私增强技术
这些努力的基础是隐私增强技术 (PET),这是一系列独特的技术,可在整个生命周期中启用、增强和保护数据隐私。
PET 允许用户利用人工智能的力量,同时降低风险并优先保护。
数据是人工智能构建的基础,因此长期以来与数据相关的隐私和安全挑战似乎也延伸到了人工智能工具和工作流程。
然而,在许多组织内部,人工智能炒作的迷雾似乎掩盖了这一现实。自从 2022 年底出现大量生成式 AI 工具推动的活动激增以来,许多 AI 工作取得了进展,但没有考虑到安全影响或长期可持续性。
负责任的人工智能创新需要行动——而系统性行动需要资源。
就像在美国启动了多个工作流程的人工智能行政命令指令一样,全球政府仍然有责任与行业合作,支持安全、负责任、值得信赖和可持续的人工智能实践。
来自九个国家和欧盟的人工智能技术专家很快将在旧金山举行会议,通过人工智能安全机构网络讨论人工智能安全科学的国际合作。
立法和监管行动以及对优先考虑隐私和安全的工具和技术的资助进一步增强了全球人工智能的领导地位。
投入资源采用技术支持的解决方案(例如 PET)将有助于确保模型和工作流程的保护是基础,从而保护人工智能训练期间使用的大量敏感数据。
为了体现这一追求,欧盟于 2024 年 3 月批准了《欧盟人工智能法案》。这项以消费者为中心的法案规定了隐私权,规定必须在人工智能系统的整个生命周期中保证个人数据保护。
“提供商为确保遵守这些原则而采取的措施可能不仅包括匿名和加密,还包括使用允许将算法引入数据的技术,并允许在各方之间不进行传输或复制原始或原始数据的情况下训练人工智能系统。结构化数据本身。”
《NCSC 安全人工智能系统开发指南》于 2023 年 11 月在英国发布。
他们将安全性视为核心要求,不仅在开发阶段,而且在整个系统的生命周期中,并指出 PET 是减轻人工智能系统风险的一种手段:“隐私增强技术(例如差分隐私或同态加密) )可用于探索或确保与有权访问模型和输出的消费者、用户和攻击者相关的风险级别。”
保持势头
随着人工智能市场继续呈指数级增长,领导者必须理解并支持推动负责任地使用这些技术的努力。
这种支持包括制定指令、政策和预算来推进安全人工智能工作。它还包括与技术领导者、学者和企业家合作,他们在以安全和可持续的方式推动这些技术的采用方面拥有强大的利害关系。
优先考虑安全、可靠和负责任地使用人工智能,并提供维持其进步所需的资金,将确保这些变革性工具在遥远的未来产生影响。