从欧盟的人工智能法案到新兴的全球框架,企业面临着扩大人工智能采用的同时确保合规性和道德治理的双重挑战。
来自各行业的专家分享了他们对 2025 年人工智能在商业领域的见解,强调透明度、风险管理以及构建符合法规的人工智能系统的重要性,同时促进信任和可扩展的增长。
监管和治理
Steven Webb,凯捷英国首席技术和创新官
“人工智能企业将更加关注人工智能监管和可持续性。随着人工智能代理在企业中得到更广泛的采用,我预计人工智能治理和可持续采用将得到更加关注。根据我的经验,大多数企业领导者都了解在将人工智能代理集成到其运营中之前实施强大的控制机制的重要性以及人工监督的必要性。我相信,随着未来几年对加强人工智能监管的呼声和对透明度的需求的增长,这些护栏将变得越来越重要。”
Michael Adjei,Illumio 系统工程总监
“随着 GenAI 工具现在无处不在,到 2025 年,人们将看到一场疯狂的人工智能争夺战——就像我们在社交媒体上看到的那样。重点不仅在于保护用户,还在于建立框架来保护人工智能免受其他人工智能的侵害。
框架和指导方针将在三个层面上推进:国际层面(例如欧盟)、区域层面(例如NCSC)和组织层面。由于关于可接受的使用和安全性的明确指导方针,组织级别可能是最有效的,而更高级别的效率会降低。国际法规通常留有解释空间,使企业能够规避这些法规。”
Stuart Tarmy,Aerospike 金融服务全球总监
“随着世界各国政府制定法律框架和法规,使系统更加透明和负责任,‘一切皆有可能’的人工智能狂野西部时代正在开始改变。 《欧盟人工智能法案》于 8 月初生效,虽然英国正在采取不同的方法并制定基于原则的框架,但任何在欧盟开发或部署人工智能系统的企业都需要遵守欧盟人工智能法案行为。当我们进入 2025 年时,这将以多种不同方式产生重大影响。”
负责任的人工智能和道德实践
Mahesh Desai,Rackspace Technology 欧洲、中东和非洲公共云负责人
“到 2025 年,商界领袖将为负责任的人工智能制定标准。今年,人工智能的采用率猛增,企业在该技术上的平均支出为 250 万美元。然而,欧盟人工智能法案等立法导致人们对我们如何使用人工智能进行更严格的审查,因此,我们预计 2025 年将成为负责任的人工智能年。
当我们等待监管实施的进一步见解时,许多企业领导者将寻找一种在人工智能采用方面保持领先地位的方法,而答案在于建立全面的人工智能运营模型——一套负责任和道德的指导方针人工智能的采用。”
Laurent Doguin,Couchbase 开发者关系和战略总监
“如果企业不对人工智能采取行动,监管就会为他们采取行动。今年,人工智能监管一直是每个人关注的焦点,世界各国政府都在讨论立法。 ChatGPT问世已经两年了,关于人工智能到底应该如何监管,仍然存在很多疑问。我们已经看到《云法案》、《隐私护盾》计划以及 Schrems 1 和 2 之间的法规反复出现。这些都是监管用户数据传输和所有权的尝试。人工智能的未来基于用户数据,因此,独立于任何人工智能监管,也需要整理数据监管。
人工智能在医疗保健等受监管行业的应用将决定其他行业监管的严格程度或宽松程度。例如,如果某些行业或国家完全阻止人工智能进入某些领域,那么企业将被迫创建生态系统,以确保人工智能永远不会触及这些领域。透明度也将是关键。这对于发现和解决过于现实的人工智能(例如深度伪造)以及它如何影响社会、政治、隐私和创造力至关重要。我们需要了解如何识别深度赝品并防止其创作,并区分人工智能生成的艺术和由真人投入血汗和泪水创作的艺术。人工智能的透明度对于社交媒体和针对年轻人的内容尤其重要。最重要的是,我们需要确保人工智能生成的内容不会被用于网络欺凌和骚扰、虚假新闻或任何会损害社会结构的行为。”
David Colwell,Tricentis 人工智能和机器学习副总裁
“毫无疑问,人工智能技术已经变得越来越复杂和普遍。虽然这增加了它们的实用性,但也显着引起了人们对潜在风险和影响的担忧。进入 2025 年,我们可以预期世界各地的政府和监管机构将越来越多地引入和执行新的指导方针和法规,旨在确保人工智能系统的负责任的开发和部署。持续和彻底的测试对于组织来说至关重要,以确保其人工智能产品和系统不仅满足新的和不断变化的法规,而且满足客户对效率和安全性日益增长的期望。”
Kristof Symons,Orange Business 国际首席执行官
“随着人工智能和生成式人工智能的炒作达到顶峰,企业开始问:真正的价值在哪里?答案在于摆脱“试点炼狱”并扩展人工智能以提供有意义的结果。成功始于最高管理层和员工的全力支持。当领导者将人工智能作为战略优先事项时,它发出了一个明确的信号:我们都在一起。透明度和教育是关键——向员工展示人工智能如何简化他们的工作并带来更好的结果。不要让人工智能成为少数人的奢侈品;在整个组织内实现民主化,以避免阻力并促进合作。”
人工智能合规与风险管理
Luke Dash,ISMS.online 首席执行官
“2025 年人工智能治理激增:新标准推动道德、透明和负责任的人工智能实践。到 2025 年,企业将面临人工智能治理和合规性不断升级的需求,欧盟人工智能法案等框架将为全球标准设定步伐。由于组织的任务是管理人工智能风险、消除偏见和维护公众信任,因此遵守 ISO 42001 等新兴基准将变得至关重要。这种转变将要求公司采用严格的人工智能风险管理框架,确保人工智能驱动的决策的透明度和问责制。监管压力,特别是在高风险行业,将对违规行为进行处罚,迫使公司展示稳健、道德和安全的人工智能实践。”
Stuart Tarmy,Aerospike 金融服务全球总监
“公司将需要实施新的流程和工具来遵守法规,例如系统审计、数据协议和人工智能监控,并且他们需要寻找值得信赖的供应商来帮助他们遵守和认证其人工智能的使用。遵守新规则意味着要了解现有法律如何适用于新的人工智能算法。例如,首席信息官有责任建立强有力的内部治理政策来管理与人工智能相关的风险,并防范版权侵权诉讼。
当员工和最终用户与人工智能系统交互时,还有一项工作需要更新他们的信息。与数据安全规则一样,如果公司不遵守人工智能法规,则存在巨额罚款的风险,因此虽然这些法规要到 2026 年 8 月才会生效,但现在是开始准备的时候了。”
Tomer Zuker,D-ID 营销副总裁
“到 2025 年,我们预计在缩小人工智能技术快速发展与监管框架之间的差距方面将取得重大进展。政府和组织将通过旨在负责任地管理人工智能的新政策和法律,优先考虑隐私、安全和道德使用。这种联盟将在企业之间建立信任和信心,促进人工智能解决方案的更广泛采用。工具和平台将越来越注重透明度、安全使用和合规性,这对于获得商业部门的批准和确保可持续增长至关重要。”
Martin Taylor,Content Guru 联合创始人兼副首席执行官
“随着全球范围内出现更多标准,人工智能监管变得越来越不可避免,尽管通用方法仍然不太可能。然而,到 2025 年,我预计越来越多的地区监管机构将采用与欧盟和美国等领先者紧密结合的框架,这些国家已经在标准方面取得了令人瞩目的进展。因此,所有组织都必须保持敏捷并准备好采用新法规并确保合规性。人工智能在联络中心得到广泛应用,该行业的领导者将密切关注进展情况。”
点击此处查看 Agentic AI 的预测