随着人工智能格局的不断发展,世界各地的组织都在寻求利用其优势并管理风险。
人工智能 (AI) 有望改变我们的工作方式和数据处理方式,有望提高生产力和效率,从而提高公共服务的性价比,并为企业带来竞争优势。然而,随着人工智能的普及,迫切需要进行人工智能治理,以确保其应用负责任、合乎道德、透明并符合相关法律法规。
当你读到这篇文章时,不透明的算法正被用来做出重要决定并歧视人们。尽管与个人数据泄露相比,此类情况的报道较少,但发生的频率远超你的想象,尤其是考虑到可能造成的伤害。
鉴于人工智能技术融入我们日常生活的速度,对人工智能治理的需求比以往任何时候都更加迫切。虽然我们多年来一直都知道道德问题,但最近的进步已将这些担忧升级为对社会的重大威胁。
公共和商业部门都迅速接受了人工智能技术,但实施必要的人工智能治理实践以确保其安全使用并实现其预期目的却进展缓慢。如果没有强大的结构或监督,组织必须走的将人工智能系统成功整合到业务运营中的道路仍然充满风险、不确定性和失败。
人工智能项目多久会失败一次?
了解如何将人工智能的潜力转化为 切实的成果仍然是一项根本挑战。根据《2025 年数据信任报告》,虽然 74% 的组织采用了一些基于人工智能的解决方案,但只有 33% 的组织成功地将它们整合到整个业务中。一份更为严肃的报告研究了人工智能项目失败的根本原因,该报告表明,失败率高达 80%,是 IT 项目失败率的两倍。
尽管统计数据如此惨淡,但 whatsapp 号码数据 组织可以采取一些行之有效的方法来提高成功率。通过解决四个关键领域,组织可以显著降低与 AI 实施相关的风险并改善整体结果。
定义业务挑战
组织通常对 AI 充满热情,但却 大学提高知名度并获得优 无法确定他们想要解决的具体业务挑战。同时,数据科学家和其他技术专家往往对其组织的总体战略和目标缺乏全面的了解。这种缺乏清晰度和理解力会导致预期不一致和资源利用效率低下。
尽管人们很想尽快向前迈进,但重要的是留出必要的时间与业务功能进行详细的接触,以确定可以切实实现的应用程序,并带来变革性的结果和重大价值。
此外,AI 项目团队也经常被鼓励尝试最新技术。开发 AI 解决方案有多种技术选择,每种技术都有其独特的优点和缺点。虽然选择合适的技术显然很重要,但成功的 AI 实 乔丹20 施更多地关注正在解决的具体问题及其背景,而不是技术本身。因此,组织应仔细评估他们的选择,以确定哪种技术最符合他们的需求、资源和 AI 发展目标。
专注于人工智能风险管理
随着组织开始为各种特定用例开发人工智能,如何以负责任和合乎道德的方式实施人工智能模型的问题也随之而来。为了按计划部署人工智能项目并且不产生任何意外后果,组织必须通过总体人工智能治理计划解决一系列复杂问题。
人工智能风险可分为以下几类:
人工智能可靠性风险与事实不准确、幻觉、过时的信息和有偏见的训练数据有关。所有可靠性风险都需要解决方案,否则实施将无法按预期进行。
数据保护风险给模型开发和持续维护带来了各种问题。人工智能系统需要访问大量个人数据进行训练。然而,确定用于人工智能相关目的的适当合法处理基础仍然是一项重大挑战。其他数据保护问题包括未经事先通知就与第三方共享用户信息,以及作为提示输入的敏感或机密信息成为其他用户输出所使用的知识库的一部分。
版权和知识产权风险与如何使用受保护的材料训练人工智能模型有关。
网络安全风险包括人工智能系统是否容易受到黑客攻击和恶意攻击,从而导致未经授权的访问、个人数据泄露和其他安全事件。
由于人工智能模型的不透明性,可解释性风险带来了挑战。如果这种风险得不到缓解,即使是专家也很难理解人工智能模型的内部工作原理,从而导致输出结果不可预测、不可验证且不负责任。
新兴监管风险与不同司法管辖区的政府和其他机构关于人工智能技术开发和使用的具体规则有关。
在开发阶段制定一个清晰全面的计划来应对所有潜在的人工智能风险至关重要。如果不这样做,可能会带来巨大的成本——不仅是预算方面的成本,还可能损害声誉、监管执行,以及修复人工智能模型以解决这些问题所需的时间。
总体而言,除非组织能够管理所有风险,否则他们的人工智能项目将面临严重的成本超支,并可能停滞或失败。
管理人工智能相关成本
在评估是否要推进 AI 项目时,组织面临的一个基本挑战是如何有效地管理成本。这一问题源于 AI 技术的新兴性质,这使得组织很难准确估计与其 AI 计划相关的成本。
许多因素导致了人工智能项目的财务挑战,包括上述问题。这些不确定性可能导致预算超支和在整个人工智能项目生命周期中可能出现的意外成本。如果没有结构化的方法,组织可能会发现自己容易受到远远超出最初预测的成本螺旋式上升的影响。Gartner 的研究表明,人工智能成本估算中的错误计算可能相差高达 500-1000%。
这种程度的财务错误大大增加了 AI 项目被放弃的可能性。这并不是因为项目缺乏可行性,而是因为财务限制,如果规划和监督得当,这些限制本可以避免。在这种情况下,缺乏 AI 治理可能会导致企业错失创新或提高效率的机会,因为企业正在努力应对 AI 实验中成本管理不善所带来的影响。
投资于强大的人工智能治理
为了以负责任、合乎道德和透明的方式应对人工智能风险,并确保遵守法律和监管要求,组织越来越多地采用全面的人工智能治理计划。此类计划不仅对于指导开发过程至关重要,而且对于控制成本也至关重要。
人工智能治理的核心包括指导人工智能开发生命周期的框架和一套最佳实践。除了评估和降低风险外,人工智能治理还制定了组织内负责任地使用人工智能的政策和程序。