和数据治理、文档和记录保存、透明度和向用户提供信息、人工监督以及稳健性、准确性和安全性的指导。然而,该法规的重点更多地放在人工智能系统上,而不是开发这些系统的公司。尽管如此,这些指南仍然是朝着制定全球人工智能标准迈出的重要一步。
其他举措
除了欧盟,许多其他实体也在制定法规和标准。以下仅列举几个例子。
- 电气电子工程师协会 (IEEE)。电气电子工 最近的手机号码数据 程师协会( IEEE ) 发表了一篇题为《符合伦理的设计:以自主智能系统优先考虑人类福祉的愿景》的论文。该论文探讨了人权、责任、问责、透明度以及最大限度地降低滥用风险等问题。
- 经济合作与发展组织( ECD)。经济合作与发展组织(ECD) 制定了人工智能原则,注重造福人类,尊重法治、人权和民主价值观。这些原则也注重透明度、安全性和问责制。
- 世界经济论坛( WEF)。世界经济论坛(WEF) 发布了一份题为《人工智能治理:将伦理融入人工智能的整体方法》的白皮书。白皮书引言指出:“本白皮书的目标是概述建立人工智能治理机制的方法,该机制在充分发挥人工智能优势的同时,兼顾使用人工智能和自主系统可能带来的相关风险。”
美国国防部制定了一套关于人工智能使用 节日期间您不能忽视的 的伦理原则,涵盖五大领域,规定人工智能的使用必须负责任、公平、可追溯、可靠、可治理。
政府和其他实体也可以考虑监管的替代方案和补充措施,例如标准、咨询小组、道德官员、评估清单、教育和培训以及自我监控要求。
合规性如何?
这场讨论的另一个考量是:“即使政府和其他实体制定了符合伦理道德的人工智能规则和法律,企业会配合吗?” 根据Reworked最近的一篇 商业 带领 文章,“十年后,符合伦理道德的人工智能设计不太可能被广泛采用。” 文章进一步解释说,商业和政策领导者、研究人员和活动家担心,人工智能的发展“将继续主要集中在利润优化和社会控制上”。
然而,那些领导者和其他关注这个问题的人应该继续定义道德AI的本质,并制定规则和指导方针,帮助其他人采用这些原则。虽然公司价值观的机制将决定他们在多大程度上接受这些理念,但消费者的选择机制将决定那些不接受这些理念的公司能否生存下去。