对人工智能的不同信任程度如何影响人工智能工具的使用?

 

些信任度不高的人(认知信任度高但情感信任度低)倾向于承认该工具的有效性,对人工智能的不同信任程度如 但也会对此感到恐惧或焦虑,在某些情况下,这会导致他们限制分享的信息或干脆拒绝与该工具互动。有些人甚至试图通过操纵该工具来影响他们被分析的方式,例如通过频繁交流机器学习等主题,以便他们被认定为专家,即使他们没有任何专业知识。这些行为可能会通过引入有偏见或不完整的数据来降低人工智能的性能。它们还会造成恶性循环,即人工智能性能的下降会进一步削弱其他用户对该工具的信任,并进一步阻碍其采用。

数据与人工智能伦理委员会,Orange 负责任人工智能的保证者

分享按钮
• 芬兰阿尔托大学的 Natalia Vuori 开展的一项研究确定了四种信任配置(完全信任、完全不对人工智能的不同信任程度如 信任、不信任和盲目信任),这些配置决定了员工与人工智能的互动方式。
• 一些员工故意操纵人工智能工具,损害其结果的准确性。这些工具可靠性的下降可能会在公司内部造成“恶性循环”。
• 管理者最好采用能够反映员工信任程度的人工智能方法,同时向他们保证数据的使用并强调具体的好处。

您如何对公司使用人工智能进行定性研究?

为了进行深入的定性研究,我们观察了一家公司引入、实施和使用新 AI 技术的情况。该工具收集了一系列数字足迹的数据,例如日历条目和 Slack 等平台上的内部通信,以创建每位员工的能力档案。总体目标是生成组织能力图,例如,在咨询公司的背景下,它可以帮助管理层确定哪些员工最适合承担新项目,还可以帮助新员工确定应 亚洲手机号码清单 该与哪些同事合作。

有些人甚至试图操纵人工智能工具,例如通过频繁交流机器学习等主题,以便他们被视为专家。

您确定了员工对人工智能的四种信任配置:它们是什么?

 

我们确定了影响员工对工具行为的四种信任配置。它们位于由两个维度 发展最快的家政服务特许经营 定义的空间中:认知信任(对工具性能的信任)和情感信任(对工具的热情或焦虑)。这四种配置是:

2025 年 2 月 9 日,星期日 对人工智能的不同信任程度如
阅读时间:5分钟
人工智能
算法
数据
人文科学
研究

分享按钮
• 多年来,Orange 一直致力于实施负责任且 印度手机号码  合乎道德的人工智能。
• 集团在这一领域的行动得到了数据和人工智能道德委员会的体现和支持,该委员会由独立人士、律师、学者等组成。
• 客户关系角色、计算机视觉产品等:委员会促成的成就和进步支持价值创造战略。道德验证是质量的保证。
继 2023 年在布莱切利园和 2024 年在首尔举办人工智能行动峰会之后,巴黎将于 2025 年 2 月 10 日至 11 日举办第三届人工智能行动峰会。来自政府、私营部门和民间社会的一千多名参与者将齐聚一堂,讨论人工智能的未来及其在公共利益方面的发展。值得信赖的人工智能和与道德相关的话题将成为这些讨论的核心。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注

滚动至顶部