为什么人工智能电子邮件会悄悄破坏工作中的信任
超过 75% 的专业人士在日常工作中使用人工智能,使用 ChatGPT、Gemini、Copilot 或 Claude 等工具编写和编辑消息已成为一种司空见惯的做法。 虽然生成式人工智能工具被认为使写作变得更容易,但它们对于经理和员工之间的沟通是否有效? 一项针对 1,100 名专业人士的新研究揭示了工作场所沟通中的一个关键悖论:人工智能工具可以使经理的电子邮件更加专业,但经常使用会破坏两者之间的信任他们和他们的员工。 “我们看到对消息质量的看法和对发件人的看法之间存在紧张关系,”佛罗里达大学沃灵顿商学院的研究员、研究合著者安东尼·科曼博士说。 “尽管对人工智能辅助写作的专业性有积极的印象,但使用人工智能进行日常沟通任务的管理者在使用中高级人工智能辅助时,他们的可信度面临风险。” 在发表于的国际商业传播杂志,科曼和他的合著者、南加州大学的彼得·卡登博士对专业人士进行了调查,了解他们如何看待他们被告知是在低、中、高人工智能辅助下编写的电子邮件。 调查参与者被要求评估不同版本的祝贺信息,包括他们对消息内容的看法和对发件人的看法。 虽然普遍可以看到人工智能辅助写作作为高效、有效和专业的,科曼和卡登发现,经理撰写的信息与员工撰写的信息存在“认知差距”。 “当人们评估自己对人工智能的使用时,他们倾向于对低、中和高援助水平的使用进行相似的评价,”科曼解释道。 “然而,在对他人的使用进行评级时,量级变得很重要。 总体而言,专业人士对自己的人工智能使用持宽容态度,但他们对相同级别的援助持怀疑态度当主管使用时。 虽然低水平的人工智能帮助(如语法或编辑)通常是可以接受的,但较高水平的帮助会引发负面看法。 当员工感知到更高水平的人工智能写作时,认知差距尤其显着,从而对经理的作者身份、诚信、关怀和能力产生质疑。 对信任的影响是巨大的:只有 40% 到 52% 的员工认为主管在使用高水平的人工智能时是真诚的,相比之下,低辅助消息的这一比例为 83%。 同样,虽然 95% 的人认为低 AI 主管消息很专业,但当主管严重依赖 AI 工具时,这一比例下降到 69-73%。 调查结果显示,员工通常可以检测到人工智能生成的内容,并将其使用解释为懒惰或缺乏关怀。 当主管严重依赖人工智能来发送团队祝贺或激励沟通等信息时,员工会认为他们不那么真诚,并质疑他们的领导能力。 “在某些情况下,人工智能辅助写作可能会破坏对与主管可信度相关的特征的看法,”科曼指出,并特别提到了对感知能力和诚信的影响,这都是基于认知的信任的关键组成部分。 该研究表明,管理者在写作中使用人工智能之前应仔细考虑消息类型、人工智能辅助水平和关系背景。 虽然人工智能可能适合且专业地接受信息或日常交流,与会议提醒或事实公告一样,需要同理心、表扬、祝贺、激励或个人反馈的以关系为导向的信息可以更好地处理,只需最少的技术干预。
热点推荐
- 在塞尔维亚发现的现实生活中的氪石——以及为什么它可以为未来提供动力
- Lovable 项目在未来 12 个月内获得 $1B 的 ARR
- Anthropic 瞄准 OpenAI,以 1 美元的价格向 Claude 提供“所有三个政府部门”
- 美国宇航局和谷歌正在构建人工智能医疗助手,以保持前往火星的宇航员的健康
- 对 Duolingo 走向“人工智能优先”的强烈反对甚至无关紧要
- NeoLogic 希望为 AI 数据中心构建更节能的 CPU
- 黄金经受住了不可能的高温
- ChatGPT 的模型选择器又回来了,而且很复杂
- 埃隆·马斯克 (Elon Musk) 表示 X 计划在 Grok 的回复中引入广告
- 特斯拉关闭了 Dojo,马斯克称这将是完全自动驾驶的关键人工智能训练超级计算机