你以为AI真的”懂”你?科学家说你想多了

🤖 AI总结

主题

关于新闻报道中描述人工智能时使用拟人化语言的研究与分析。

摘要

研究分析新闻报道中AI拟人化语言的使用,发现其频率较低且效果复杂,强调语境和措辞对公众理解AI能力及责任归属的重要性。

关键信息

  • 1 研究发现新闻写作中AI拟人化语言使用频率低于日常口语。
  • 2 使用‘思考’、‘理解’等心理动词描述AI易夸大其能力并误导公众。
  • 3 拟人化程度存在梯度,语境比词汇本身更能决定其效果。

你以为AI真的"懂"你?科学家说你想多了

“思考”、”了解”、”理解”、”记忆”。

这些都是人们描述人类思维活动的日常用语。然而,当同样的词汇被用于描述人工智能时,可能会在无意间让机器显得比实际更具人性。

“我们在日常生活中经常使用这类心理动词,因此在谈论机器时也自然而然地沿用这些词汇——这有助于我们与机器产生某种关联,”爱荷华州立大学英语系教授乔·麦基维茨表示,”但与此同时,当我们将心理动词应用于机器时,也存在模糊人类与AI能力边界的风险。”

麦基维茨与爱荷华州立大学英语系教学教授、高级传播项目主任珍宁·奥恩共同参与了一项研究,专门探讨作者如何使用拟人化语言描述AI。这种将人类特征赋予非人系统的表达方式被称为”拟人化”。他们的研究成果——《人工智能的拟人化:AI与ChatGPT心理动词使用的语料库研究》已发表于《技术传播季刊》。

研究团队还包括杨百翰大学语言学副教授马修·J·贝克,以及北科罗拉多大学英语系助理教授乔丹·史密斯,两人均曾就读于爱荷华州立大学。

为什么用拟人化语言描述AI会产生误导

研究人员指出,使用心理动词描述AI容易造成错误印象。”思考””了解””理解””想要”等词语暗示系统具备思想、意图或意识。而事实上,AI并不拥有信念或情感,它通过分析数据中的模式来生成回应,而非形成想法或做出有意识的决策。

麦基维茨和奥恩还指出,这类语言可能夸大AI的实际能力。”AI决定了……”或”ChatGPT知道……”之类的表述,会让系统看起来比实际更具自主性和智能。这可能导致人们对AI的可靠性与能力产生不切实际的期待。

此外还存在一个更深层的隐患:当AI被描述为拥有意图时,人们的注意力可能会从真正的责任主体——开发者、工程师和相关机构——身上转移开来。

“某些拟人化的表达甚至会在读者脑海中留下印记,并在无形中以不利的方式左右公众对AI的认知,”奥恩表示。

新闻写作中AI语言的实际使用情况

为了解这类语言的出现频率,研究人员分析了”网络新闻语料库”(NOW语料库)。该数据集规模庞大,收录了来自20个国家、以英语发表的新闻文章,总词量超过200亿。

研究人员重点考察了”学习””意味着””知道”等心理动词与AI、ChatGPT等词语同时出现的频率。

研究结果出人意料。

心理动词的出现频率远低于预期

研究发现,新闻作者并不频繁地将AI相关术语与心理动词搭配使用。

尽管拟人化表达在日常口语中十分普遍,但在新闻写作中却鲜少出现。”拟人化在日常口语中已被证实相当常见,但我们发现其在新闻写作中的使用频率要低得多,”麦基维茨说。

在已识别的案例中,”需要”一词与AI搭配出现的频率最高,共661次。而与ChatGPT搭配最频繁的是”知道”,但也仅出现了32次。

研究人员指出,编辑规范可能在其中发挥了作用。美联社的报道准则明确不鼓励将人类情感或特征归于AI,这或许在一定程度上影响了记者的写作方式。

语境比词汇本身更重要

即便使用了心理动词,也未必构成拟人化表达。

例如,”需要”一词通常用于描述基本需求,而非人类特质。”AI需要大量数据”或”AI需要一定程度的人工辅助”等表述,与人们描述汽车或食谱的方式相近,并不暗示AI拥有思想或欲望。

另一些情况下,”需要”被用于表达”应该做什么”,如”AI需要被训练”或”AI需要被部署”。奥恩解释说,这类表达通常采用被动语态,将责任引导回人类行为者,而非技术本身。

拟人化程度存在差异梯度

研究还表明,心理动词的使用并非非此即彼,而是存在程度上的差异。部分表述更接近暗示人类特质。

例如,”AI需要理解真实世界”这样的表述,可能隐含着与人类推理、伦理或意识相关的期待,超越了简单的功能性描述,开始暗示更深层的能力。

“这些案例表明,拟人化并非全有或全无,而是存在于一个连续的谱系之中,”奥恩说。

AI语言选择为何至关重要

总体而言,研究人员发现新闻报道中的拟人化现象,既没有人们通常认为的那么普遍,也远比想象中更为复杂微妙。

“总体来看,我们的分析表明,新闻写作中AI的拟人化程度远比我们想象的要低,也更具细微差别,”麦基维茨说,”即便是那些确实存在拟人化的案例,其程度也存在较大差异。”

研究结果凸显了语境的重要性——单纯统计词频并不足以理解语言如何影响意义的构建。

“对于写作者而言,这种细微之处至关重要:我们所选择的语言会影响读者对AI系统、其能力以及背后责任主体的理解,”麦基维茨说。

研究团队还强调,这些发现可以帮助专业人士在工作中更审慎地思考如何描述AI。

“我们的研究成果有助于技术与专业传播从业者反思,如何将AI技术视为写作过程中的工具,以及如何更恰当地撰写关于AI的内容,”研究团队在已发表的论文中写道。

随着AI持续发展,人们谈论AI的方式将始终是一个值得关注的重要议题。麦基维茨和奥恩表示,写作者需要始终保持对词语选择如何影响公众认知的警觉。

展望未来,研究团队建议后续研究可进一步探讨不同词汇如何影响人们的理解,以及即便是偶尔出现的拟人化语言,是否也会对公众看待AI的方式产生深远影响。

Q&A

Q1:什么是AI拟人化?为什么会产生误导?

A:AI拟人化是指用”思考””理解””想要”等描述人类心理活动的词汇来描述AI系统。这类表达容易让人误以为AI具备思想、意图或情感,而实际上AI只是在分析数据模式并生成回应,并不具备真正的意识或信念。这种误导可能导致人们对AI能力产生不切实际的期待,也可能转移公众对AI背后真正责任主体的关注。

Q2:新闻报道中拟人化语言使用频率高吗?

A:根据对超过200亿词的”网络新闻语料库”分析,新闻写作中拟人化语言的使用频率远低于日常口语。与AI搭配最多的心理动词”需要”仅出现661次,与ChatGPT搭配最多的”知道”只出现32次。研究者认为,美联社等媒体的编辑规范不鼓励将人类情感归于AI,这可能对记者的写作习惯有所影响。

Q3:同样是使用心理动词,表达效果都一样吗?

A:并不一样。研究发现,拟人化程度存在差异梯度。比如”AI需要大量数据”只是描述功能需求,不构成真正意义上的拟人化;而”AI需要理解真实世界”则暗示了与人类推理相关的能力期待,拟人化程度更强。因此,语境比词汇本身更能决定一句话是否具有拟人化效果。

© 版权声明

相关文章