依赖 AI写作,大脑会变 “懒”?神经活动下降还记不住内容

发布时间:2025-07-18 00:55  浏览量:1

凡是参加过标准化考试的人都清楚,要在 20 分钟甚至更短的时间里,快速答完一道涵盖内容广泛的论文题,得费不少脑力。要是能不受限制地用人工智能(AI),那肯定能减轻不少这种脑力负担。但麻省理工学院(MIT)研究人员最近的一项研究显示,这种 “帮助” 或许是有代价的。

在一系列论文写作测试中,使用和没使用 Chat GPT 的学生都戴上了脑电图(EEG)设备,用来监测他们写作时的大脑活动。结果总体来看,用了 AI 的学生,其大脑中与创造力和注意力相关区域的神经活动明显更低。而且这些用聊天机器人写论文的学生,要准确回忆并引用自己刚写完的内容,也变得更困难了。

这项发现,是越来越多关于人工智能对创造力和学习能力可能存在负面影响的研究之一。它提出了一个重要问题:生成式人工智能带来的显著短期好处,会不会暗藏着长期的负面影响呢?

麻省理工学院的这项研究,与另外两项备受关注的、关于人工智能使用和批判性思维关系的研究结论相呼应。第一项是微软研究院的研究人员做的,他们调查了 319 名每周至少用一次生成式人工智能的知识型员工。这些受访者讲述了在 AI 帮助下完成的 900 多项任务,从总结冗长的文档到设计营销活动都有。根据参与者的自我评估,其中只有 555 项任务需要用到批判性思维,比如在把 AI 生成的内容发给客户前必须仔细检查,或者在 AI 第一次生成的结果不够好时修改提示词。剩下的任务,基本都被认为是不用费脑子的。总的来说,大多数员工表示,用了生成式人工智能工具(像 Chat GPT、Google Gemini 或者微软自己的 Copilot AI 助手)完成任务,比不用的时候,需要的认知努力更少,甚至少得多。

另一项是瑞士 SBS 商学院教授迈克尔・格利希(Michael Gerlich)做的研究。他调查了 666 名英国人使用人工智能的频率和对 AI 的信任程度,还用一种广泛认可的批判性思维评估方法给他们出了些题。结果显示,使用人工智能频率高的参与者,得分普遍较低。格利希博士说,研究发表后,有几百名高中和大学老师联系他,他们正面临学生越来越多地使用人工智能的问题。这些老师觉得,“人工智能恰恰加剧了他们目前遇到的麻烦”。

从长远来看,人工智能会不会让人类的大脑变得 “懒散”,目前还没有定论。这三项研究的研究人员都强调,还需要进一步研究,才能确定人工智能使用率升高和大脑功能衰退之间是否存在明确的因果关系。比如,在格利希博士的研究中,可能是批判性思维能力强的人本来就不怎么依赖人工智能。而且麻省理工学院的研究样本量不大,总共只有 54 名参与者,并且只聚焦于一项单一任务。此外,生成式人工智能工具的设计初衷就是减轻人们的心理负担,这和很多其他技术一样。早在公元前 5 世纪,苏格拉底就抱怨过,写作不是 “帮助记忆的灵药,而是起到提醒作用的工具”。计算器让收银员不用自己算账单,导航软件让人们不用看地图。但很少有人觉得这些技术会导致人们能力下降。

滑铁卢大学心理学教授埃文・里斯科(Evan Risko)和同事萨姆・吉尔伯特(Sam Gilbert)创造了 “认知卸载” 这个词,用来描述人们把困难或繁琐的脑力任务交给外部辅助工具的行为。他说,几乎没有证据表明,让机器来执行这些脑力任务会改变大脑本身的思考能力。

但让人担心的是,正如里斯科博士所说,生成式人工智能能让人 “把更复杂的一系列思考过程都‘卸载’掉”。把范围有限的算术任务交给机器,和把写作、解决问题这类思维过程交给机器,是不一样的。一旦大脑养成了 “卸载” 的习惯,就很难改掉了。那种总想用最省力的方式解决问题的倾向,被称为 “认知吝啬”,这可能会形成格利希博士所说的反馈循环。依赖人工智能的人会发现,批判性思考越来越难,大脑可能就会变得更 “吝啬”,进而导致更多的 “卸载”。格利希博士研究中的一位重度使用生成式人工智能的参与者就感叹:“我太依赖人工智能了,要是没有它,有些问题我可能都不知道该怎么解决。”

很多公司都期待人工智能的广泛应用能提高生产力,但它也可能带来一些负面影响。东北大学管理学教授芭芭拉・拉尔森说:“从长远来看,批判性思维的衰退可能会导致竞争力下降。” 长期用人工智能还会降低员工的创造力。多伦多大学的一项研究中,460 名参与者被要求为一些日常物品(比如汽车轮胎、裤子)想出有创意的用途。结果显示,那些接触过人工智能给出的创意的人,他们的答案和没接触过的对照组相比,往往缺乏创造性和多样性。

比如说到裤子,聊天机器人建议把干草塞进裤子里,做成半个稻草人 —— 这其实还是把裤子当裤子的类似用法。而没借助 AI 的一位参与者则建议,在裤子口袋里塞些坚果,做成一个新奇的喂鸟器。

保持大脑活跃的方法有很多。拉尔森博士认为,推动人工智能发展最明智的做法,是把它的角色定位成 “一个热情但略显稚嫩的助手”。格利希博士建议,与其让聊天机器人生成最终想要的结果,不如在解决问题的每一步都让它给点提示。比如说,不要直接问 “我该去哪里过一个阳光明媚的假期”,可以先问哪里雨水最少,然后再一步步往下想。

微软的团队成员也在测试 AI 助手,让它们通过 “提出质疑” 来打断用户,促使用户更深入地思考。同样,埃默里大学和斯坦福大学的团队也提议,把聊天机器人重新设计成 “思考助手”,让它给用户提一些探索性的问题,而不是直接给答案。想想看,苏格拉底或许会认同这种做法。

但即便模型构建者调整了界面,让聊天机器人用起来没那么顺手、反应没那么快,这些策略在实际应用中可能也没那么有效,甚至可能有副作用。德克萨斯州阿比林基督教大学的一项研究发现,老是提出质疑的 AI 助手,会让水平较差的程序员在完成简单编程任务时表现更差。

其他能让人们保持大脑活跃的潜在措施更直接,但也更 “强硬”。比如,可能会要求那些太依赖生成式人工智能的用户,先自己想出问题的答案,或者等几分钟再用 AI。研究这些技术的微软研究员扎娜・布钦卡说,这种 “认知强迫” 可能会让用户表现更好,但肯定不受欢迎。“人们不喜欢被逼着做什么事。” 所以,大家很可能会想各种办法绕开这些限制。咨询公司奥纬在 16 个国家做过一项有人口统计学代表性的调查,其中 47% 的受访者表示,就算雇主禁止,他们也会用生成式人工智能工具。

这项技术还处于起步阶段,在很多任务中,人类的大脑仍然是工具箱里最锋利的工具。但随着时间推移,生成式人工智能的使用者和监管者都得评估,它带来的广泛益处是否超过了认知方面的代价。如果有更有力的证据表明人工智能会让人变笨,人们会在乎吗?