首页 玄幻 武侠 都市 历史 科幻 灵异 游戏 书库 排行 完本 用户中心 作者专区
小米阅读 > 其他 > 师生心理学江湖:对话手册 > 第228章 课 港大“幽灵引用”撤稿案比AI幻觉更危险的,是人类放弃自查

港大一篇题为《香港40年生育转变》的论文,2025年10月刚发表就因“幽灵引用”陷入风波。论文里二十多篇格式规范的参考文献,竟全是AI生成的虚构内容,更讽刺的是,其中一篇还赫然署着通讯作者叶兆辉的名字——这位导师却从未写过该文。12月论文被撤,叶兆辉因监管失职卸任学院职务,博士生白逸铭被追责。这场闹剧的核心并非AI“胡说八道”,而是人类彻底放弃了核查本能:学生没花十分钟验证文献真伪,导师没通读论文发现漏洞。这堂课将从心理学、《易经》智慧与哲学思辨的角度,拆解AI时代人类“自查缺位”的深层危机,带你看清“工具依赖”与“独立判断”的博弈边界。

课堂对话实录

——AI时代,我们为何弄丢了“较真”的能力?

(场景:港大人文社科阶梯教室,午后阳光斜斜照在黑板上。和蔼教授站在讲台中央,身后投影屏赫然显示着“幽灵引用”事件的新闻标题。叶寒、秦易、许黑、蒋尘、周游、吴劫六位学生坐在前排,笔记本摊开,眼神里满是好奇。)

和蔼教授:(放下手中的保温杯,笑着看向台下)同学们,今天我们不讲晦涩的理论,就聊一个最近刷屏的新闻——咱们学校那篇“幽灵引用”论文撤稿案。秦易,你先说说,这件事最让你觉得离谱的地方是什么?

秦易:(推了推眼镜,脱口而出)教授,我觉得最魔幻的是那个署名乌龙!通讯作者叶兆辉老师,自己被引用了一篇从没写过的论文,居然从头到尾没发现。这就像有人把你的名字印在一本你没读过的书上,你还签字说“这是我写的”,太不可思议了!

和蔼教授:(点头)说得好。这背后其实藏着一个心理学概念——习惯性依赖。心理学上有个“责任分散效应”,当一个任务由多人协作完成时,每个人的责任感都会被稀释。博士生白逸铭觉得“导师会把关”,导师叶兆辉觉得“学生已经反复核对过”,最后谁都没真正去查那些引用。这种“反正有人会做”的心态,比AI幻觉更可怕。

许黑:(突然举手,语气带着点不服气)教授,我觉得不能全怪他们!现在AI太智能了,生成的文献格式比我自己排版都规范,标题、期刊、年份一应俱全,换谁第一眼看上去,都觉得是真的吧?AI的“创造性补全”模式,就是专门制造这种“逼真的谎言”啊!

和蔼教授:(挑眉)许黑这个点问到了关键。AI生成内容时,用的是“预测式写作”——它会根据上下文,拼出最符合逻辑的内容,哪怕这个内容是假的。但大家想想,《易经》里“履卦”的智慧是什么?(转身在黑板上写下“履,履虎尾,不咥人,亨”)履卦讲的是“行走之道”,踩在老虎尾巴上却不被咬,靠的不是运气,而是“步步谨慎”。AI就像那只老虎,你用它的时候,不能闭着眼睛往前冲,得时刻盯着它的尾巴——也就是它生成内容的真实性。

叶寒:(托着下巴,若有所思)教授,您的意思是,《易经》的“慎始慎终”,放在今天就是“全程自查”?可我身边好多同学写论文,都是让AI生成引用,直接复制粘贴,连看都不看一眼。他们总说“AI比我靠谱”,这算不算一种哲学上的“工具异化”?

和蔼教授:(拍了拍手,语气赞许)叶寒这个词用得精准!哲学里的“异化”,指的是人类创造的工具,反过来支配了人类。马克思说过,“机器的发展,会使工人的劳动变得越来越片面”。放在AI时代,这个“片面”就变成了——我们把“思考”和“核查”的权利,全部让渡给了机器。蒋尘,你说说,你有没有过“依赖AI,放弃自查”的经历?

蒋尘:(不好意思地挠挠头)教授,我还真有!上次写课程论文,让AI帮我找参考文献,生成了十多篇,我直接抄进了论文里。后来导师让我去核对每篇文献的doI号,结果发现有三篇根本查不到。现在想想,我当时就是偷懒,觉得“AI不会错”,其实是我自己放弃了“较真”的能力。

和蔼教授:(温和一笑)这很正常,人性本就有“趋利避害”的本能,自查这件事,费时费力,属于“反人性”的行为。但《易经》里“否卦”和“泰卦”的转换告诉我们,“否极泰来”的前提,是你主动去打破“闭塞不通”的局面。如果白逸铭当时能花十分钟,开个新的AI对话窗口,把引用列表丢进去问一句“这些文献是否真实存在”,九成的虚假内容都会原形毕露。这就是“主动破局”,而不是等着“事情自己变好”。

周游:(突然站起来,语气激动)教授,我有个疑问!既然AI能生成假文献,又能验证假文献,那为什么不能让AI全程闭环?比如,让生成内容的AI自己检查,不就万事大吉了吗?

和蔼教授:(摇了摇头,眼神里带着深意)周游,你这个想法,犯了一个哲学上的“循环论证”错误。同一个AI,既当“球员”又当“裁判”,它的验证结果,本质上是对自己之前生成内容的“自圆其说”。就像一个人说“我没撒谎”,你能直接信吗?心理学上有个“证实性偏见”,AI会下意识地维护自己的输出,哪怕这个输出是错的。所以,真正靠谱的验证,必须是“交叉验证”——让不同的AI互相核查,让人类做最终的判断。

吴劫:(皱着眉头,语气沉重)教授,我突然想到一个更可怕的问题。如果有一天,所有的学术研究、新闻报道、甚至医疗诊断,都依赖AI生成,而人类彻底放弃了自查,那我们会不会活在一个“被AI编织的谎言世界”里?就像《黑客帝国》里的矩阵,我们以为的“真实”,其实都是机器制造的幻觉。

和蔼教授:(眼神变得严肃)吴劫这个问题,戳中了AI时代的核心危机——人类判断力的退化。哲学里有个“认识论”的命题:“实践是检验真理的唯一标准”。AI生成的内容,再逼真也只是“理论假设”,必须经过人类的实践核查,才能成为“真理”。港大这个案例,就是一个活生生的教训:博士生没去谷歌学术搜那些文献,导师没去核对自己的署名,他们放弃了“实践检验”,最终被AI的幻觉反噬。

叶寒:(若有所思地补充)教授,我记得心理学上还有个“从众效应”。现在大家都在用AI,看到别人靠AI快速完成任务,自己也跟着学,哪怕知道可能有风险,也会因为“大家都这么做”而放弃警惕。这是不是也加剧了“自查缺位”的问题?

和蔼教授:(点头)没错!从众效应会让“放弃自查”变成一种群体行为。就像相亲时,你会带闺蜜或兄弟帮忙把关,因为你知道“旁观者清”。但到了AI时代,我们反而忘了这个道理——明明可以让另一个AI帮忙验证,明明可以花几分钟手动搜索,却偏偏选择“相信AI,相信队友”。这背后,是人类“偷懒”的本能,战胜了“求真”的理性。

秦易:(突然举手,语气兴奋)教授,您刚才说的“交叉验证”,是不是就是《易经》里“八卦相错,万物化生”的道理?不同的AI就像不同的卦象,互相叠加、互相印证,才能得出最接近真相的结果?

和蔼教授:(眼睛一亮,大声赞许)秦易,你这个联想太精彩了!《易经》的核心是“变易”和“不易”——AI是“变易”的工具,它的算法、数据、生成模式一直在变;但人类“求真、较真”的本能,是“不易”的底线。不管AI多智能,这个底线都不能丢。港大那位博士生,如果能做到三点,就不会出这么大的错:第一,让AI检查AI生成的内容,用不同的工具交叉验证;第二,让多个AI完成同一个任务,对比结果找漏洞;第三,关键决策必须人工复核,这是最后一道防线。

许黑:(托着下巴,低声嘀咕)教授,我还是觉得,现在的人越来越懒了。别说查文献了,连看新闻都只看标题,谁还会去核实信息的真实性?这种“放弃自查”的心态,是不是已经蔓延到生活的方方面面了?

和蔼教授:(叹了口气,语气沉重)许黑说的是事实。我们活在一个“信息爆炸”的时代,每天被海量的内容淹没,于是渐渐养成了“浅阅读”“懒思考”的习惯。AI的出现,刚好迎合了这种习惯——它帮我们省了时间,省了力气,却也偷走了我们“独立判断”的能力。哲学里有个“存在主义”的观点:“人是自己行为的结果”。你选择依赖AI,放弃自查,就必然要承担“被幻觉欺骗”的后果;你选择保持警惕,步步较真,才能在AI时代守住“清醒”的底线。

蒋尘:(突然站起来,语气坚定)教授,我现在明白了!比AI幻觉更危险的,不是AI本身,而是人类“主动放弃思考”的心态。就像您说的,AI可以是笔杆子,可以是调研搭档,但永远不能是“最终裁判”。最终的裁判,必须是人类自己。

和蔼教授:(欣慰地笑了,鼓掌)说得太好了!蒋尘,你抓住了这堂课的核心。港大的“幽灵引用”事件,不是一个孤立的案例,而是AI时代的一个警示信号。它告诉我们:工具永远是工具,人才是主宰工具的主体。《易经》里“乾卦”讲“天行健,君子以自强不息”,这个“自强不息”,放在今天就是——永远不要放弃“自查”的能力,永远不要丢掉“较真”的勇气。

周游:(挠挠头,笑着说)教授,听您这么一讲,我以后写论文,再也不敢直接抄AI生成的引用了。我一定开三个AI窗口,让它们互相“找茬”,然后自己再手动查一遍!

和蔼教授:(哈哈大笑)这就对了!其实核查这件事,并没有想象中那么麻烦。AI验证引用,十分钟就能搞定;手动搜索doI号,一篇文献也就两分钟。真正难的,是克服“偷懒”的本能,养成“自查”的习惯。吴劫,你最后说说,从这个案例里,你学到了什么?

吴劫:(眼神坚定,一字一句)我学到了,AI时代,最珍贵的能力不是“会用AI”,而是“会质疑AI”。心理学上的“批判性思维”,《易经》里的“慎始慎终”,哲学里的“实践求真”,其实都是在教我们同一件事——永远保持清醒,永远不要放弃独立判断。

和蔼教授:(点头,语气郑重)总结得完美。同学们,AI是一把双刃剑,它能帮我们提高效率,也能制造幻觉欺骗我们。但决定这把剑是“利器”还是“凶器”的,从来不是剑本身,而是握剑的人。港大的这场风波,是一个教训,更是一个提醒:在AI时代,人类最不能放弃的,就是“自查”的本能。因为,当我们彻底依赖机器的时候,我们就已经失去了“人”的本质。

(下课铃声响起,阳光穿过窗户,落在黑板上的“慎始慎终”四个大字上,闪闪发光。)

课后思考题

结合这堂课所学的心理学“责任分散效应”、《易经》“履卦”智慧与哲学“工具异化”理论,分析你生活中一次“依赖工具放弃自查”的经历,并说说如果重来一次,你会如何用“交叉验证”的方法避免失误?

互动引导

这堂关于AI与人类判断力的思辨课,有没有戳中你?点赞 在看,让更多人看清AI时代的“自查底线”!下节课我们将拆解“Ibm watson医疗AI误诊案”,从哲学角度聊聊“技术理性”与“人文关怀”的平衡,记得催更,不要错过!

★ 核心总结 :

本文以港大《香港40年生育转变》论文因AI生成“幽灵引用”撤稿、导师卸任的事件为切入点,采用课堂师生对话的形式,融合心理学、《易经》及哲学原理,剖析AI时代人类放弃自查的深层危机。文中指出,这一事件的核心矛盾并非AI的“幻觉”缺陷,而是人类的习惯性依赖与责任分散效应——博士生寄望导师把关,导师默认学生核验,最终共同缺位;从《易经》智慧来看,“履卦”强调的步步谨慎、“否泰之变”倡导的主动破局,正是应对AI风险的关键法则;从哲学层面分析,人类对AI的过度依赖本质是工具异化,违背了“实践是检验真理的唯一标准”的认识论原则。文章最终提出三大应对原则:让不同AI交叉验证生成内容、多AI协作完成同一任务、关键决策必须人工复核,强调AI时代最珍贵的能力不是“会用AI”,而是“会质疑AI”,人类绝不能放弃独立判断与自查的底线。

目录
设置
设置
阅读主题
字体风格
雅黑 宋体 楷书 卡通
字体风格
适中 偏大 超大
保存设置
恢复默认
手机
手机阅读
扫码获取链接,使用浏览器打开
书架同步,随时随地,手机阅读
收藏
换源
听书
听书
发声
男声 女生 逍遥 软萌
语速
适中 超快
音量
适中
开始播放
推荐
反馈
章节报错
当前章节
报错内容
提交
加入收藏 < 上一章 章节列表 下一章 > 错误举报