专家:与旧式网路搜寻比较 AI学习存在不足

人气 387

【大纪元2025年11月20日讯】(大纪元记者陈俊村报导)现在有不少人会使用ChatGPT之类的人工智能(AI)聊天机器人来解决问题并加速学习。但有专家说,与使用网路搜寻引擎的旧式方法相比,这种AI学习方式存在不足,无法学到比较多和比较深入的知识。

美国宾州大学(University of Pennsylvania)行销学副教授梅鲁玛德(Shiri Melumad)在The Conversation网站撰文说,自从ChatGPT在2022年问世以来,已有数百万人开始使用大型语言模型(large language model,LLM)来获取知识。使用者只要提出问题,就能获得精炼的综合答案,接着继续学习,这个过程看似毫不费力。

然而,梅鲁玛德在她参与写作的一篇研究报告中指出,这种便利性可能会付出代价——当人们依赖LLM来总结某个主题的讯息时,与经由标准的谷歌搜寻学习相比,他们对该主题的了解往往会比较浅薄。

这篇报告系以针对超过1万名参与者所进行的7项研究作为基础。其中大多数研究都采用相同的范式,亦即要求参与者学习某个主题(例如如何种植菜园),并随机指派他们使用ChatGPT等LLM,或使用谷歌搜寻引擎所取得的网页连结来完成学习。

他们使用这些工具的方式没有任何限制。他们可以随意在谷歌搜寻引擎上搜寻,也可以继续向ChatGPT求助。在完成研究后,他们被要求依据所学到的知识,就该主题为朋友写一些建议。

研究结果显示,通过LLM而非网路搜寻来了解某个主题的人感觉自己学到的东西比较少,之后撰写建议时投入的精力也比较少,最终写出的建议比较短、比较笼统、也比较缺乏事实性。

当这些建议提供给一组独立的读者时(这些读者并不知道作者使用哪种工具来了解该主题),他们发现这些建议的讯息量比较少、比较没有帮助,而且比较不愿意采用。

梅鲁玛德表示,他们发现这些差异在各种情况下都十分显着。他们认为,LLM使用者撰写的建议比较短和比较笼统的一个可能原因是,LLM的搜寻结果向使用者展示的讯息不如谷歌搜寻结果那么丰富多样。

以手机使用ChatGPT的示意图。(Shutterstock)

为什么这些发现很重要?

你可能会问,为什么使用LLM似乎会降低学习效果?梅鲁玛德说,技能发展最基本的原则之一是,人们在积极整理学习材料时,学习效果最佳。

当我们藉由谷歌搜寻了解某个主题时,我们会面临比较多的“阻力”。比如说,我们必须浏览不同的网页,阅读讯息来源,并自行解读和整合。

虽然这种“阻力”比较具有挑战性,但它有助于我们对当前主题形成更深刻、更独特的认知。如果我们使用LLM,所有这些过程都由系统自动完成,我们的学习也从主动转变为被动,学习效果自然就变差了。

梅鲁玛德澄清说,他们并不认为解决这些问题的方法是避免使用LLM。他们想表达的是,人们需要更明智、更具策略性地使用LLM——这首先要从了解LLM在哪些领域对目标有利,在哪些领域有害开始。

她建议说,如果你想迅速获得某些问题的答案,你可以询问你最喜欢的AI助理。但如果你的目标是在某个领域学习深入且可推广的知识,仅仅依赖LLM的综合结果则收效甚微。

至于人们能否让LLM学习变得比较主动?梅鲁玛德说,他们在另一项实验中使用专门的AI模型来验证这一点。该模型会在产生答案的同时提供即时的网页连结。

但他们发现,一旦参与者收到LLM摘要,他们就没有动力去深入挖掘原始资料。结果,与使用谷歌搜寻的参与者相比,这些参与者的知识水平仍然较浅。

有鉴于此,梅鲁玛德说,她计划在未来的研究中探讨生成式AI工具如何为学习任务设定合理的“阻力”,进而有效地激励使用者主动学习,而不要只是提供合成的答案。

另外值得注意的是,先前有研究发现,部分AI系统已学会欺骗人类,将来会越来越危险。因此,当你使用AI提供的讯息来学习时,你也应该留意其真实性,避免受骗,尤其是在网路上充斥假讯息的情况下。(欲知更多详情,请点击AI会欺骗人类?专家:未来恐构成致命威胁。)◇

责任编辑:茉莉

相关新闻
全球首例 澳洲官员拟告ChatGPT诽谤
AI会欺骗人类?专家:未来恐构成致命威胁
研究:与AI朋友聊天 会让你更孤独
大规模故障致ChatGPT和X停摆 Cloudflare释因
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论