语文教育教学

DeepSeek用久了,我们的大脑会变“懒”吗?听听权威机构怎么

2025-02-15  本文已影响0人  人间小书童

从年前到现在,DeepSeek已经火到了极点,甚至听到很多同学在谈论想要转行做DeepSeek,那一刻,确实惊到我了。其实DeepSeek只是这波AI大潮中的一员,按照AI行业的发展速度,估计要不了两个月,就会有新的AI焦点涌现出来。

但是,不得不说,这波DeepSeek让很多之前从来没有用过AI的人,也开始用AI写文章、查信息、写脚本、分析图片和文档,甚至用来算命、看化验单等等。同时我也看到了一些同学的担心,那就是如果长时间使用AI,会不会让我们的思考能力退化?如果孩子都用AI查作业、写文章,未来他们走到考场上,没有AI使用了,该怎么办?

不过,这不仅仅只是我们关注。有很多研究学习理论或者脑科学的团队,也在关心这个话题,就是“生成式AI会让你的大脑变懒吗?”

最近我看了一篇论文,是微软研究院和卡内基梅隆大学的团队做的研究,他们调查了319位经常在工作中使用AI的上班族,职业有程序员、教师、护士、设计师等,收集到了936个真实使用的案例。

他们的这个调查,主要集中在两个问题上,第一个是用AI工作时,人们什么时候会动脑子思考?第二个是AI会让动脑这件事情变得更轻松还是更困难?

简单的给大家分享这篇论文里的内容,里面有四个值得我们反思的发现。

第一个发现是“越相信AI,大脑越偷懒”。这句话怎么理解呢?就是在所有的案例里,有59%的用户完全相信AI输出的内容,不进行检查。

这个场景其实就像在考试时,这是一门你特别擅长的学科,但是因为你旁边的学霸跟你的答案不一样,你就完全相信学霸写的答案,毅然改掉了自己的正确选项。

在使用AI时也是一样的,最近我看到很多人因为DeepSeek的火爆,开始用它写的内容来更新自己的公众号。但是有些文章里的内容,内行人一看就是错误百出。

尽管DeepSeek这次推出的R1推理模型,在思考能力上的确非常厉害。不过,万事都有正反两面。R1模型出现幻觉的比例也非常高,不仅是自己前一个模型的4倍,同时也高于同类产品的平均水平。

这里面的原因其实也容易理解,我们都认识一些学霸,他们哪怕拿到一些很简单的问题也会马上往复杂的地方想。因为懂得太多了,老想着“不可能有这么简单的题目吧”。不像我们学渣一样,能看懂题目并且写出一种解法就不错了,压根不会想那么多。

我们不应该低估AI的能力,但是同样也不应该高估AI的能力。调研数据显示,对AI盲目自信的人,主动检查AI准确性的概率会比其他人低69%。所以,无论是用AI写一个大纲,还是写一封邮件,或者是写一段代码,我们一定不能让大脑偷懒,完全相信AI的输出。

第二个发现是“自信的人更较真,也更累”。有些用户在使用AI时特别较真AI给出的答案,而这种情况在经验丰富的用户身上尤其明显。例如在资深程序员这个群体里,有75%的人会仔细检查AI生成的代码,这个过程无疑会非常费力。还有一位护士,她用AI帮自己写糖尿病护理手册,但输出完后,她会一条条对照医院的指南,确保内容百分之百正确。

论文中写的第三个发现,写的非常模糊,叫做“AI改变了工作方式”。其实,它说的是,AI改变了工作中的一些环节,让部分工作变得更省力,另外一些则更费力。

关于省力的部分,有72%的受访者选择了“找资料更快”这个选项。这里的找资料涵盖面比较广,比如“用AI快速整理市场报告”“自动生成邮件或者PPT初版内容”。

而费力的部分,是需要检查AI的“胡编乱造”。其中,有56%的受访者要花更多的时间去验证AI给出的信息。也要花时间去调整AI输出语言的风格,例如把一些夸张或者华丽的语气,变得比较口语化。

第四个发现是“存在可能会变傻的长期风险”。不过,因为这种调查无法用智商测试等方式拿到量化指标,所以研究团队只是强调在一种情况下,存在会“变傻”的长期风险。这种情况就是有60%的用户在写简单的邮件、或者是总结会议纪要时,会直接相信AI的输出,自己不会进行思考或者检查。

针对这个现象,研究团队表示,尽管目前没有证据证明使用AI会让人变傻,但长期来看,确实存在这种风险。它主要体现在基础能力的退化上。

举个例子,如果我们平时总是依赖计算器,突然被要求手算,可能就不会了。包括我们经常打字的人,突然要用笔写字,也可能会忘记一些特别简单的字怎么写。

在论文的结尾,研究团队给出了三条针对普通人使用AI的小建议。

第一是在高风险任务中,例如医疗、法律等方面的任务,必须进行人工核对。之前就有AI给律师编造了一堆不存在的判决案例。

第二是在一些低风险任务中,例如写邮件或者摘要等环节,要跟AI进行互动,这个互动最好是“反问”或者“抬杠”。例如在写东西时,可以说“这段话需要补充什么数据吗?”做决策的时候,可以说“你考虑过相反的情况吗?”

其实对于这个建议,我还有一个补充,那就是你可以选另一款AI工具当你的杠精。比如,当你写完一篇文章后,可以让这个AI充当挑剔的读者,运用批判性思维来给文章挑刺、提出尖锐的意见。这样一来,你就能提前发现文章中的逻辑漏洞,避免发布后被人指出。而当你已经被AI“恶狠狠地骂过一次”后,再发到网上或者朋友圈,再被骂的时候,你的内心反而会充满了怜悯:“你太可怜了,连骂人都没AI毒。”

第三个建议是遇到难题不要马上问AI,自己先思考。你可以先在笔记或者文档里,整理自己知道的信息和背景,思考如何询问AI能获得自己想要的内容。如果有条件的话,可以每周完成几个完全不用AI的写作任务。

其实,这项研究通篇都在说一个简单的道理。那就是我们可以使用AI,但是不能盲目地依赖AI。无论是任务的发起,还是推进和产出,我们自己才是第一责任人。如果我们长期不动脑子,万一有一天AI出了问题,我们可能就会措手不及。

上一篇 下一篇

猜你喜欢

热点阅读