human-chatgpts-and-the-vices-of-foggy-thinking

原文Geoff Mulgan

自 ChatGPT 出现以来,关于 AI 如何取代人类或与人类合作的争论一直在进行。在这里,我要讨论的是一个越来越被注意到的稍有不同的现象,如果没有生成式 AI 的存在,我可能不会注意到这种现象:那些行为更像大语言模型的人。这种现象并不新鲜,只是我们现在有了理解它的新方式。正如我所展示的,这种现象在学术界尤其恶劣。

ChatGPT 的强项是,它可以快速地组织出对问题的合理答案,借鉴世界上的各种资料。它将这些资料吸收、综合整理和模仿,有时候能够非常令人信服地,模仿出一个知识渊博的人在讨论某个主题。

当然,它的弱点是,它并不理解任何材料,可能会产生各种错误(关于在综合场景中使用大语言模型的问题,可以参见我在 IPPO 网站上最近的博客)。

现在很多人使用 ChatGPT 来帮助他们完成文章或演讲的初稿。但我更感兴趣的是那些行为像大语言模型的人,即使他们实际上并没有使用它。这些人很聪明,他们吸收了各种表达和构建事物的方式,变得擅长说服人。问题是,如果提出一个深入的问题,你会发现他们几乎没有任何理解。一切都是表面的,没有深度,这都是模仿而非思考。

在学术界的经典例子是 Alan Sokal 的文章《跨越界限:朝向量子引力的转型诠释学》。该文章被 Social Text 期刊接收并发表。这篇文章是故意写得让人觉得合理的,至少对该期刊的学术社区来说是这样。然而,它实际上完全没有意义,只是空洞模仿的完美例子,被它嘲笑的学术社区对此深感怨恨。

Sokal 的这个噱头是一个极端的例子。但他嘲笑的现象并不那么特殊。在许多领域,包括学术界的相当一部分人,也像 ChatGPT 那样行事,特别是在那些不用做太多实证工作、不处理事实或可测试假设的学术学科中——他们仅仅对文本进行评论或解读(就像社会科学和人文学科的大部分人所做的那样),这种模糊的谈话就更有可能成为风险。

我怀疑我们都有点这样,尤其是在职业生涯的早期,当你必须掩盖知识的空白,并努力说服人(并让自己听起来符合你的专业领域)的时候。但我也注意到了,有很多 50 岁以上的人依然是这样。

有很多明显的迹象,它们包括:用非常笼统的术语进行讲话,经常使用聪明的表述、行话和子句;通常很少包含事实;很少有例子,或者非常随意地使用例子,对实际情况没有真正的感受;而且通常没有什么是足够清楚的,可以引起人们的反对。

我过去经常担心,当听到明显是聪明人,以我不理解的方式讲话时,总以为是自己的问题。我只是假设他们比我聪明得多。在一些领域,这仍然是真的——我听过很多关于量子计算的讲座,但仍然很难理解。

但是,我现在意识到,年龄和经验的一个优点是,不理解某人在说什么,有时表明他们也不知道自己在说什么,他们本质上就像一个大语言模型。如果他们曾经像政治家,在媒体中接受采访那样被采访,通过深入的提问:‘你实际上是怎么理解某某的?你刚才说的有什么例子?你最尖锐的批评者会怎么评价你的言论?',这一点就会显而易见。

但这种情况很少发生。最多的情况是,你可能会在一个会议上提交一篇论文,然后有人被要求来做评论;但是之后从来没有严肃的、深入的解剖,我们的媒体上也没有这样的地方,可以对思想进行这样的讨论(我曾向 BBC 提出过这样的节目想法——对流行理论和观念进行深入的检验,但他们更喜欢轻松、有礼貌的讨论)。

一旦你开始思考,就会注意到有那么多像 ChatGPT 的人,而且不仅仅是在学术界的某些领域。这在媒体中也很常见——一些报纸(在英国,像《每日电讯报》、《卫报》或《每日邮报》这样的报纸)有专栏作家,他们本质上就是 ChatGPT 的人类版本:他们提炼出报纸的世界观,并产出完全令人信服的专栏,对世界问题有完全可预见的回应,从不写任何原创的东西,但可能会颇受一些读者欢迎。

几年前,我写了一篇关于领导力中相关现象的博客,称之为“吹泡泡”——即有说服力地说话,而实际上并没有说任何实质性内容的能力。在一些领域,如政治,这是一种重要的技能,而在其他领域,如大学,领导者往往需要具备这种技能。

现在,ChatGPT 基本上向我们展示了如何做到这一点——如何将大量的材料合成为看似合理的词汇流。也许这是无法避免的。但在学术界,这是一种非常不健康的恶习——人们最好是走出去,观察事物,而不只是模仿文本。我在学术界的时间越长,越是珍视那些走出去直接观察世界,而不是通过其他人的文本来间接观察的工作(也许我是受到了工程系的影响,这是一个对废话没有耐心的学科)。

就像我更喜欢被不像机器人一样行动的人所包围一样,也更喜欢听有独立思考能力的人讲话。