首页 > 资讯 > 商业 > 正文
2023-12-07 07:44

美国最聪明的人工智能乐观主义者

一页小说可以涵盖1000年的故事时间;1000页的故事可以在瞬间发生。这是一种奇妙的魔力,它深深困扰着那些研究文学的人。专家们花了数年,甚至数十年的时间,试图测量大多数楼内时钟的运行速度。他们乏味地数着成千上万本书的字数;他们费力地手工编写计算机程序来测量虚构时间的流逝。然而,尽管他们竭尽全力,但在小说平均每页篇幅多少这样简单的问题上,他们无法达成一致。

去年ChatGPT这样做的时候,感觉很酷。

给定一个精心设计的提示和一段小说,ChatGPT可以摄取文本,并快速准确地估计出这段文字经过了多长时间。一大块《简·爱》?大约一个星期。和《酣睡》里一样长的一段?七十五分钟。机器人计算出,在过去的几百年里,文学时间一直在放缓。页数:覆盖一整天的平均页数;现在它只能勉强撑过一个小时。

广告

这个精心设计的提示来自伊利诺伊大学的英语教授泰德·安德伍德。在一个充满人工智能怀疑论者和聊天机器人危言耸听者的世界里,安德伍德正在为人工智能的价值提出最有力、最令人信服的理由之一。虽然有些人(包括我)担心人工智能是一个虚构、抄袭、传播偏见的狗屁引擎,可能会导致我们所知道的文明的终结,但安德伍德非常肯定,人工智能将帮助我们所有人更深入地思考,帮助学者们发现有关人类文化大浪潮的令人兴奋的新真相。与大型语言模型(聊天机器人引擎盖下的软件)合作,使他成为人文学科中最罕见的东西:一个人工智能乐观主义者。

需要明确的是,聊天机器人不会阅读,安德伍德知道这一点。他们对菲利普·马洛侦探有多好没有意见。但机器人可以完成各种各样的解释性任务,这些任务曾经是超负荷学习的文学学生的论文素材。安德伍德相信,从这些数据中,我们最终能够看到更大的图景——一个只有通过调查和分析数百种语言的数百年文学才能掌握的图景。

安德伍德说:“我们确实不知道的东西很重要,但往往规模更大。”“我们看不见它,因为它就像地平线的曲线。你需要保持一定的距离。”安德伍德认为,达到这种距离的最好方法,是在tb级的人类文字上训练语言的数字模型。

换句话说,就是使用人工智能。


安德伍德的父亲是一名计算机科学家,安德伍德小时候就学会了编程。但在20世纪90年代,就在个人电脑开始改变世界的时候,安德伍德决定——用他自己的话说,是在“完美的时机”——去读英语研究生。

作为一名学生,安德伍德试图使用数字工具来分析文学。但在那些日子里,没有任何包含足够文本的数据库来实现它。从本质上讲,最早的计算机并不像普通的文学研究生那样博学。

然后是谷歌图书。谷歌将世界上所有的出版材料都纳入其永不满足的信息汪中,这对图书馆或作家来说可能不是一个伟大的发展,但对数据科学家和像安德伍德这样有数据头脑的文学分析师来说,这是超级酷的。

在谷歌出现之前,数字文献分析与模拟文献分析非常相似:阅读、反应,可能还会计算你正在研究的东西(地点、代词、金钱等)的出现次数。但现在,有了谷歌图书,安德伍德可以创建统计模型,而不是段落或书籍,而是整个类型。科幻小说、推理小说、爱情小说——具体来说,是什么让它们彼此不同?他的书《遥远的地平线》试图回答这个问题。《科学怪人》(Frankenstein)和《世界大战》(The War of The Worlds)之类的书是科幻小说吗?尽管它们写于编辑雨果·根斯巴克(Hugo Gernsback)创造这个词之前?事实证明是这样的。通过测量像浩瀚和无限这样崇高的、大规模的事物的出现,以及像人类代词和大数字这样平凡的事物,安德伍德能够分辨出哪个是最科学的。

广告

《遥远的地平线》在2019年上映后不久,像ChatGPT这样的大型语言模型就出现了。这对文学分析游戏的改变甚至超过了谷歌图书。法学硕士在最基本的层面上是通过计算出哪个单词最有可能出现在哪个单词之后的统计概率来运作的。他们不“理解”或“知道”任何事情。他们只是把文字转换成数字并解方程。但在他们大量的、无意识的计算过程中,他们也会根据上下文计算单词之间的联系有多紧密。

在语言学中,词语从语境中获得意义的观点被称为分布语义学。这个概念或许可以解释为什么法学硕士表现出一些看似令人惊讶的能力,比如能够分辨出一大堆著名事件发生的地点和时间,或者推断颜色之间的关系(比如,橙色更像红色而不是蓝色)。语言是各种知识和文化智慧的编码,法学硕士是语言的编码。

这是一种严肃的哲学。语言不仅仅是交流;它是思想的基质,是文化的载体。安德伍德认为法学硕士们正在顺应这股潮流。对于学者来说,阅读、写作、学习语言的意义不仅仅是写一篇文章或评论一首诗,而是要弄清楚我们在想什么,以及如何最好地表达它。安德伍德希望,法学硕士拥有复杂的语言统计模型,或许能帮助我们发现对自己思维的新见解。在他看来,他们不仅仅是随机地模仿消息来源,不是因为他们在“思考”,而是因为我们在那里倾听他们的声音。

安德伍德说:“我不是那种认为这些模特可能有轻微意识的人。“但我确实认为他们的声明是有意义的。我不是说机器里有意识。我的意思是,我在描述我和电脑之间的互动。”

安德伍德显然对这种人工智能与人类的伙伴关系可以为文学提供的见解感到兴奋。他说道:“我们将能够讨论情节和角色动机等内容。“不只是‘数一数钱在文本中出现的次数’,还要问这些钱在情节中扮演了什么角色。”人工智能甚至可以模拟一些难以形容的东西,比如让人们不断翻页的东西——让斯蒂芬·金(Stephen King)的小说让人无法放下的东西。它可能会解开最擅长生成……

悬念!在大型语言模型上训练的人工智能将能够在我们喜欢阅读和讲述的故事中最有趣的部分获得新的见解。也许这听起来像是只有象牙塔里的人才会喜欢的东西。谁会关心诸如量化悬念或记录文学时间之类的东西呢?但安德伍德的观点是,人工智能可以帮助将过于稀薄的文学批评世界带回现实。“我们关心这些东西,因为人们喜欢故事,”他说。“我们应该把这作为我们工作的核心。”


然而,即使是与我们的机器人霸主的善意联盟也是有争议的。分布语义学不是思考语言和意义的唯一方法。还有一种“指称”的方法,基本上是说,单词的意思是它们所谈论的——实际的事情。如果这是真的,法学硕士太蠢了。

广告

大学时我在东京住了一个学期,在一个当地家庭度过了一个星期。有一天,当我们开车外出时,儿子和女儿给了我一块糖果。但是要小心,他们警告我,因为糖果很(一个我不知道的词)。我让他们再说一遍,以及这是什么意思,但我的日语不太好,听不懂他们的话。

最后,我把糖果吃了,结果是一种有毒的酸柠檬味。我就是这样不可磨灭地学会了“suppai”的意思是“酸的”。

35年后的今天,suppai对我来说不仅仅是“酸”。它是“我在东京郊区的一辆汽车后座上吃的超级柠檬糖。”这比我在字典里查到的任何东西都要重。

没有人工智能可以那样学习。这就是为什么很难相信他们。人类给语言带来的不仅仅是词汇。华盛顿大学(University of Washington)的计算语言学家艾米丽·m·本德(Emily M. Bender)对法学硕士的危险提出了警告,她说:“如果你所拥有的只是单词的分布,那么它就非常平坦。”没有人否认分布语义学的存在,意思相似的词出现在相似的上下文中。这是下一步,‘因此这个东西有一个世界的模型’,这就成了问题。”

关键是训练数据中的实际内容——语言模型中的“大”。如果研究人员只是使用ChatGPT这样的机器人来得出关于《安娜·卡列尼娜》或《分崩离析》的结论,那就有大问题了。因为这些机器人背后的公司对他们的数据大多保密,这使得任何基于它们的研究都是可疑的。机器人从哪些文本中学习?哪些文化假设支撑了他们的分析?他们的盲点是什么?研究人员无从知晓。

但是,如果研究人员训练聊天机器人学习他们感兴趣的特定文本——如果他们管理聊天机器人的饮食——那么,你可能就有了一个学术上的强大工具。安德伍德说,大学和学者应该集中资源,根据他们的研究需求,从特定的材料中建立自己的大型语言模型。一个新的法学硕士,MonadGPT,接受了来自17世纪或更早的11,000篇文章的训练。从理论上讲,它可以代表17世纪的思维方式,这是人类无法做到的。

安德伍德说:“我认为,我们训练能够模拟多种视角的语言模型是非常重要的。”“如果这些被用于教育,我们绝对不希望学生离开时认为世界上有一种公认的智慧。”

安德伍德这样的做法有很多可能导致可怕的错误。如果法学硕士可以通过17世纪的文本进行训练,那么它也可以通过QAnon论坛或预设某种宗教或政治制度优越性的数据集进行训练。使用这种严重扭曲的气泡机来试图理解一本书、一部电影或某人的医疗记录,其结果将固有地对培训材料中遗漏的任何内容或任何人产生偏见。

广告

但这种危险正是安德伍德认为我们需要学会使用人工智能来探索更深层次的文化和知识问题的原因。留给硅谷和美国公司的设备,法学硕士将不可避免地倾向于商业保密。但在人文学科中,他们的偏见将变得显而易见,甚至可能是有用的。

安德伍德说:“推动这些事情向前发展的下一个阶段将涉及我们认为属于人文学科的选择。”“如果人文学科不想被抛在后面,我们就必须坐在那张桌子旁,讨论这项技术的替代形式。我并不反对谷歌和微软,但他们不应该完全决定我们的思考和写作方式。”对于安德伍德这样的人工智能乐观主义者来说,我们不需要不信任人工智能。


亚当·罗杰斯(Adam Rogers)是Insider网站的高级记者。

一个关于话语故事

通过我们的话语新闻,商业内幕寻求探索和阐明当今最引人入胜的问题和想法。我们的作者通过分析、报道和专业知识提供发人深省的观点。点击这里阅读更多话语故事。