科学松鼠会ChatGPT热背后的冷思考它可能在一本正经地胡说八道

编者按:

在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的科学原理和工作机制是什么?会不会取代记者的角色?我们应该如何看待ChatGPT未来的发展趋势?光明网《创新改变中国》专栏特约专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,深入探讨了ChatGPT的人工智能视角。

专家简介

曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他致力于研究类脑智能和计算。

“ChatGPT使用感不错,但也有不足”

光明网:您对ChatGPT的使用体验如何?它有哪些显著的不足之处?

曹立宏:相较于之前的GPT3,感觉确实有所提升,尤其是在对话流畅性方面表现突出,这表明现在语言生成模型在进步。对于普及知识或浅显专业领域,它提供信息且组织得很好。但当涉及到更专业的问题时,它就出现问题了。

聊天方式结合强化学习,使得语言生成能力进一步增强。而现在似乎存在一个局限性,即内容更新不是特别快。例如,对于询问最新热门电视剧,它可能无法准确回答,因为这涉及到AI中的遗忘问题,即如何让它快速学习新知识而不干扰已有的知识。这是一个AI领域尚未解决的问题。

另外,由于缺乏具身经验,这就是人类真正常识的一部分,我们从生活环境中积累起来的知识,如重力等等。在处理物品时,不仅看到,还要闻闻摸摸,有时候甚至要尝试一下。如果你看到一个黑色苹果,你敢吃吗?肯定会犹豫,一触即知是否烂掉。实际上,我们人类理解很多事情都是通过全方位体验,而自然语言处理中的“理解”仅依赖文本,是一种肤浅的理解。

图片由百度文心大模型 AI 生成

关键词:《狂飙》,灾难性遗忘,常识,具身体验,文本

光明网:作为记者,被替代成 ChatGPT 的可能性有多高?

曹立宏:我认为当前并不需要过分担忧,因为记者更多基于深层次理解来提出问题。在深层次理解这一点上,ChatGPT目前还做不到。此外,它目前不接近情感系统,而这两点对于记者来说都至关重要。而且记者需要快速学习,以便了解受访者的性格等,在采访过程中甚至可以快速掌握这些信息,这些都不是机器当前能够完成的事情。

图片由百度文心大模型 AI 生成

关键词:记者,大众化思考法,无需反馈,无需情感系统

“ChatGPT更多只是辅助工具”

光明网:“穿着AI马甲”,不要把 Chat Gpt 当作主导力量,“它可能一本正经地胡说八道”,这是您的观点怎么解释呢?

曹立宏:“最近几年自然语言处理取得巨大进展,因此吸引许多学生追求这个方向,并认为这是找工作比较容易的地方。不过企业也确实需要这样的人才。但作为科研人员,我其实还是有些担忧,因为它在专业领域里能胡说八道。如果想要做科研的人把 Chat Gpt 当成方向,那可能会带来非常大的问题。我觉得这种情况下,就像是 “穿上了AI的大衣” 而非真正拥有专业思考和专业知识。

另一句 “不要把它当作是AI就好”,因为 AI 本质上的目标是模仿人类智慧。很清楚的是 Chat Gpt 并非像人的智慧般聪颖;虽然其知识面广泛,但在深度上却不能像人一样进行深入思考。当涉及具有科学深度的知识和思想时,它通常以一本正经的情形进行胡言乱语。

图片由百度文心大模型 AI 生成

关键词:辅助工具,全自动搜索引擎

“未来需警惕滥用”

光明网:“关于 Chat Gpt 未来的发展,您怎么看?”

曹立宏:“我认为未来存在两个路径。一种是继续开发基于神经网络结构及其反向传播算法的心理学方法,这种方法偏离了生物大脑中的神经元模式和学习算法,所以即使最核心的人工神经元创始人Geoffrey Hinton仍然寻求更接近大脑模式的手段。这意味着要对核心结构进行手术操作。

另一种路径则是在考虑将其设计成为更加类似大脑运转方式,比如将概念(比如苹果、梨)转换为称为词向量形式,而这样的量化方式在我们的头脑里并非完全相同,因此我们可以想象出一个更加类似人类记忆存储形式、量化策略以及学习途径,从而演变出更接近人的版本。

未来,它将成为人们喜爱使用的一个工具,我也愿意使用。但如果缺乏判断其极限能力的话,将导致滥用产生严重后果。”

猜你喜欢