编者按:
在全球范围内,ChatGPT的流行迅速扩散,其背后的技术原理和工作机制引起了广泛关注。它是否能够替代记者的角色?我们应当如何看待ChatGPT的未来发展?为了探索这些问题,光明网《创新改变中国》栏目专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,他从人工智能的角度分析了ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他致力于研究类脑智能和计算。
“ChatGPT使用感不错,但也有不足”
光明网:您对使用ChatGPT有何感受?它存在哪些显著不足?
曹立宏:相比之前的GPT3,感觉确实有很大的提升,特别是在对话流畅性方面表现突出,这说明当前语言生成模式取得进展。不过,对于专业领域的问题,它就显得有些局限性。
ChatGPT采用基于人类反馈的强化学习,而语言生成能力已经非常强大,再加上聊天形式,使其变得越来越流行。这体现了一种商业推广模式。目前,该系统的一个限制是内容更新速度较慢,比如对于最新电视剧热门信息,如《狂飙》,可能无法及时提供准确答案。这涉及到AI中的遗忘问题,即如何让它快速学习新知识而不影响旧有的信息处理,这仍然是AI领域需要解决的问题之一。
此外,ChatGPT缺乏概念上的具身体验,这正是我们所说的常识,是通过生活环境积累起来的人类经验。而对于一个物体,我们不仅看到,还听见,有时触摸、闻到或吃得到,是全面理解的一种方式。如果你看到一个黑色的苹果,你敢吃吗?你肯定会犹豫,因为摸一摸你就知道那可能是一个烂苹果。实际上,我们人类很多理解都是以全方位为基础进行的,而自然语言处理中的“理解”通常只依靠文本,是一种表面的理解层次。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验,全方位
“记者职责难以被取代”
光明网:作为记者,被替代可能性有多高?
曹立宏:我认为现在还没有太多要担忧的地方。首先,由于记者的工作涉及深入理解问题,并提出相关问题。在这一点上,机器仍然不能完全达到我们的水平。此外,还有一点重要的是情感系统,在采访过程中快速了解受访者的个性等,都不是当前机器能做到的任务。
图片由百度文心大模型 AI 生成
关键词:记者,大规模学习能力,对话交流
"更多只是辅助工具"
光明网:“您在朋友圈评论说‘ChatGPT穿上了AI深度学习马甲’”,这意味着什么?
曹立宏:近年来自然语言处理领域取得巨大进步,但同时也引发了一些担忧。我觉得这个工具虽然好用,但对于专业知识领域来说,它往往是一本正经地胡说八道,因此我称之为“穿上了AI深度学习马甲”。它并非真正具有专业思考或知识背景,只不过借助深度学习技术模仿人类智慧而已。但在某种程度上,它超出了人类,以宽泛的知识面著称,却无法像人那样进行深入思考和分析。在一些核心科学领域,它的大概率行为就是那种带着严肃态势但其实毫无根据的话语,那便是这种情况下的最大风险所在。
图片由百度文心大模型 AI 生成
关键词:辅助工具,无需担忧,不可信赖
"未来的警觉"
光明网:“您怎么看待未来关于ChatGPT的情况?”
曹立宏:“我认为 Chat Gpt 有两条发展路径。一条就是进一步完善目前所用的神经网络结构,比如更接近生物大脑结构,让算法更加符合生物学规律。但目前这样的方法还有许多不足之处,所以这个方向还需要不断努力。而另一条路径则是在开发新的算法和数据表示方法,使之更接近人的认知过程,比如将概念转换成量化形式,就像人们想象的大脑一样。这种思路如果成功实现,将导致chatgpt功能更接近真实的人类认知。”
他提醒大家尽管可以预见chatgpt将成为人们喜欢去用的工具,但是如果没有对其极限能力作出合适判断,那么该系统将被滥用,从而产生大量负面后果。