编者按:
在全球范围内,ChatGPT的火爆程度令人瞩目,但它背后的原理和工作机制又是怎样的呢?它是否有可能取代记者的角色?我们应当如何对待ChatGPT的未来发展?光明网《创新改变中国》专栏就此问题,与中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏进行了深入交流,以人工智能视角探讨了ChatGPT。
专家简介
曹立宏,中国传媒大学脑科学与智能媒体研究院院长、博士生导师,他还担任中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员,专注于类脑智能和计算领域的研究。
“ChatGPT使用感不错,但也有不足”
光明网:您对ChatGPT的使用体验如何?它有什么显著的不足之处吗?
曹立宏:相比之前的GPT3,它确实取得了一定的进步。特别是在语言生成方面,其流畅性得到了显著提升。这说明现在的人工语言生成模式已经相当先进。但对于更专业或深奥的问题,它就会出现一些困难。
我认为,这种基于人类反馈强化学习机制结合聊天方式,是商业推广策略的一部分。目前,ChatGPT的一个限制就是内容更新速度不够快。例如,如果你问它当前最受欢迎的小说名单,它可能无法准确回答,因为这涉及到AI中的遗忘现象,即如何让系统快速学习新知识而不会干扰已有的信息处理,这仍然是AI领域需要解决的问题。
此外,尽管ChatGPT具有极高的人工智慧表现力,但其理解概念缺乏身体经验这一重要组成部分。这正是我们所说的常识,而这种常识往往来自生活环境中积累的多种感觉和知觉,如视觉、听觉等。如果你看到一个黑色的苹果,你一定会犹豫,不知道该吃还是不吃,因为摸一摸,你可能就能判断那是一颗烂苹果。而我们的理解很多东西都是通过全方位体验获得,因此自然语言处理中的“理解”仅仅依靠文本是不充分且肤浅的。
关键词:《狂飙》,灾难性遗忘,常识,具身体验
“记者被替代可能性并不大”
光明网:作为一名记者,被替代成为什么可能性?
曹立宏:我认为,在被替代这个问题上,我们可以放心一些。一方面,由于记者在提出问题时需要展现出深度理解能力,而目前这些任务超出了AI系统如ChatGPGT能够完成的地步。此外,一些情感层面的沟通也是人类独有的优势。在采访过程中迅速适应并掌握受访者的个性特点,这些都不是机器能做到的。
关键词:记者,大规模学习
“更多只是一种辅助工具”
光明网:“穿着AI深度学习马甲”,不要把它当作真正的人类智慧工具,“对科学来说,大概率只是胡说八道”,您怎么看这些观点?
曹立宏:“自然语言处理领域最近取得了巨大的突破。”许多学生纷纷选择这一方向,他们觉得这是一个好职业路径。而企业也越来越重视这样的人才。但作为科研人员,我却感到有些忧虑。我担心人们过分依赖这样一种工具,最终导致专业领域知识混乱无序。如果将其当作导向,那么这将引发严重的问题。我所以说它们只是穿上了AI深度学习的大衣,没有真正达到像科学家或专业人士那样思考和拥有专业知识水平。
另一方面,“不要把它们看作真正的人类智慧工具”,因为AI原本旨在模仿人类思维能力。很清楚地表现在某些情况下,它超越了人类但在其他方面则未能达到同样的水平。虽然其知识面非常宽泛,却无法像人类那样进行深入思考。在那些具有高度科学性的思想和讨论中,它们通常表现得很流畅,但几乎总是以一种非常正式而又虚假的话语形式存在。
关键词:辅助工具,可计算器搜索引擎自由效率
“未来需警惕滥用”
光明网:“关于未来的发展,您有何见解?”
曹立宏:“我认为有两条路可走。一条是进一步完善当前基于神经网络的人工神经元模型构建,以及相关反向传播算法。但即使如此,也离模仿大脑结构还有很远的一段路程。大脑结构至今仍是一个谜,对于开发更加接近生物大脑功能的人造模型,我们还没有找到合适的手段,所以要修复核心手术变得尤为艰难。
另一条路则是在从生物大脑角度去考虑,从量化概念到应用于程序设计,比如将苹果或者梨这样的概念转换为称为词向量这样简单易懂的事物,这样做出的程序应该更接近人的认知过程,因此也许能够创造出更加接近人的chatgpt类型系统。
未来,无疑chatgpt将成为大家喜爱去使用的一个利器,我自己也会继续使用。不过如果忽略其极限能力并没有给予足够关注的话(chatgpt)就会被滥用,并且产生大量不可预测的问题。”
关键词:自然语言处理,大规模数据集分析