编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的技术原理和工作机制是什么?会不会取代记者的角色?我们如何应对ChatGPT的未来发展?光明网《智慧创新》专栏特约中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏进行了深入探讨,从人工智能角度解读ChatGPT。
专家简介
曹立宏,中国传媒大学脑科学与智能媒体研究院院长、博士生导师,以其在类脑智能和计算领域的卓越贡献闻名于世。他是中传学术委员会副主任,中国人工智能学会第八届理事会理事,以及教育部科技委员会人工智能与区块链技术专委会委员。
“ChatGPT:既令人满意又存在不足”
光明网:您如何评价使用ChatGPT的体验呢?它有什么显著不足之处?
曹立宏:相较于之前的模型,如GPT3,它确实展现出了显著提升。特别是在对话流畅性方面,它表现出色,这显示了语言生成能力得到了改进。对于常见知识点以及浅层次专业知识,它能提供准确信息,并且组织结构良好。不过,对于更为专业或复杂的问题时,它就遇到难题。
通过强化学习结合人类反馈机制,使得语言生成能力极大增强,而采用聊天方式进一步增加了其吸引力。这可以说是一种商业推广策略上的成功。但目前的一个限制是内容更新速度不够快。例如,如果询问当前最热门电视剧名称,可能无法准确回答,因为这涉及到AI中的遗忘问题,即快速学习新信息同时保持旧有知识是不易实现的事情。
此外,作为一种没有具身体验的人工智能系统,它缺乏真正意义上的常识积累。在我们的日常生活中,我们不仅通过视觉捕捉,也通过听觉、触觉等多种感官来理解世界。如果看到一个黑色的苹果,你是否敢吃?你肯定会犹豫,因为摸一摸可能就会发现那只是个烂苹果。而人类理解通常是全面而非单一维度依赖文本的情况下所做出的判断。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验,全方位
“记者的角色将继续扮演重要角色”
光明网:作为记者被替代的可能性有多高?
曹立宏:我认为现在并不需要过分担忧这一点。首先,一名记者通常需要基于深刻理解提出问题。在这种深层次理解方面,与人类不同的是 ChatGPT目前仍然未能达到。此外,由于记者还需处理情感系统,这也是AI目前尚不能完全模仿的情境。而且,在采访过程中快速学习受访者的性格等动态信息,这些都超出了当前AI系统能够执行任务范围之外。
图片由百度文心大模型 AI 生成
关键词:记者,深层次理解提问方法,不同情感系统快速学习
“更多地看待ChatGPT为辅助工具”
光明网:“穿着一个AI的大衣”、“不要把它当作真正的人类”、“以科学角度看待,有很大的胡说八道空间”,这些观点怎样解释?
曹立宏:自然语言处理领域近年来取得巨大进步,但也引发了一些担忧。不少学生倾向于追求这个方向,他们相信这将是一个富有就业机会的手段;企业也需求这样的人才。但从科研角度出发,我感到有些不安,因为即使在专业领域内,该技术也有大量错误和误导性的表述。这就是为什么我形容它像穿上了一个AI的大衣,但并非真正拥有那种专业思维或知識水平。
另一方面,“不要把它当作真实的人类”,因为这是我们试图模拟人类智力的根本目的——创建一种能够像我们一样思考和行动的机器。不过,无论何种形式,其核心还是模仿人的思维模式,因此它们永远无法完全复制人类思想深度,只能局限于提供广泛而肤浅的情报,同时经常以非常正式而无效率的情景进行描述,即那些自称正经但实际上充满虚假言论的事物。
图片由百度文心大模型 AI 生成
关键词:辅助工具、计算器、高效搜索引擎、大型句子逻辑分析效率
“警惕未来滥用潜力”
光明网:“谈及ChatGPT未来的发展趋势?”
曹立宏:“我认为 Chat Gpt 有两个潜在路径。一条路线是更加依赖神经网络构建,如反向传播算法等,但这种方法与生物大脑之间存在差异,大神经元学家Geoffrey Hinton正在寻找更接近生物神经元模型和算法。我觉得如果想要改变这样核心部分,就有点像是手术级别的事情。
另一个路径则是尝试从生物认知角度去设计,比如将概念转化成称为词向量的一系列数字表示方式。这可能比较接近我们的记忆方式,所以也许有一天能够开发出更像人的chatgpt。
尽管现在人们普遍持乐观态度,我却感到应该警惕其潜在滥用的风险。如果忽视这些极限,那么后果将十分严重。”