编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的技术原理和工作机制究竟是什么?是否有可能取代记者的角色?我们应该如何看待ChatGPT未来的发展趋势?为了深入探讨这一话题,光明网《创新改变中国》栏目特此邀请了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏进行专访,以人工智能的视角分析ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他在类脑智能和计算领域拥有丰富的研究经验。
“ChatGPT使用感不错,但也存在不足”
光明网:您对ChatGPT有什么具体体验吗?它在哪些方面做得比较好,也有哪些明显不足?
曹立宏:相比于之前的GPT3,感觉确实有很大的进步,它对话流畅性提升了很多,这说明现在语言生成模式已经相当成熟。不过,对于专业知识尤其是较为深奥的问题,它就表现出了局限性。
通过人类反馈强化学习,结合聊天方式,使得它非常受欢迎,可以说这是商业推广的一种成功模式。但目前的一个问题是内容更新不是特别及时,比如问它最近热门电视剧名,它可能不会知道《狂飙》,这涉及到AI中的遗忘问题,即如何让AI快速学习新信息而不影响旧信息,这仍然是一个未解决的问题。
另外,ChatGPT缺乏概念上的具身体验,这就是我们所说的常识,我们从小生活环境中积累起来的知识。而对于一个物体,我们不仅看到,还能听见,有时候还能触摸、闻到甚至吃得到,是全方位理解。如果你看到一个黑色的苹果,你敢吃吗?你肯定会犹豫,因为摸一下你就知道那是一颗烂苹果。实际上人类理解很多事情都是基于具身理解,而自然语言处理中的“理解”仅仅依靠文本,是一种表面的理解。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,大型图书馆
“记者职责将继续重要”
光明网:作为一名记者,被替代成为可能吗?
曹立宏:我认为现在没有太多需要担忧的地方。首先记者更多的是基于深度理解提问。在这个深度理解方面,当前的人工智能还无法达到。而且作为记者,还需要快速地学习和了解各种不同的情绪系统,这些都不是目前机器能够完成的事情。
图片由百度文心大模型 AI 生成
关键词:记者,大型图书馆
“更像工具而非真正智慧”
光明网:您的朋友圈评论中提到了,“ChatGPT只是穿上了AI的大衣”,并指出如果把它当作科研方向,那么可能会带来巨大的问题,您如何解释这些观点?
曹立宏:“自然语言处理领域确实在近年取得了一定的突破。”许多学生选择追随这个方向,而企业也越来越重视这样的技能。这让我有些担忧,因为即使这样的人才,如果把他们用来做科研,也许就会出现一些严重的问题。所以我说它像是穿上了AI的大衣,但其实并不具有专业思考能力或专业知识。
另一条线索是不要把它们当作真正的人类智慧。我想指出的是,它们虽然模仿着人类,但是并不像人的那样去思考或拥有同样的知识水平。在那些涉及到科学深度的话题上,其回答往往既流畅又充满错误——一种非常正经却荒谬的情况发生了。
图片由百度文心大模型 AI 生成
关键词:辅助工具、大型图书馆
未来需警惕滥用情况
光明网:“那么关于未来发展怎么看?”
曹立宏:“我觉得 Chat Gpt 有两条发展路径。一条是在沿着现有的神经网络结构继续前进,但这种方法离生物大脑还有很远,所以人们正在寻找更接近生物大脑思维方式的心理模型。但这还是个挑战。
另一条路则是在尝试模拟大脑工作原理,比如将概念转换为向量形式,就像我们的头部存储信息一样。这样可以演变出更加符合人类思维模式的 Chat Gpt。
未来,不管怎样,我都会使用 Chat Gpt 作为工具。但如果过分乐观,没有意识到其极限,那么滥用情况将不可避免,并带来严重后果。”
图片由百道文心大模型 AI 生成
关键词: 未来的可能性, 人类认知, 实际应用