编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的技术原理和工作机制是什么?会不会取代记者的角色?我们应该如何看待ChatGPT未来的发展趋势?光明网《创新改变中国》专栏特约专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,他从人工智能的角度深入探讨了ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师。他还担任中传学术委员会副主任,以及中国人工智能学会第八届理事会理事和教育部科技委员会人工智能与区块链技术专委会委员,致力于类脑智能和计算领域的研究。
“ChatGPT使用感不错,但也有不足”
光明网:您对使用ChatGPT有何感受?它有什么显著的缺陷?
曹立宏:相较于前几代的人工智能模型,如GPT3,它确实取得了一定的进步,尤其是在对话流畅性方面表现突出。这说明当前语言生成模式已经取得了一定的成就。对于一般知识或者浅显专业知识,它能提供准确信息,并且组织结构良好。不过,对于更深层次或专业化的问题,它就会出现问题。
作为一种带有人类反馈强化学习算法的人口气,结合聊天方式,这种商业推广策略非常有效。目前,ChatGPT的一个限制是内容更新速度慢。例如,当你询问它关于当下最火热电视剧时,它可能无法给出答案,因为这涉及到AI中的遗忘问题,即如何让系统快速学习新信息而不干扰已有的数据,这仍然是一个尚未解决的问题。
此外,ChatGPT缺乏具身体验概念理解,这也是我们所说的常识,而这种常识是通过生活环境积累而来,不仅仅依靠视觉,还包括听觉、触觉、嗅觉和味觉。如果看到一个黑色的苹果,你是否敢吃?你肯定会犹豫,因为摸一摸可能就知道那是一颗烂苹果。这体现了人类理解多维度世界的一种方式,而自然语言处理中所谓“理解”只不过是一种肤浅的文本解读。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验
“记者角色被替代风险低”
光明网:作为记者,被替换为 ChatGPT 的可能性有多高?
曹立宏:我认为现在不需要过分担忧这一点。首先,在提出问题时记者需要深入理解的情况下,与之相比,现在的人工智器系统还做不到这一点。此外,由于记者的工作涉及情感分析以及快速适应采访过程中的变化等,因此即便是在提问技巧上,也超出了目前AI能力范畴。而且,让机器在采访中快速了解受访者的性格等方面,也不是当前AI能实现的事情。
图片由百度文心大模型 AI 生成
关键词:记者,大规模学习
“更多只是辅助工具”
光明网:您曾评论说,“不要把 Chat Gpt 看作真正的人工智能”,并指出它可能流畅地进行错误陈述,您怎么看这些观点?
曹立宏:“近年来自然语言处理领域取得重大进展。”许多学生倾向于这个方向觉得很吸引人,而且很多企业也需求这样的技能。但对于科研人员来说,我们还是感到不安,有些专业性的问题上面都是胡言乱语,所以如果想要成为科研人员的话,最好不要把 Chat Gpt 当作主要参考书籍那样用,以免造成严重的问题。
另一句 “不要把它看成真的是AI”,因为 AI 的核心目标就是模仿人类智慧,但实际上 Chat Gpt 并没有像人类一样去思考某个主题上的深刻洞察力。在某种程度上超过人的宽广知识面但在深度思考上却不能达到同样的效果。在具有科学深度的情境下,其表达往往流利又正确,但往往只是以一种自信正经态度下的虚假陈述。
图片由百度文心大模型 AI 生成
关键词:辅助工具
未来需警惕滥用
光明网:“未来对 Chat Gpt 的发展怎么看?”
曹立宏:“我认为将来可以走两条路。一条是沿着目前主导技术——基于神经网络构建的大型神经网络及其反向传播学习算法前行。但这离生物大脑本质差距巨大,就连最重要的大脑神经元模型构建者Geoffrey Hinton都在寻找更接近生物大脑思维逻辑模式。而我们需要更好的算法,没有找到完整版本。我建议重新考虑采用类似于大腦記憶量化與學習方式會比較接近於人的(Chatgpt),
未来(chatgpt)將成為人们喜歡去用的工具,我也會用。我覺得聲音太過正面,如果對其極限能力評價不足,那麼(chatgpt)將被濫用,這種問題若發生將嚇壞每個人!
图片由百道文心大模型 AI 生成