两个维护ChatGPT热背后的冷思考它可能在一本正经地胡说八道

编者按:

在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的原理和工作机制究竟是什么?是否能够取代记者的角色?我们应该如何看待ChatGPT的未来发展?为了探讨这些问题,我们专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,他从人工智能领域深入分析了ChatGPT。

专家简介

曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他主要致力于类脑智能和计算研究。

使用感受:“ChatGPT感觉不错,但也有不足”

光明网:您对ChatGPT有何看法?它存在哪些显著不足?

曹立宏:相比以往的语言模型,包括GPT3,确实体现出了一定的提升。特别是在对话流畅性方面,它表现得非常出色。这说明现在的语言生成能力已经取得了一定成果。不过,对于专业性的问题或深层次知识,它就显得有些局限了。

聊天模式是商业成功的一个关键因素之一。通过强化学习带来的人类反馈,使其语言生成能力更加精进。但尽管如此,当前的一大挑战就是内容更新速度的问题。在回答一些最新信息时,比如提到“中国最火电视剧”,它可能无法准确地提供答案,这涉及到了AI中的遗忘问题,即如何让系统快速学习新知识而不影响旧有的信息存储。

此外,ChatGPT缺乏概念上的身体经验,这是一种我们所说的常识——一种基于日常生活环境积累起来的人类理解方式。例如,当你看到一个黑色的苹果,你可能会犹豫,因为你知道摸一摸可能发现那是一个烂苹果。这表明人类对于某些事物的理解并非仅仅依赖于文字,而是多维度体验综合起来形成的更为深刻的情感和直觉认识。

图片由百度文心大模型 AI 生成

关键词:《狂飙》,灾难性遗忘,常识,具身体验

作为记者被替代可能性:“记者职责超越简单问答”

光明网:考虑到您的专业背景,您认为作为记者的位置是否有被替代之忧?

曹立宏:我认为目前还没有太多理由担心这一点。首先,由于记者的核心功能在于提出深入的问题,而这仍然是机器难以达到的境界。此外,与情感交流相关的事务也远未被AI完全掌握。而且,一名优秀记者需要不断学习,以便更好地了解他们采访对象的情况。在这样的过程中,即使要快速适应新的情况,也不是AI能轻易完成的事情。

图片由百度文心大模型 AI 生成

关键词:记者任务,不同类型的问题

“更多只是一种辅助工具”:

光明网:“穿着AI马甲”的评论,以及“不要将其视作真正的人工智能”、“对科学来说,大概率只是胡说八道”,您如何解读这些观点?

曹立宏:自然语言处理领域近年来确实取得了巨大的进步,但这并不代表所有行业都可以直接应用这种技术。如果希望成为科研人员,那么把 Chat GPT 当作主要指导工具很危险,因为它不能提供专业思考或专业知识。当人们把 Chat GPT 当做基础指南时,他们就会遇到重大问题。我用“穿着 AI 的深度学习马甲”来形容 Chat GBT,它本身并不像真正在进行复杂思考或拥有丰富知识那样工作。

另一句,“不要把它当做真正的人工智慧”,因为这个定义本质上追求模仿人类思维方式。但实际上 Chat GBT 并没有达到这样高级别的心智水平,其知識面宽广但在深度上的理解力有限,对具有高度专业性和复杂性的主题,它通常都会流畅地胡说八道而缺乏实际意义。

图片由百度文心大模型 AI 生成

关键词:辅助工具,如计算器、搜索引擎等

未来发展趋势:“需警惕滥用潜力”

光明网: 对 Chat GBT 未来的发展方向,您有什么想法?

曹立宏: 我相信未来有两个路径。一条路线,是继续优化当前基于神经网络的人工神经元模型及其反向传播算法,但这是离生物大脑结构较远,因此还有很大的改进空间。另一条路径,则是在构建基于人类大脑认知机制的一种方法,从根本上改变我们的设计思路,从量化概念转变为模拟人类的大脑运作方式,有望开发出更加接近人的 chatbot。

即使未来chatbot变得更加友好可爱,我还是必须警告大家要小心过分乐观,因为如果我们忽略其极限,如果没有足够意识去控制使用,如果没有合适的手段限制滥用,那么后果将是不堪设想。

图片由百度文心大模型 AI 生成

关键词:AI、大脑运作方式

猜你喜欢