科技传承ChatGPT热背后的冷思考它可能在一本正经地胡说八道

编者按:

在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的原理和工作机制究竟是什么?是否能够取代记者的角色?我们应该如何看待ChatGPT的未来发展?为了探讨这些问题,我们专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,他从人工智能领域深入分析了ChatGPT。

专家简介

曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他主要致力于类脑智能和计算研究。

使用感受:“ChatGPT感觉不错,但也有不足”

光明网:您对ChatGPT有何看法?它存在哪些显著不足?

曹立宏:相比之前的版本,感觉确实有所提升,尤其是在对话流畅性方面,它表现得很出色。这说明现在语言生成模型方面取得了一定的进步。不过,对于专业性的问题或更复杂的问题,它就开始出现困难。

尽管ChatGPT采用了带人类反馈的强化学习机制,并且拥有强大的语言生成能力,加上聊天模式,使其变得非常受欢迎。但目前,这款系统似乎存在一个限制,即内容更新不是特别快。例如,如果你询问最新热门电视剧,它可能无法准确提供信息,因为这涉及到AI中的遗忘现象——即如何快速学习新知识而不会干扰已有的知识存储,这仍然是AI领域需要解决的问题。

此外,ChatGPT缺乏概念上的具身体验,这正是我们所说的常识,那些我们从生活环境中积累起来的知识。我们的理解往往不仅仅依赖视觉,还包括听觉、触觉甚至味觉。如果看到一个黑色的苹果,你可能会犹豫,不知道是否吃掉,因为摸一摸你就能判断那是一个烂苹果。在自然语言处理中,“理解”仅限于文本,是一种表面的理解,而非深层次理解。

图片由百度文心大模型 AI 生成

关键词:《狂飙》,灾难性遗忘,常识,具身体验

作为记者被替代可能性:“还需担忧”

光明网:作为记者,被替代的地位有多危险?

曹立宏:我认为现在不必过分担心。首先,由于记者需要基于深度理解提出问题,在这一点上,当前的人工智能尚未达到。而且,与情感系统无缘,也是一项重要技能。而采访过程中快速了解受访者的性格等,都超出了当前AI能力范围。

图片由百度文心大模型 AI 生成

关键词:记者,大数据分析

“更多只是辅助工具”

光明网,您在朋友圈评论提到的观点,如“穿上了个AI马甲”,“不要把它当成真正的人才”,怎么解释这些说法?

曹立宏:“近年来自然语言处理领域取得巨大进展。”许多学生选择这个方向感到满意,但对于科研人员来说,我却感到担忧。一旦将这样的技术误用,就可能产生严重后果。我希望人们意识到这是只不过是个辅助工具,没有达到专业水平,而这种错误认识将导致大量误用,从而产生极大的负面影响。”

另一句话“不要把它当成真正的人才”,因为AI本质就是模仿人类智慧。但即使如此,它并没有完全达成人类智慧水平,只能模仿某些特定任务。在一些具有较高科学深度的问题上,其回答通常是不经意地进行的一种流畅但肤浅的大量输出,而不是真正在思考和解决问题。

图片由百度文心大模型 AI 生成

关键词:辅助工具,无处不在

警惕未来滥用:“要谨慎对待”

光明网您怎样看待ChatGPT未来的发展趋势?

曹立宏:“我认为 Chat Gpt 有两条发展路径。一条是基于神经网络结构继续优化,比如Geoffrey Hinton一直在寻找更接近生物大脑结构的手段。此路虽然充满挑战,但也许有一天可以实现真正意义上的类似人的智慧系统。”另一种方式则是在开发过程中更加考虑生物学角度,比如通过改变量化方法,更接近人类的大脑运作方式。“如果缺乏对其极限能力判断的话,将来(chatgpt)被滥用,其后果将非常严重。”

图片由百度文心大模型 AI 生成

关键词:开发路径,大型数据库

猜你喜欢