编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的原理和工作机制究竟是什么?是否能够取代记者的角色?我们应该如何看待ChatGPT的未来发展?为了探讨这些问题,我们专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,他从人工智能领域深入分析了ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他主要致力于类脑智能和计算研究。
使用感受:“ChatGPT感觉不错,但也有不足”
光明网:您对ChatGPT有何看法?它存在哪些显著不足?
曹立宏:相比之前的版本,感觉确实有所提升,尤其是在对话流畅性方面,它表现得很出色。这说明现在语言生成模型方面取得了一定的进步。不过,对于专业性的问题,它就显得有些吃力。
ChatGPT采用了带人类反馈的强化学习,这使得它在语言生成上具有相当大的优势。这种结合聊天模式也让它变得更加吸引人。在商业推广上,这是一种成功的策略。然而,目前最大的限制之一就是内容更新速度慢。如果你问它关于当前热门电视剧,比如《狂飙》,可能会答不上来,因为这涉及到AI中的遗忘问题——即如何快速学习新信息而又不影响旧知识。这仍然是一个AI领域需要解决的问题。
此外,ChatGPT缺乏概念上的具身体验,这正是我们所说的常识。而这一点,又是通过生活环境中积累起来的人类经验形成的。如果一个黑色的苹果呈现在你面前,你是否敢吃?通常情况下,你会犹豫,不知道那到底是一个烂苹果还是不是。实际上,我们人类理解很多事情都是通过多维度体验,而自然语言处理中的“理解”仅仅依靠文本,是一种浅层次的理解。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验
被替代可能性:“记者职位安全吗?”
光明网:作为一名记者,被ChatGPT替代的心理准备有多少?
曹立宏:我认为现阶段,可以放宽心态。一方面,由于记者的工作涉及深度理解的问题,在这个层面上,我相信机器还未能达到。而且,它还没有接触情感系统,而这两点对于记者的角色至关重要。此外,记者需要快速适应变化,因此即便某些任务可以交给机器,也无法完全取代记录和洞察能力。
图片由百度文心大模型 AI 生成
关键词:记者,大数据分析
功能性:“更像辅助工具”
光明网:您曾经在朋友圈评论过,“ChatGPT穿上了AI深度学习马甲”,“不要把他当成真正的人工智慧”,“科学界恐怕很快就会发现他只是胡说八道”。这些观点如何解释?
曹立宏:近年来自然语言处理领域确实取得巨大进展。但许多学生都倾向于投身其中,以此为职业选择,并且企业也需求如此。但作为科研人员,我对此持谨慎态度。我担忧的是尽管它提供大量信息,但对于专业主题则可能进行错误或无意义的情报发布。因此,将其视作导向方向并非最佳选择。我称之为“穿着AI深度学习衣衫”,因为尽管拥有广泛知识但不能像真正的人类那样思考和获取专业知识。
另一句警告语,即不要将其视作真实的人工智慧,因为AI旨在模仿人类认知过程。在某种程度上超越人类,但在深入思考复杂主题时,则远未达到水平。此外,对具有科学深度的问题,其回答往往既流畅又肤浅,就像是以一本正经姿态胡言乱语。
图片由百度文心大模型 AI 生成
关键词:辅助工具、计算器、高效搜索引擎
未来趋势:“需警惕滥用”
光明网:那么,您怎样看待未来发展的情况?
曹立宏:“我认为将来有一条路径是基于神经网络结构构建,如同生物大脑一样,但目前尚未找到完美匹配的大脑结构算法。”这是个挑战。“另一个路径是在尝试模仿大脑方式存储量化概念,就像apple或者梨子这样的对象转换成数值形式。”
如果我们能实现这样一种存储方式,那么可能就能出现更接近人的chatbot。而我个人预见的是chatgpt将成为人们喜欢使用的一款工具。但若忽视其潜在极限并导致滥用,那么后果将非常严重。
图片由百ду文心大模型 AI 生成
关键词:"神经网络", "生物"