编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的原理和工作机制究竟是什么?是否能够取代记者的角色?我们应该如何看待ChatGPT的未来发展?为了探讨这些问题,我们专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,他从人工智能领域深入分析了ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他主要致力于类脑智能和计算研究。
使用感受:“ChatGPT感觉不错,但也有不足”
光明网:您对ChatGPT有何看法?它存在哪些显著不足?
曹立宏:相比之前的GPT3,确实有所提升,尤其是在对话流畅性方面表现突出,这说明语言生成模式取得进展。不过,对于专业知识或深度的问题,它就显得有些局限了。
尽管ChatGPT采用强化学习并结合人类反馈,其语言生成能力已相当出色,再加上聊天式交流方式,使其备受欢迎。然而,目前的一个限制是内容更新速度较慢。这一点体现在当你询问最新热门电视剧时,它可能无法准确回答,因为这涉及到AI中的“遗忘”问题,即如何让系统快速学习新信息而不影响旧信息存储。
此外,作为一种没有具身体验的AI,它缺乏人类常识积累,如生活环境中获得的知识。在自然语言处理中,“理解”仅依赖文本,是一种表面的理解,而非深层次认知。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验
记者被替代可能性:“记者职能不会轻易被取代”
光明网:作为一名记者,被替换为ChatGPT的情景有多可能?
曹立宏:我认为现在还需谨慎,因为记者的核心在于深度理解问题,并提出相关提问。在这一点上,当前的人工智慧尚未达到。而且,与情感系统无关,这对于采访过程至关重要。此外,还需要快速学习了解受访者的特质等,这同样超出了现今AI能力范围。
图片由百度文心大模型 AI 生成
关键词:记者,大众化专业知识
“更多只是一种辅助工具”
光明网:您在社交平台上的评论提到,“穿上了AI深度学习马甲”,“不要将之视作真正的人才”,还有“科学界很可能流畅地胡说八道”。请解释您的观点。
曹立宏:近年来自然语言处理领域取得了一定的成果,但许多学生倾向于选择这个方向,以求找工作。企业也需求这样的人才。但对于科研人员来说,我们仍感到担忧,因为这种工具容易滥用,对专业领域产生误导。因此,我称之为穿着AI马甲——即使拥有宽广知识面,也无法提供专业思考和知识。如果想要追求科研的人把它们当作导向,那么可能引发严重的问题。我建议人们不要将其视为真正的人才,而应认识到它只是一个辅助工具。
另一方面,我说“不要将其视作真实的人才”,因为本质上AI模仿的是人类智力,但超过人类以宽广但浅薄的地步,不同于人的思考深度。在某种程度上,它可以流畅地进行关于复杂主题的话题,却往往是一本正经地讲述虚假的事物。
图片由百度文心大模型 AI 生成
关键词:辅助工具,一般计算器自由搜索引擎
未来发展:“警惕滥用潜势”
光明网:“怎么看待ChatGPT未来的发展?”
曹立宏:“我认为_chatgpt_有两条发展路径。一条是更接近生物神经元结构设计,更像大脑功能运转。但目前还没有找到完全符合这一要求的手段。这就像是要做一次比较核心的手术。”
另一种路径则是从生物的大脑角度去构建chatgpt,比如量化概念(例如苹果、梨)成为向量形式,这样的方法在生物大脑里并不完全相同,因此尝试寻找更类似生物的大脑功能来构建chatgpt也是可行之路之一。
未来,无疑是一个大家喜爱使用的一种工具,而且我自己也会使用。但如果过分忽略其极限能力,将导致滥用,从而带来巨大的风险。
图片由百度文心大模型 AI 生成
关键词:算法、大腦記憶