编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的原理和工作机制究竟是什么?是否能够取代记者的角色?我们应该如何看待ChatGPT的未来发展?为了探讨这些问题,我们专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏。他从人工智能的角度深入分析了ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他的研究领域主要集中在类脑智能和计算上。
“ChatGPT使用感不错,但也有不足”
光明网:您对ChatGPT有何感受?它有什么明显的不足之处?
曹立宏:相较于过去的GPT3,ChatGPT确实取得了一定的进步,它对话流畅性更好,这说明语言生成模式方面得到了改进。不过,对于专业性较强的问题,ChatGPT就显得力不从心。此外,它还存在一个问题,即内容更新速度并不够快。例如,当询问关于热门电视剧时,它可能无法提供最新信息,因为这涉及到AI中的遗忘现象——即如何让其快速学习新知识而又不会干扰旧有的知识。这是一个AI领域尚未完全解决的问题。
此外,聊天机器人的缺点在于它们没有体验概念,这就是所谓的人类常识。在生活中,我们通过视觉、听觉甚至触觉等多种方式来理解世界,而自然语言处理仅依赖文本,是一种浅薄的理解方式。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验
“记者职能难以被替代”
光明网:作为记者,您认为被替代掉的情况有多可能?
曹立宏:我认为目前对于记者的担忧过分。我觉得现在最重要的是提问能力,以及情感共鸣和快速学习能力。而这些都是目前聊天机器人所不能达到的水平。因此,我相信记者的角色将不会轻易被取代。
图片由百度文心大模型 AI 生成
关键词:记者,大众化专业知识
“更多只是辅助工具”
光明网:“穿着AI马甲”,你怎么看待这一观点?
曹立宏:“当前自然语言处理领域确实取得了巨大的突破,但作为科研人员,我们必须谨慎对待这种趋势。如果将这种技术当作终极目标,那么可能会导致严重的问题。”他指出,“不要把它当成真正的人工智能”因为AI本质上旨在模仿人类智慧,而当前的大型语言模型虽然超越人类在某些方面,却仍然缺乏深入思考和专业知识层面的理解能力。
图片由百度文心大模型 AI 生成
关键词:辅助工具,大型语言模型
“需警惕滥用潜力”
光明网:“您如何看待ChatGPT未来发展?”
曹立宏:“我认为它可以沿着两条路径发展。一条是深度学习,其核心算法尚未达到生物神经网络水平;另一条则是在尝试模仿大脑工作原理。但即使如此,也还有许多挑战需要克服,比如量化概念等问题。”他预见到,如果缺乏对其极限能力进行判断的话,将面临滥用的风险,并且带来的后果将非常严重。
图片由百ду