编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的技术原理和工作机制是什么?会不会取代记者的工作?我们如何看待ChatGPT的未来发展?《创新改变中国》栏目专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,他从人工智能角度探讨了ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师。他同时担任中传学术委员会副主任,中国人工智能学会第八届理事会理事,以及教育部科技委员会人工智能与区块链技术专委会委员。他的研究领域主要集中在类脑智能和计算上。
“ChatGPT表现出色,但存在局限”
光明网:您对使用ChatGPT有何感受?它有什么不足之处?
曹立宏:相比之前的模型,如GPT3,ChatGPT确实提供了一种更流畅的人机交互体验。这得益于其语言生成能力以及采用人类反馈进行强化学习。不过,它在处理专业性较强的问题时仍显得不足。例如,当问及最新热门电视剧时,它可能无法准确回答,因为这涉及到AI中的一个著名问题——灾难性遗忘,即如何让系统快速学习新知识而不影响已有知识,这仍然是一个AI领域未解决的问题。
此外,作为一种没有具身经验的系统,ChatGPT缺乏深入理解常识所需的一般智慧和直觉。人类通常通过多种感官来理解世界,而这种全面理解对于自然语言处理来说依旧是一个挑战。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,大众常识
“记者角色难以被替代”
光明网:作为记者的职责是否面临着被替代的风险?
曹立宏:目前,我并不认为记者的角色容易被完全取代。记者需要基于深入了解来提问,并且能够快速适应情境变化,这些都是当前AI尚不能满足的情报需求。此外,对于情感表达和细微反应方面,人类记者拥有不可替代的人文关怀。在采访过程中,他们能迅速捕捉并分析信息,这些能力还属于人类独特优势。
图片由百度文心大模型 AI 生成
关键词:记者角色、深层次理解
“更多只是辅助工具”
光明网:“穿上了AI的大衣”,你对这些评论持何态度?
曹立宏:“虽然自然语言处理取得巨大进展,但我认为这是个值得警惕的情况。如果将其视为终极目标,那么这可能导致严重错误。我希望人们认识到这一点,并正确地把握这个工具。”
他进一步指出,“不要将其当作真正的人类智慧”因为尽管聊天机器人如同模仿神经元结构构建网络,但它们并非真正复现生物大脑或人的思维方式;因此,在应用这些技术时,我们必须保持谨慎,以避免滥用带来的负面后果。
图片由百度文心大模型 AI 生成
关键词:辅助工具、大数据搜索引擎
“未来需警惕滥用”
光明网:“对于未来的发展,您怎么看?”
曹立宏:“我认为两条路径可供选择。一是改进现有的深度学习算法,使之更加接近生物大脑。但即使是领军人物Geoffrey Hinton也正寻求更接近真实神经元行为的大型项目。”另一条路径则是在开发一个更像实际认知过程一样运行系统,从根本上改变如何量化概念等基础问题。这两种途径都具有潜力,但是至今为止,都还没有找到最完美答案。
他呼吁大家要注意,不要忽略该产品极限能力,将来如果过分依赖这样的工具而忽略其限制,那么滥用的可能性就会非常高,因此我们应该小心地使用这个工具,以防出现过大的负面影响。
图片由百道文心大模型 AI 生成
关键词:未来发展、大规模应用