编者按:
在全球范围内,ChatGPT的流行迅速增长,其背后的原理和工作机制如何?它是否有可能取代记者的角色?我们应该怎样看待ChatGPT的未来发展?光明网《科技创新》栏目专访了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏,从人工智能的角度深入探讨了ChatGPT。
专家简介
曹立宏,中国传媒大学脑科学与智能媒体研究院院长、博士生导师,是中传学术委员会副主任,中国人工智能学会第八届理事会理事,以及教育部科技委员会人工智能与区块链技术专委会委员,他致力于类脑智能和计算领域的研究。
“ChatGPT使用体验不错,但存在不足”
光明网:您对ChatGPT有什么具体感受吗?它在哪些方面表现出色,又有哪些需要改进?
曹立宏:相比之前的版本,如GPT3,它确实提供了一种更加流畅且高效的人机交互体验。对于一般知识点或浅显专业领域的问题,它能够提供准确而组织良好的答案。但当涉及到更专业或复杂的问题时,它就会遇到挑战。
ChatGPT利用人类反馈进行强化学习,这使得其语言生成能力得到了显著提升。结合聊天模式,使其成为一种商业上成功的产品。不过,由于内容更新速度较慢,有时候无法即时响应最新信息,比如询问当前热门电视剧名单时,它可能无法正确回答,因为这涉及到AI中的遗忘问题,即如何让系统快速学习新知识,同时保留旧有的信息。这是目前AI领域尚未完全解决的问题之一。
此外,尽管ChatGPT具有广泛的知识面,但缺乏对概念本质具身体验之理解,这正是我们所说的常识。在自然语言处理中,“理解”通常仅限于文本分析,而非全面多维度的情境理解。例如,当你看到一个黑色的苹果,你是否敢吃?这样的犹豫不决来自于生活经验积累,而不是简单文字上的解释。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验,文本
“记者角色替代风险有限”
光明网:作为一位专家,您认为被ChatGPT取代为记者的可能性有多大?
曹立宏:我认为现在还没有必要过分担忧这一点。首先,被记者特定的深层次思考和提问方式所替代是一个巨大的挑战。而且,对情感系统也抱以怀疑态度,这也是记者工作不可或缺的一部分。此外,对个体性格等方面了解并迅速适应采访过程中的变化,这些都是目前机器难以完成的事项。
图片由百度文心大模型 AI 生成
关键词:记者角色替代,无需担忧
“更多只是辅助工具”
光明网:“穿着AI马甲”的评论以及其他观点,您如何解读这些表述?
曹立宏:“过去几年来,我们见证了自然语言处理领域取得重大突破,不少学生选择投身其中,因其职业前景看好。而企业同样需求这种技能。但作为科研人员,我们还是持谨慎态度,因为它容易滥用专业话语。当将其视作导向性的工具时,将引发严重后果。我称之为‘穿着AI马甲’——它并不像真正科学家那样拥有专业思考和深厚知识。”
另一条评论“不要把他当成AI就好”,因为原始意义上AI旨在模仿人类智慧。虽然广博但不能像人类那样深刻思考某个主题。此处出现的是一种“一本正经地胡说八道”。
图片由百达文心大模型 AI 生成
关键词:辅助工具,不要误解
“未来需警惕滥用趋势”
光明网:“展望未来,您怎么看待 Chat Gpt 的发展?”
曹立宏:“我相信 Chat Gpt 有两条路径。一是基于深度学习,该方法采用神经元网络结构与反向传播算法;然而这个结构偏离生物大脑构建及其学习方式,因此连神经网络之父Geoffrey Hinton都在寻求更接近生物的大脑模型。这意味着需要改进核心算法,可现状仍未找到完美方案,对 Chat Gpt 来说这是一个核心手术级别的问题。
另一种途径则是从生物认知角度考虑,比如将苹果、梨等概念转换为量化形式(word embedding),这种量化方式若能接近真实的大脑存储方式,也许能演变出更接近人的 Chat Gpt。
未来,我预计人们喜欢使用这样一个工具,并我自己也会使用。但如果忽略其极限,则可能导致滥用带来的问题非常严重。”