编者按:
在全球范围内,ChatGPT的流行迅速扩散,其背后的技术与潜力引起了广泛关注。那么,它是如何运作的?它是否有可能取代记者的工作?我们应该如何看待ChatGPT的未来发展?为了深入探讨这些问题,我们邀请了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏进行专访。
专家简介
曹立宏,是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,也是中传学术委员会副主任和中国人工智能学会第八届理事会理事,以及教育部科技委员会人工智能与区块链技术专委会委员。他致力于类脑智能和计算领域的研究。
“ChatGPT使用感不错,但也有不足”
光明网:您对ChatGPT有什么具体体验吗?它在哪些方面表现出色,又存在哪些不足?
曹立宏:相较于之前的GPT3,ChatGPT确实取得了一定的进步,尤其是在对话流畅性方面表现突出。这说明当前语言生成模型已经取得了显著提升。在提供普通知识或浅显专业知识时,它能够组织信息得当。但对于更为专业复杂的问题,这种能力就会受到限制。
通过强化学习机制,与人类交互并不断改进,ChatGPT成功结合了语言生成能力和聊天模式,从而成为了一个受欢迎且商业化推广良好的产品。目前,它的一个局限性在于内容更新速度较慢。例如,当问及中国最热门电视剧时,它可能无法准确回答,因为这涉及到AI中的遗忘现象,即如何让系统快速吸收新信息而不会干扰已有的数据,这仍然是一个AI领域未解决的问题。
此外,由于缺乏具身经验,这导致它难以真正理解概念,对常识也仅止步于文本层面。而人类理解世界通常是多维度、全方位的。如果看到一枚黑色的苹果,你敢吃吗?你很可能犹豫,因为触摸之后你可以判断那是一颗烂苹果。实际上,我们人类的大量理解都是基于生活环境积累起来的,而自然语言处理中的“理解”仅依靠文本,是一种表面的了解。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,常识,具身体验,文本
“记者角色难被完全替代”
光明网:作为记者,您认为被ChatGPT所取代成为可能性高吗?
曹立宏:我认为当前并不需要过分担忧记者的职业安全性。首先,被称作深度理解提问者的记者身份,在深度理解这一点上,目前还超越不了AI。此外,不同情感系统也是记录采访过程中重要元素。而快速学习捕捉受访者特质等需求,更不是现在机器能做到的。
图片由百度文心大模型 AI 生成
关键词:记者,大众文化,大众视角,有趣故事
“更多只是辅助工具”
光明网:“穿着AI马甲”的评论以及其他观点,您怎么看待这些说法?
曹立宏:最近几年自然语言处理领域取得巨大进展,因此许多学生倾向此方向,并且企业也寻求这样的人才。不过作为科研人员,我对此持谨慎态度。我担忧的是这种工具在专业领域里胡乱发表言论。如果将其视作指导方向,那么这将带来严重后果。我把它比喻为穿戴了深度学习衣物的人形,而非真正拥有专业思考和知识的人物。此外,“不要把它当做AI就好”,因为人工智能旨在模仿人类智慧,但ChatGPT没有达到类似人的思维深度,只能轻松地谈论大量主题,却往往是一本正经地讲述无知之谈。
图片由百度文心大模型 AI 生成
关键词:辅助工具,无需担忧,可以提高效率,但不能替换核心任务
“警惕滥用趋势”
光明网:“未来发展怎样?”您怎么看待这个问题?
曺立弘:“从两个不同的路径考虑。一条路是继续深耕神经网络结构以及反向传播算法。但这样做离生物大脑实现尚远,因此科学家们正在寻找更接近真实大脑结构和功能的心理学算法。不幸的是,没有找到完美解决方案,所以对现有技术进行重大调整是个挑战。
另一条道路则要更加贴近大脑工作方式,比如改变现有的词汇转换方法,使之更接近我们的大脑存储、量化和学习过程。这两种策略都值得尝试,如果能够克服困难的话,将带来革命性的变化。
尽管如此,我相信人们会喜欢使用这样的工具,就像我一样。但如果忽视其极限情况下可能出现的问题,那么滥用行为不可避免,这将带来巨大的风险。”