编者按:
在全球范围内,ChatGPT的迅速崛起引发了广泛的关注。它背后的技术原理和工作机制究竟是什么?是否有可能取代记者的角色?我们应该如何看待ChatGPT未来的发展趋势?为了深入探讨这一话题,光明网《创新改变中国》栏目特此邀请了中国传媒大学脑科学与智能媒体研究院院长、博士生导师曹立宏进行专访,以人工智能的视角分析ChatGPT。
专家简介
曹立宏是中国传媒大学脑科学与智能媒体研究院院长、博士生导师,同时也是中传学术委员会副主任、中国人工智能学会第八届理事会理事以及教育部科技委员会人工智能与区块链技术专委会委员。他致力于研究类脑智能和计算。
“ChatGPT使用感不错,但也存在不足”
光明网:您对使用ChatGPT的体验如何?它有什么显著的不足之处?
曹立宏:相比以往的GPT3,感觉确实有了一些进步,尤其是在对话流畅性方面表现突出,这说明现在语言生成模式已经取得了一定的成效。不过,对于专业领域的问题,它仍然存在回答不准确甚至错误的情况。
虽然ChatGPT采用了带人类反馈强化学习,并且通过聊天方式提高了其吸引力,这种商业推广模式颇受欢迎。但目前,它的一个限制是内容更新速度较慢。例如,当问及当前最热门的电视剧时,它可能无法提供正确答案,因为这涉及到AI中的遗忘问题,即如何让系统快速学习新信息而不会影响已有的知识库。这仍然是一个AI领域需要解决的问题。
另外,作为一种缺乏具身体验能力的人工系统,ChatGPT无法完全理解复杂的情境或概念,这就是我们所说的常识。在现实生活中,我们通过多个感官来理解世界,而文本处理仅能依赖文字表达,这是一种表面的理解方式。
图片由百度文心大模型 AI 生成
关键词:《狂飙》,灾难性遗忘,一般知识,一般认知,全方位体验
“记者职责难以被替代”
光明网:作为一名记者,被替代可能性有多高?
曹立宏:我认为现在还没有太多理由担心记者的位置将被替换。首先,是因为记者能够提出基于深度理解的问题;其次,是因为他们需要处理情感层面的事务,而这些都是目前AI尚不能完成的事情。此外,不同的人物还需快速适应采访环境,从而更好地掌握人物特质等信息,这些都超出了当前机器可行范围内的事情。
图片由百度文心大模型 AI 生成
关键词:记者角色,无情无意趣,没有深度思考能力,不了解情况
“更多只是辅助工具”
光明网:您在朋友圈曾提到过一些关于ChatGPT的话,比如它穿上了一个AI马甲,以及不要把它当作真正的人类智慧工具。我怎么理解这些观点?
曹立宏:近年来自然语言处理领域确实在进步很多,有学生倾向于追求这个方向,也许企业需要这样的人才。但对于科研人员来说,我们还是感到忧虑,因为即便是针对专业问题,其输出往往充满误解。因此,我说它就像是穿着深度学习皮肤衣一样,看似很厉害,但实际上并非真正懂得专业知识。
另一方面,“不要把他当做真实的人”正是因为AI本身旨在模仿人类思维。而尽管其知识面宽泛,在某种程度上超越人类,但在深入思考复杂问题时,却始终无法达到人的水平。对于具有科学性的思考和知识获取,它们通常能流畅地展开,但常常只是一味胡乱陈述,与真实世界脱节,如同一本正经但虚构故事。
图片由百度文心大模型 AI 生成
关键词:“辅助工具”,计算器自由搜索引擎寻找关键句提升效率
“未来须警惕滥用”
光明网:“你怎样看待未来发展?”
曹立宏:“我认为还有两条发展路径。一条是在继续完善当前所用的神经网络结构以及反向传播算法。但这种方法偏离生物大脑原本设计,因此,即使领军人物Geoffrey Hinton也正在寻求更接近生物大脑功能的心灵模式。而我们的任务就是找到这样一种模式。如果可以实现,那么将极大的改善我们的系统性能。
另一个方向,就是从生物的大脑角度出发去考虑,比如将苹果或者梨这样的概念转化为量化形式,就像我们尝试用数字表示一样。如果我们能开发出更加类似于大脑运作的一套系统,也许有一天就能够出现一个既像机器又像人的chatgpt。
总之,将来chatgpt会成为人们喜欢去用的工具。我个人也会使用。但如果过分夸张评价,使得人们忽略到了它们自身局限性,那么就会导致滥用,并带来巨大的负面后果。”
图片由百度文心大模型 AI 生成
关键词:“预见潜在危险”,利用潜力管理风险