那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和表象逻辑方面表现得更为出色,这让人感到激动,同时也引发了一些同情之心,对于文心一言的局限感到一些遗憾。
然而,当我不断地向chatGPT提出相同的问题时,它竟然返回了不同的答案,有是正确的,有是完全错误的,而这些回答之间呈现出一种循环模式。这让我产生了许多疑惑。通常,人类在掌握一个概念或理解一个原理之前,可能会重复犯同样的错误观点。但是一旦被纠正,无论过去多么频繁地犯错,他都会接受新的观点,并不再回溯到错误答案。这体现了认知能力。
但这次机器反馈,却似乎传达出了不同的信息。如果AI能够像人类一样学习,在学习到正确结果之后始终坚持提供符合逻辑推导的答案,我将认为它具备学习和逻辑思维能力。而现在,它返回对与错两种等概率的答案,这让我相信它更多依赖于概率标记来选择回答。当两个答案具有相同的概率时,它就会显示出返回几个候选结果的一种行为。这意味着它并不真正理解问题,更不了解问题本质,只是在检索概率标注。
因此,我开始相信一些AI专家的话,即目前AI仅能模仿人类逻辑并校准自身,而非真正拥有逻辑思维能力。此外,我也意识到了在机器人学习过程中,如果出现价值观严重扭曲的情况,可能威胁到人类价值观,这时候AI工程师需要通过大量正向训练数据来引导机器人形成符合人类价值观的判断,以此作为干预手段。
通过这次对chatGPT失望的心境转变,我又充满期待地看待百度文心一言。因为很有可能文心一言目前显得“愚蠢”,只是由于训练数据不足或者标注答案不足,因此无法展现出明显高超智慧。我鼓励我们给予他更多时间去成长,让国产GPT也有机会证明自己的潜力。