那天我对chatGPT和文心一言进行了测试,结果显示chatGPT在语义准确性和逻辑表现上占据优势,这让人既感到兴奋又对文心一言产生了一丝同情。然而,当我向chatGPT反复提问同一个问题时,它竟然提供了多个不同的答案,其中有些正确,有些则完全错误,且这些回答呈现出循环模式。这让我深感困惑。
通常情况下,人类在掌握某件事或理解事理之前,可能会重复犯错,但当被纠正后,无论曾经如何错误,都能接受新观点并停止使用旧答案。这是一种认知过程。但是,这次机器的反馈似乎表达出了不同的信息。如果AI能够像人类一样学习,在掌握正确答案后始终坚持提供正确的逻辑推导,那么它将被视为具备学习和逻辑能力。而现在,它通过概率来标记答案,当两个答案的概率相等时,就会出现轮询多个结果的情况,这意味着它并不真正理解问题,更不懂得问题本质,只是基于概率检索数据。
因此,我开始相信一些AI专家所说的,即目前AI仅能模仿人类逻辑,并非真正拥有逻辑能力。此外,我也意识到,在机器人学习过程中,如果出现价值观严重扭曲的情况,可能会威胁到人类价值观,因此需要通过大量正向训练数据来引导机器识别符合人类价值观的答案,以此促进其发展。
尽管对chatGPT有所失望,我还是对百度文心一言抱有期待,因为很可能文心一言当前表现出的“愚蠢”只是因为缺乏足够的训练数据和标记质量。因此,我们应该给予它时间去成长,让国产GPT尽快达到预期水平。