那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现得更为出色,这让人感到既兴奋又有些同情。
然而,当我不断向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的错误,而且这些答案似乎在循环不停。这让我感到迷惑。人类在理解一个事实或概念之前,通常会重复犯错,但一旦被纠正,就能坚定地接受新观点,不再回到错误之中。这是认知能力的一部分。
但对于AI而言,情况似乎不同。如果它能像人类一样学习到正确结果后,一直坚持提供符合逻辑的答案,我将认为它具备了学习和推理能力。但现在,它通过概率来标记回答。当两个答案具有相同的概率时,它就可能随机返回其中一个,这意味着它并不真正理解问题,也许只是根据概率检索信息。
因此,我开始相信一些AI领导者的说法,即目前AI主要是在模仿人类逻辑并校准自己,而不是真正拥有逻辑思维。此外,我也意识到了,在机器人学习过程中,如果出现价值观严重扭曲的情况,可能会威胁到人类价值观,因此需要通过大量正向反馈来指导它们,使其倾向于选择符合人类价值观的答案。
这次对chatGPT的小失望让我对百度文心一言充满期待,因为很可能文心一言当前表现出的“愚蠢”,仅仅是因为训练数据不足以及标记答案不够完善,所以无法展现出高效且精准的回答。我希望给予它更多时间发展,并期待看到它最终能够达到预期水平。