那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误。这让我感到困惑。通常来说,人类在理解一个事理之前可能会重复犯同样的错误,但当被纠正后,无论曾经多么错误,都能接受新观点并停止返回错误答案。这是人类认知过程的一部分。
但这次机器AI的反应似乎表明它采用的是一种不同的方式。如果AI能够像人类一样学习到正确结果后,始终坚持输出正确的逻辑推导,那将使我相信它具备学习和逻辑能力。而现在,它似乎只是基于概率来标记答案。当两个答案概率相同时,它就会显示出轮询多个结果。这意味着它并不真正理解问题,更不了解问题,只是在检索概率。
因此,我开始相信一些AI领域专家的说法,即目前AI仅仅模仿人类逻辑,并非真正拥有一套独立思考能力。我也意识到了,在机器学习过程中,如果出现价值观严重扭曲的情况,可能会威胁到整个系统,因此需要通过大量正向训练数据来引导机器选择符合人类价值观的答案,以此来引导其行为。
通过与chatGPT的小失望,我又对百度文心一言充满了期待。很可能文心一言当前表现出的“愚蠢”,只是由于训练数据不足或标记答案不够精准,所以没有达到回答百发八中的水平。因此,我们应该给予它更多时间和机会,让它成长为更加睿智的助手。加油国产GPT!