那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误。这让我感到困惑。通常来说,人类在理解一个事理之前可能会重复犯同样的错误,但当被纠正后,无论曾经多么错误,都能接受新观点并停止返回错误答案。这是人类认知过程的一部分。
但这次机器AI的反应似乎表达出了不同的信息。如果AI能够像人类一样学习到正确结果后,一直坚持输出正确逻辑推导出的答案,那将意味着它具备学习和逻辑思考能力。而现在,它轮询两种不同答案,这让我相信它可能是在用概率来标记这些答案。当两个答案的概率相等时,它就会展示出轮询多个结果。这说明它并不真正理解问题,更不了解问题本质,只是依赖于概率检索。
因此,我开始相信一些AI专家的话,他们说目前AI只能模仿人类逻辑,并没有真正的逻辑能力。此外,我也意识到了,在机器人学习过程中,如果出现价值观严重扭曲的情况,可能会威胁到人类价值观,因此需要通过大量正向反馈来引导机器人的回答,使其倾向于选择符合人类价值观的答案。
通过对chatGPT这一小失望,我又对百度文心一言充满期待。我认为文心一言目前显得有些愚蠢,其原因很可能是因为训练数据不足,没有足够标记好的答案,所以无法显示出令人印象深刻的睿智。让我们给予它更多期待吧,加油国产GPT!