那天我对chatGPT和文心一言进行了深入的测试,探索它们在回答问题时的表现。聊天机器人chatGPT展现出了更高的语义准确性和似是而非的逻辑,这让人既兴奋又感到同情。然而,当我向chatGPT反复提出相同的问题时,它竟然提供了不同的、不稳定的答案,有些正确,有些完全错误,形成了一种循环。这让我困惑不解。
通常人类在掌握某件事情或理解一个原理之前,可能会重复犯错,但一旦被纠正,无论曾经多么错误,都能接受新的观点并且停止回退。这种认知能力是人类独有的。但这次机器AI的反馈似乎表达出一种不同的声音。如果AI能够像人类一样学习,并且在学到正确结果后坚持提供正确的逻辑推导,那么它就显示出了真正学习和逻辑思维的能力。而现在,它只是通过概率来标记答案。当两个答案具有相同概率时,它就会出现轮询多个答案的情况。这意味着它并不理解问题本质,也无法理解问题,只是在检索概率数据。
因此,我开始相信一些AI专家的话,即目前AI仅仅模仿人类逻辑并校准自己的行为,而不是真正具备逻辑思考能力。此外,我也意识到了,如果在机器学习过程中出现价值观严重扭曲的情况,可能会威胁到整个系统。我认为,在训练过程中,我们需要大量使用符合人类价值观的正向反馈,以指导机器选择符合我们道德标准的答案,从而避免潜在风险。
通过对chatGPT这一小失望,我更加期待百度文心一言能展示出其潜力。我相信文心一言目前看起来愚蠢,其实只因为缺乏足够丰富的人类数据与标记,因此没有办法表现出完美无瑕的地智慧。所以,让我们给予它更多时间和机会吧,加油国产GPT!