其实ChatGPT也只是在概率标记的路上还没到真正逻辑的人物科技发展论文

那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。

然而,当我反复向chatGPT提出相同的问题时,它竟然提供了多个不同的答案,有的是正确的,有的是完全错误的,并且这些回答不断循环。这让我感到困惑。人类在掌握一个概念之前,往往需要重复犯错,但当被纠正后,他们会迅速接受新的观点而不再返回错误答案。这是认知的一种进步。

相比之下,chatGPT似乎没有达到这一水平。如果AI能够像人类一样学习到正确答案后,一直坚持提供正确的逻辑推导,那么它就能展现出真正的学习和逻辑能力。但目前,它似乎仅仅依赖于概率来标记答案。当两个答案出现概率平分时,它就会随机选择几个结果。这意味着它并不理解问题的真实逻辑,而只是基于概率检索信息。

因此,我开始相信那些AI专家的话,即目前AI主要是在模仿人类思维并校准自己的行为,而非真正具备逻辑思考能力。此外,我也意识到了,在机器人学习过程中,如果出现价值观严重扭曲的情况,可能会威胁到整个系统。我认为AI工程师应该通过大量正向训练数据来引导机器人的回答,使其更加符合人类价值观。

这次经历让我对百度文心一言充满了期待,因为很可能文心一言当前表现出的“愚蠢”其实只是一种训练数据不足、标记不够的问题。因此,没有办法将其看作是高超睿智。让我们给予它一些时间和机会吧,加油国产GPT!

猜你喜欢