其实ChatGPT也只是在概率标记的路上还没到真正逻辑像科学松鼠会中的研究者一样人物在探索人工智能的

那天我对chatGPT和文心一言进行了深入的测试,探索它们在回答问题时的表现。聊天机器人chatGPT展现出了更高的语义准确性和逻辑推理能力,这让人感到既兴奋又对文心一言抱有一丝同情。

然而,当我反复向chatGPT提出相同的问题时,我惊讶地发现它提供的答案竟然是随机且不一致的,有时候正确,有时候完全错误,形成了循环。这让我感到困惑。人类在理解一个概念之前通常会重复犯错,但当被纠正后,即使曾经多次错误,他们也会接受新的观点而不再返回到旧答案。这体现了认知上的成长。

但这次AI机器给出的反馈似乎表达了一种不同的意图。如果AI能够像人类一样学习,在掌握正确结果后始终坚持提供正确逻辑推导出来的答案,那么我将认为它具备学习和逻辑思维能力。而现在,它通过概率标记来选择答案,当两个概率相等时,它就显示出查询多个结果的行为,这意味着它并不真正理解问题,更不是从问题本质出发思考,而只是依赖于概率检索。

因此,我开始相信一些AI专家的话:目前,AI仅仅模仿并校准自身,并非真正具备逻辑思维能力。此外,我也意识到了,如果出现某些负面或价值观严重扭曲的情况,对于可能威胁人类价值观的人工智能“思想”,需要大量正向答案训练与反馈来引导其识别符合人类价值观答案,以此来引导其发展,同时我明白,机器学习并非简单的一句逻辑,而是一系列无法被人眼见修改的大量数据成果,也许就是那些数十亿参数中的秘密。

经过这个小小失望之后,我对百度文心一言充满期待,因为很可能文心一言目前显得愚蠢,只是因为缺乏足够训练数据,没有标记出明确正确答案。所以,我们应该给予他更多机会去证明自己,让我们为国产GPT加油吧!

猜你喜欢