其实ChatGPT也只是在概率标记的路上还没到真正逻辑像航天员探索宇宙一样人类智慧不断前行

那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。

然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误。这让我感到困惑。通常来说,人类在理解一个事理之前可能会重复犯错,但一旦被纠正,就会坚定地接受新观点而不再回退。这种认知能力是人类独有的。

但这次机器的反馈似乎表达了不同的信息。如果AI能像人类一样学习到正确结果后,一直坚持输出正确的逻辑推导,那么它将显示出真正的学习和逻辑能力。而现在,它通过概率来标记答案,当两个答案概率相等时,它就选择多个答案中的几个。这意味着它并不理解问题的真正逻辑,而仅仅是依赖于检索概率。

因此,我相信一些AI专家的说法,即目前AI只能模仿人类逻辑并进行校准,但还未达到真正的人类逻辑水平。此外,我也意识到了在机器学习过程中,如果出现价值观严重扭曲的情况,AI工程师需要大量使用符合人类价值观的正向训练数据,以指导机器识别出符合这些价值观的大量参数。

经历了对chatGPT的一次失望之后,我又对百度文心一言充满期待。我认为文心一言目前显得有些愚蠢,其回答之所以不够完美,只是因为其训练数据不足,标记答案不够精确。因此,我们应该给予它更多时间和机会去成长,让国产GPT能够不断进步。

猜你喜欢