那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误,并且这些回答不断重复。这让我感到困惑。通常,人类在掌握一个概念或理解事理之前,可能会多次犯错,但一旦被纠正,他们就会接受新观点并停止回退到错误答案。这是认知的一部分。
但这次机器的反馈似乎表达了不同的信息。如果AI能像人类一样学习,在学到正确结果后坚持提供正确逻辑推导出的答案,我会认为它具备学习能力。但现在,它似乎使用概率来标记答案。当两个答案具有相等概率时,它就展示出了轮询多个结果。这意味着它并不真正理解问题,也许连问题本身都不懂,只是在检索概率。
因此,我相信一些AI专家的说法,即目前AI只是模仿人类逻辑而非真正拥有一套逻辑系统。此外,我也意识到了在机器学习中,如果出现价值观严重扭曲的情况,AI工程师需要通过大量正向训练来引导机器选择符合人类价值观的答案,以防止负面影响。
经过这次对话的小失望,让我更加期待文心一言能够实现突破,因为很可能它当前显得愚蠢,是因为缺乏足够训练数据以及标记答案不足。因此,没有办法展现出百发八中的睿智。我给予它充满期待,加油国产GPT!