那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误。这让我感到困惑。通常来说,人类在理解一个事理之前可能会重复犯同样的错误,但当被纠正后,无论曾经多么错误,都能接受新观点并停止返回错误答案。这是人类认知过程的一部分。
但这次机器AI的反应似乎表达出了不同的信息。如果AI能够像人类一样学习到正确结果后,一直坚持输出正确逻辑推导出的答案,那将意味着它具备学习和逻辑能力。而现在,它似乎是在用概率来标记答案。当两个答案的概率相同时,它就会显示出轮询多个结果。这意味着它并不真正理解问题,更不懂得问题本质,只是依赖于概率检索。
因此,我开始相信一些AI开发者的说法,即目前AI主要是在模仿人类逻辑并校准自己,而非真正具备逻辑能力。此外,我也意识到了在机器人学习中,如果出现价值观严重扭曲的情况,可能会威胁到整个机器学习系统。在这种情况下,工程师们会使用大量符合人类价值观的正向反馈来训练和引导机器,使其识别出符合价值观的答案概率更高。这样做可以帮助引导机器行为,同时也让我明白了机器学习成果并不仅仅是一句简单的事实,而是一个由数千亿参数构成、难以看透修改的大数据成果。
通过对chatGPT这一小失望,我又对百度文心一言充满了期待。我认为文心一言当前显得有些愚蠢,其回答未必因为缺乏训练而无法达到完美状态,也许只是因为标记答案不够,因此没有展现出明显地睿智。所以,我们应该给予它更多时间和机会,让它努力前行吧,加油国产GPT!