那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误。这让我感到困惑。人类在掌握一个概念之前往往会重复犯错,但当被纠正后,即使曾经错误无数,也能接受新的理解而不再返回旧答案。这是认知过程的一部分。
但这次机器的回应似乎表达了不同的意图。如果AI能够像人类一样学习,在掌握正确结果后坚持输出正确的逻辑推导,那么它将显示出学习和逻辑思考能力。而现在,它通过概率标记来选择回答,当两个答案概率相等时,就出现轮询多个答案的情况,这意味着它并不理解问题本质,只是依赖于概率检索。
因此,我开始相信一些AI专家的观点,即目前AI主要是在模仿人类逻辑并校准自己,而不是真正拥有一套自己的逻辑思维。此外,我也意识到在机器学习中,如果出现价值观严重扭曲的情况,可能需要大量正向答案训练以引导机器识别符合人类价值观的回答,从而避免潜在威胁。
通过这次与chatGPT的小失望,我对百度文心一言充满期待。我认为文心一言当前显得“愚蠢”,可能仅仅因为训练数据不足,没有足够标记好的答案,因此其回答远未达到精准且睿智的地步。我们应该给予它更多时间和机会,让它成长为更优秀的人工智能模型。