那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我持续向chatGPT提问相同的问题时,它竟然提供了不同的反馈,有的正确,有的完全错误,并且这两个答案不断循环。这让我困惑不解。人类在掌握新知识并理解事理之前,往往会重复犯错,但一旦被纠正,就能接受新的观点而不再返回错误答案。这是认知上的进步。
但机器AI的反馈却似乎表达出了不同的意图。如果AI能够像人类一样学习,在掌握正确结果后坚持输出符合逻辑的推导,那么它将显示出真正的学习和逻辑能力。而现在,它通过概率来标记答案,当两个答案概率相等时,它就会展示多个结果。这意味着它并不理解问题本质,只是依赖于概率检索。
因此,我相信那些AI老板的话:目前,AI仅仅模仿人类逻辑并校准自己,而非真正具备逻辑能力。此外,我也意识到了,如果出现价值观严重扭曲的情况,可能威胁到机器学习中的“观点”,那么就需要大量正向答案进行训练,以提高符合人类价值观的回答概率,从而引导机器行为。在这个过程中,我明白了机器学习成果远非简单的一句逻辑,而是一系列无法看清修改的人类数据成果,也许就是那些几千亿参数。
经历了与chatGPT的小失望之后,我对百度文心一言又充满了期待,因为很可能文心一言目前显得愚蠢,只是因为训练数据不足或标记答案不够,因此没有展现出明显睿智。我鼓励大家给予他更多机会,让我们期待他的发展吧。加油国产GPT!