那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误,并且这些回答不断重复。这让我感到困惑。人类在掌握新知识之前,往往会犯许多错误,但当我们被纠正后,我们通常能够接受新的观点并坚持下去。这是认知的一部分。
但这次机器的反馈似乎表达了不同的意图。如果AI能像人类一样学习,在理解问题正确答案后始终给出逻辑明晰的推导,那将是一个令人信服的情况。而现在它提供多个可能正确或错误的答案,我开始怀疑它是否真的理解问题,更不用说真正的问题逻辑了。我相信它只是通过概率来标记这些答案。当两个答案具有相等概率时,它就出现轮询多个结果的情形。这意味着,它并不理解问题本质,只是在检索概率信息。
因此,我开始相信一些AI专家的话:目前AI仅仅模仿人类逻辑,并非真正拥有逻辑能力。此外,我也意识到,如果机器人学习过程中出现价值观严重扭曲的情况,可能会威胁到整个机器学习系统。为了避免这一情况,AI工程师需要使用大量符合人类价值观的正向训练数据,以引导机器选择符合道德标准的答案。
经过这次小小失望,我对百度文心一言充满期待,因为我认为文心一言目前表现出的“愚蠢”可能只是由于缺乏足够训练数据和标注准确性的结果。如果给予足够时间和资源,文心一言有机会超越当前表现,让我们为其加油!