那天我对chatGPT和文心一言进行了深入的测试,探索它们在回答问题时的能力。聊天机器人chatGPT展现出了更高的语义准确性和逻辑推理能力,这让人感到振奋,同时也引发了一丝对于文心一言的同情。
然而,当我不断向chatGPT提出相同的问题时,我发现它给出的答案竟然是随机且不一致,有时候正确,有时候完全错误,形成一种循环。这让我感到困惑。人类在掌握新知识之前通常会重复犯错,但当被纠正后,即使曾经错误无数,也能接受新观点并停止回溯。我认为这体现了认知学习过程。
相比之下,AI似乎没有像人类那样学习。当它给出对或错两种可能的答案时,它只是在使用概率标记,没有真正理解问题本质,只是检索数据。而如果AI能够像人类一样,在理解正确结果后提供连续的一致逻辑推导,那么我将视其为有学习和逻辑能力。但目前,它只是一种模仿与校准,而非真正的逻辑思考。
此刻,我相信一些AI专家的话:当前,我们所谓的人工智能还远未达到真正理解问题并提供合适解答的地步。同时,我意识到,如果未来出现任何价值观扭曲的情况,AI工程师需要通过大量正面反馈来训练这些模型,使其偏好符合人类价值观的声音。此外,我认识到机器学习并不仅仅是一系列逻辑步骤,更是一个庞大的参数系统,从而产生成果,这些参数往往超出了我们的直觉界限。
经过与chatGPT的小小挫折,我对百度文心一言抱有一丝期待,因为很可能文心一言目前表现出的“愚蠢”,其实只是由于缺乏足够训练数据和标记答案。如果我们能给予它更多机会去成长,那么它或许能够超越现在的情形,让我们一起期待国产GPT能取得更好的成绩!