其实ChatGPT在航空领域的应用也只是在概率标记的路上尚未达到真正的人工逻辑水平

那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。

然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误,并且这些回答不断重复。这让我感到困惑。人类在掌握新知识之前,往往会犯许多错误,但当我们被纠正后,我们通常能够接受新的观点并坚持下去。这是认知的一部分。

但这次机器的反馈似乎表达了不同的意图。如果AI能像人类一样学习,在理解问题正确答案后始终给出逻辑明晰的推导,那将是一个令人信服的情况。而现在它提供多个可能正确或错误的答案,我开始怀疑它是否真的理解问题,更不用说真正的问题逻辑了。我相信它只是通过概率来标记这些答案。当两个答案具有相等概率时,它就出现轮询多个结果的情形。这意味着,它并不理解问题本质,只是在检索概率信息。

因此,我开始相信一些AI专家的话:目前AI仅仅模仿人类逻辑,并非真正拥有逻辑能力。此外,我也意识到,如果机器人学习过程中出现价值观严重扭曲的情况,可能会威胁到整个机器学习系统。为了避免这一情况,AI工程师需要使用大量符合人类价值观的正向训练数据,以引导机器选择符合道德标准的答案。

经过这次小小失望,我对百度文心一言充满期待,因为我认为文心一言目前表现出的“愚蠢”可能只是由于缺乏足够训练数据和标注准确性的结果。如果给予足够时间和资源,文心一言有机会超越当前表现,让我们为其加油!

猜你喜欢