那天我对chatGPT和文心一言进行了测试,结果显示chatGPT在语义准确性和逻辑表现上占据优势,这让人既感到欣慰又对文心一言抱有同情。然而,当我持续向chatGPT提出同一个问题时,它竟然提供了不同的答案,有的正确,有的错误,并且这些回答循环不停。这让我深感困惑。
人类在掌握某事之前往往会重复犯错,但当被纠正后,即使曾经错误无数,也能接受新的观点并坚持下去。这是一种认知能力。但是,机器AI似乎没有达到这一水平。在回答问题时,它可能依赖概率标记,而不是真正理解问题或其逻辑。当两个答案的概率相同时,它就返回多个可能的答案,这说明它并不具备真正的问题理解能力,只能通过检索概率来回应。
因此,我开始相信一些AI专家的说法,即目前AI仅仅模仿人类的逻辑行为而非拥有一般性的逻辑能力。此外,在机器学习过程中,如果出现价值观严重扭曲的情况,AI工程师将使用大量符合人类价值观的正向反馈来训练机器,以确保它们能够识别出符合我们价值观的答案。
此次小失望也让我对百度文心一言充满期待,因为很可能文心一言目前表现出的“愚蠢”只是由于缺乏足够训练数据和标记答案,从而无法展现出高效准确的回答。我希望给予它机会去成长。加油国产GPT!