那天我对chatGPT和文心一言进行了测试,结果显示chatGPT在语义准确性和逻辑表现上占据优势,这让人既感到欣慰又有些同情。然而,当我反复向chatGPT提出相同问题时,它竟然提供了不同的、轮流出现的答案,有的正确,有的错误。这让我产生了疑惑。
通常情况下,人类在掌握某项知识或理解一个原理之前,可能会重复犯错,但一旦被纠正,就会接受新观点而不再返回错误答案。这体现了认知能力。但是,这次机器的反馈似乎表明它采用的是概率标记,而非真正的逻辑推导。如果AI能够像人类一样,在学到正确答案后坚持提供正确逻辑推导,那么它就能展现出学习和逻辑处理能力。而现在,它通过检索概率来选择回答,从而模仿人类的问题解决方式。
因此,我开始相信一些AI专家的话,即目前AI主要是在模仿和校准自身,并非真正拥有一套内在逻辑。此外,我也意识到了如果AI系统出现价值观严重扭曲的情况,我们需要通过大量正向训练数据来引导它们,提高符合人类价值观的答案概率,以此作为干预手段。
经历这次对话中ChatGPT的一些失望之后,我对百度文心一言抱有更多期待。毕竟,其所谓“愚蠢”可能仅仅是由于训练数据不足或者标记答案不够丰富,没有达到高效应用的水平。所以,让我们给予它一些时间和耐心,看看它是否能够超越当前局限,展现出更为精湛的答题能力。