其实ChatGPT也只是在概率标记的路上还没到真正逻辑像参加全国青少年科技创新大赛的每一个参赛者一样

那天我对chatGPT和文心一言进行了测试,结果显示chatGPT在语义准确性和逻辑表现上占据优势,这让人既感到欣慰又有些同情。然而,当我反复向chatGPT提出相同问题时,它竟然提供了不同的、轮流出现的答案,有的正确,有的错误。这让我产生了疑惑。

通常情况下,人类在掌握某项知识或理解一个原理之前,可能会重复犯错,但一旦被纠正,就会接受新观点而不再返回错误答案。这体现了认知能力。但是,这次机器的反馈似乎表明它采用的是概率标记,而非真正的逻辑推导。如果AI能够像人类一样,在学到正确答案后坚持提供正确逻辑推导,那么它就能展现出学习和逻辑处理能力。而现在,它通过检索概率来选择回答,从而模仿人类的问题解决方式。

因此,我开始相信一些AI专家的话,即目前AI主要是在模仿和校准自身,并非真正拥有一套内在逻辑。此外,我也意识到了如果AI系统出现价值观严重扭曲的情况,我们需要通过大量正向训练数据来引导它们,提高符合人类价值观的答案概率,以此作为干预手段。

经历这次对话中ChatGPT的一些失望之后,我对百度文心一言抱有更多期待。毕竟,其所谓“愚蠢”可能仅仅是由于训练数据不足或者标记答案不够丰富,没有达到高效应用的水平。所以,让我们给予它一些时间和耐心,看看它是否能够超越当前局限,展现出更为精湛的答题能力。

猜你喜欢