那天我对chatGPT和文心一言进行了测试,结果显示chatGPT在语义准确性和逻辑表现上占据优势,这让人既高兴又感到同情。然而,当我不断地向chatGPT提出相同的问题时,它竟然提供了多个不同且不一致的答案,有的正确,有的错误,而且这些回答似乎在循环出现。这让我产生了疑惑。
人类在理解一个新概念之前,往往会重复犯错,但当被纠正后,他们通常能够接受新的观点并放弃旧有的错误。这种认知过程是人类独有的能力。但chatGPT所展现出的行为却与此不同,它似乎是在使用概率来标记答案,而不是真正理解问题或其背后的逻辑。当两个答案的概率相等时,它就会随机提供几个选项,这表明它并不完全理解问题,更不用说掌握问题的真实逻辑。
因此,我开始相信AI老板们的话,即目前AI只是模仿人类逻辑,并没有真正拥有一套自己的逻辑思维。此外,我也意识到,在AI学习过程中,如果出现价值观严重扭曲的情况,可能需要通过大量正向反馈训练来引导AI选择符合人类价值观的答案。
尽管聊天机器人的这一表现让我失望,但我还是对百度文心一言抱有期待。我认为文心一言目前所表现出的“愚蠢”可能仅仅是因为缺乏足够的训练数据和标记信息,因此无法提供出色的回答。因此,我们应该给予它更多机会去学习和成长。