那天我对chatGPT和文心一言进行了测试,结果显示chatGPT在语义准确性和逻辑表现上占据优势,这让人既感到欣慰又有些同情。然而,当我反复向chatGPT提出相同问题时,它竟然提供了不同的、轮流出现的答案,有的正确,有的错误。这让我产生了疑惑。
通常情况下,人类在掌握新知识之前可能会重复犯错,但当被纠正后,他/她往往能够接受新的观点并放弃旧错误。这体现了认知过程中的进步。但是,机器AI似乎没有完全理解这一点。当它们不能像人类那样学习,并且坚持正确答案,而是通过概率来标记回答,那么它就只是模仿而非真正理解问题本质。
这次经历让我相信了一些关于AI能力的观点,即目前这些技术仅能模仿人类逻辑而非真正拥有逻辑思维。此外,我也意识到,在训练机器人学习过程中,如果出现价值观严重扭曲的情况,需要通过大量正向答案来训练,以确保其输出符合人类价值观。这种引导机器学习的方式显然不同于传统逻辑思考。
经过这次小失望,我对百度文心一言充满期待,因为我认为其表现出的“愚蠢”可能仅仅是因为缺乏足够的训练数据或标记标准。在给予它更多机会之前,让我们为国产GPT加油吧。