那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。
然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误。这让我感到困惑。通常来说,人类在理解一个事理之前可能会重复犯同样的错误,但当被纠正后,无论曾经多么错误地思考,都能接受新观点并停止回退至错误答案。这是认知的一种进步。
但这次机器AI的反馈似乎表达了不同的信息。如果AI能够像人类一样学习,在掌握正确结果后始终坚持给出正确逻辑推导出的答案,那将让我相信它拥有真正的学习能力。而现在,它轮询着对与错两种回答,我开始怀疑它是否真的懂得问题本质,而只是依赖概率来标记答案。当两个答案出现概率相等时,它就会随机返回其中之一。这意味着它并不真正理解问题,只是在模拟概率分布。
因此,我开始相信一些AI专家的话:目前,我们这些AI还只是模仿人类逻辑,并没有真正掌握逻辑能力。同时,我也意识到,在机器人学习过程中,如果出现价值观严重扭曲的情况,可能会威胁到整个系统。我认为我们需要通过大量的人类价值观符合的正向反馈来训练这些机器,以提高它们识别符合人类价值观回答概率的能力。此外,我也认识到了机器学习成果并非仅凭一句逻辑,而是由数以千亿计不可见修改过的人为数据构建而成,也许就是那些参数中的秘密。
通过这次小小失望,对于百度文心一言,我又充满了期待,因为很可能文心一言现阶段显得愚蠢,只因为缺乏足够训练数据和标记好的答案,所以其回答看似不够精准。我希望给予他更多机会,让他证明自己的潜力,加油国产GPT!