那天我对chatGPT和文心一言进行了测试,结果显示chatGPT在语义准确性和逻辑表现上占据优势,这让人既高兴又感到同情。然而,当我不断地向chatGPT提出相同的问题时,它竟然提供了多个不同且不一致的答案,有的正确,有的错误,而且这些回答似乎在循环出现。这让我产生了疑惑。
人类在理解一个新概念之前,往往会重复犯错,但当被纠正后,他们通常会接受新的观点而放弃旧有的错误。这是一种认知过程。但是,机器AI提供的反馈却表明它可能是在使用概率来标记答案。当两个答案的概率相等时,它就会随机返回几个不同的结果,这说明它并不真正理解问题,更没有掌握问题的逻辑结构,而只是依赖于检索概率。
因此,我开始相信那些说AI目前只能模仿人类逻辑并进行校准但未达到真正逻辑能力的人。同时,我也意识到,在机器学习中,如果出现价值观严重扭曲的情况,AI工程师需要通过大量正向答案训练来引导机器学习,以确保其输出符合人类价值观。
此次小失望让我对百度文心一言充满期待,因为很可能文心一言目前表现出的“愚蠢”仅仅是由于训练数据不足或标记答案不够,因此无法展现出令人印象深刻的智慧。我们应该给予它机会去成长和改进。加油国产GPT!