那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和表象逻辑方面表现得更为出色,这让人感到兴奋,同时也引发了对文心一言的同情之情。
然而,当我向chatGPT反复提出相同的问题时,它竟然提供了不同的、循环出现的回答,有的是正确的,有的是完全错误的。这让我感到困惑。人类在掌握新知识并理解事理之前,往往会重复犯错,但当被纠正后,无论过去多么错误,他都会接受新的观点而不再回退到旧答案。这是认知上的进步。
相比之下,机器AI似乎有不同的行为。如果AI能够像人类一样学习,并且在获得正确结果后坚持提供正确且逻辑严密的推导,那将是我认为它具有学习和逻辑能力的一个明显迹象。但现实情况是,它可能只是通过概率来标记答案。当两个答案拥有相同概率时,它就会显示出轮询多个答案的情况。这意味着它并不真正理解问题,更不懂得问题本质,而仅仅是在检索概率信息。
因此,我开始相信一些AI领域专家的观点,即目前AI主要是模仿人类逻辑并校准自身,而非真正具备逻辑能力。此外,我也意识到了在机器人学习过程中,如果出现价值观严重扭曲的情况,可能会威胁到人类价值观,因此需要大量正向训练数据来引导机器识别符合人类价值观的答案,以此作为干预手段。而且,我明白机器学习最终成果并不仅仅是一句“逻辑”,而是由数以亿计不可见的人类修改过的大量数据构建而成,也许就是那些无法被我们察觉到的参数调整。
经历了对chatGPT的一次小失望之后,我又重新燃起对百度文心一言的期待,因为很可能文心一言目前看似愚蠢,只因为训练数据不足或标记答案不够充分,所以没有展现出能百发八中的睿智。让我们给予它时间和机会吧,加油国产GPT!