其实ChatGPT也只是在概率标记的路上还没到真正逻辑科技创新素材摘抄200字人物场景中探索未知

那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。

然而,当我反复向chatGPT提出相同的问题时,它竟然提供了不同的答案,有的正确,有的完全错误。这让我感到困惑。人类在掌握一个概念之前往往会重复犯错,但当被纠正后,即使曾经错误无数,也能接受新的理解而不再返回旧答案。这是认知过程的一部分。

但这次机器的回应似乎表达了不同的意图。如果AI能够像人类一样学习,在掌握正确结果后坚持输出逻辑明晰的答案,我将认为它具备学习和逻辑推理能力。而现在,它轮流提供对与错两种答案,这让我相信它可能使用概率来标记答案。当两个概率相等时,它就会显示多个结果。这意味着它并不真正理解问题本质,只是在检索概率标记。

因此,我开始相信一些AI开发者的话:目前,AI仅能模仿人类逻辑并校准自己,而非真正拥有逻辑能力。此外,我也意识到了在机器学习中,如果出现价值观严重扭曲的情况,可能威胁到人类价值观,因此需要通过大量正向回答来训练机器,以提高符合人类价值观的答案概率,从而引导其行为。此外,我认识到机器学习成果不是单纯的逻辑,而是由大量未被人眼中的数据修改组成,总共有几千亿参数。

通过这次小小失望,对百度文心一言我的期望变得更加迫切。我认为文心一言目前显得愚蠢,只是因为训练数据不足,没有足够标记正确答案,所以没有展现出高效、睿智的回答。让我们给予它机会吧,加油国产GPT!

猜你喜欢