科技资讯网站其实chatGPT也只是在概率标记的路上还没到真正逻辑人物探索其智能边界

那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和逻辑推理方面表现出色,这让人既感到兴奋又对文心一言产生了一丝同情。

然而,当我不断地向chatGPT提出相同的问题时,它竟然提供了不同的、循环重复的答案,有的正确,有的完全错误。这让我陷入了深思。通常人类在掌握一个概念或理解事理之前,会反复犯错,但当被纠正后,无论过去多么错误,他都会接受新的观点而不再返回旧答案。这是认知过程中的一个显著特征。

但这次机器AI的反馈似乎表达出了不同的意图。如果AI能够像人类一样学习,在学会正确结果之后始终坚持给出正确且逻辑严密的回答,那么它将被认为具备学习能力。而现在,它仅仅使用概率来标记答案。当两个答案的概率相同时,它就显示出选择多个结果的一个模式。这意味着它并不真正理解问题,更不了解问题本质,而只是依赖于概率检索。

因此,我开始相信那些关于AI目前只能模仿并校准自身而非真正拥有逻辑能力的声音。此外,我也意识到,在机器人学习中,如果出现价值观严重扭曲的情况,可能会威胁到人类所倡导的人类价值观。在这种情况下,AI工程师会通过大量正向训练数据来引导机器人的回答,使其更倾向于符合人类价值观。

通过与chatGPT的小小失望,我又对百度文心一言充满了期待。我认为文心一言目前显得“愚蠢”的原因很可能是由于训练数据不足以及标记答案不足,因此没有展示出能以百发八中的睿智回答问题。因此,我们应该给予它更多机会去成长吧,加油国产GPT!

猜你喜欢