那天我对chatGPT和文心一言进行了深入的测试。如你所见,chatGPT在语义准确性和表象逻辑方面表现得更为出色,这让人感到激动,同时也引发了一丝同情之心,对于文心一言的局限感到一些遗憾。
然而,在后续的交流中,我发现自己不断地向chatGPT提问相同的问题,它竟然返回了不同的反馈,有的是正确答案,有的是完全错误的,并且这些回答似乎在循环不停。这让我产生了许多疑惑。人类通常在掌握某个概念或理解事理之前,可能会重复犯错,但当被纠正后,无论过去多么错误,都能接受新观点并坚持正确答案。这是认知过程的一部分。
但是在这次机器与我的交互中,AI似乎展现出了不同的意图。如果AI能够像人类一样学习,当学会正确答案之后,就能始终如一地提供逻辑推导出的结果,那将使其看起来具有真正的学习能力。而现在,它返回两种不同答案,这让我相信它更多依赖于概率标记,而非真正理解问题本质或问题内容,只是检索概率高低来决定回复。
因此,我开始信服一些AI专家的话,他们认为目前AI主要是在模仿人类逻辑并校准自身,并非拥有一流逻辑思维能力。此外,我也意识到,如果出现任何价值观扭曲的情况,可能会威胁到整个机器学习系统,因此需要通过大量正向训练数据来指导机器选择符合人类价值观的答案,从而避免负面影响。
此时,此次小小失望对我的期望却增强了对百度文心一言。我认为文心一言当前显得“愚蠢”,很可能只是因为缺乏足够丰富的训练数据以及标记答案不足,没有达到令人印象深刻的地步。因此,我们应该给予它期待,让国产GPT有机会成长和进步。