在理解了基础原理后,就可以开始对GPT进行训练了。
给出大量的数据和资料,GPT通过对比类似的问题,发现问题中的规律,举一反三,给出正确的回答。
这让GPT通过数据来不断学习和优化,具有举一反三的能力和一定的创造力,通过大型语言模型还具有人类的语言特点。然后就可以回答人们提出的问题了。
但它不是万能的,当问它一些现实没有的内容时,它就可能把人类幻想与现实混在一起,给出看似合理实则荒诞的答案。
比如问AI“鸿钧道人为什么害怕海尔兄弟”。
AI可能会回答你:在华国神话传说中,鸿钧道人之所以害怕海尔兄弟,是因为海尔兄弟是一种高维生物。
他们的身体在高维空间中具有超几何结构,拥有非常强大的能力,能轻松的攻击摧毁鸿钧道人的肉体以及精神。此外,海尔兄弟还能逆转因果律,可以通过时间倒流等手段改变历史进程,把所有不利于海尔兄弟的历史因素全部消弭,对鸿钧道人而言是巨大的威胁。
因此,鸿钧道人会害怕海尔兄弟。
e……
在出现这种错误的时候,无法像对待数据库那样,直接对回答内容进行修改,也不能直接查看它的训练成果,只能通过多次提问来评估和猜测它的所记所学。
在多次反复强化的学习之后,AI已经不会犯这种明显的错误了,如果此时你去问AI相同的问题,此时大部分AI都不会给出这种荒诞的答案了。
它会告诉你鸿钧道人与海尔兄弟的关联纯属现代网友的幽默创作,并非真实存在的文化设定。
某种程度上来说,还有点可惜……
那么人类怎么让AI学习呢,连鸿钧道人大战海尔兄弟这种问题都能被它看清楚是网友的恶搞了。
首先要让它理解人类的语言。
人类的语言同一个意思可以有多种不同的表达形式,可以用一个词,也可以用一段描述,而同一个表达在不同语境中又有不同含义。
也就是符号和语意之间的映射并不存在明确的关系,符号之间的组合也没有明确的关系。
方法是尽可能多的数据。
告诉AI“我饿了”“我肚子咕咕叫”“我的胃都饿扁了”……这些内容都等于“我饿了”。
让AI学会各种语义的关系以及语法规律,也就是GPT中的P了(pre-traig预处理)。
GPT-3的学习材料一共有45TB的内容,参数1750亿。
这45TB的内容,包含维基百科、网络预料书和期刊、github(让AI写代码和添加注释)等。
人类的大脑皮质包含大约140-160亿神经元,小脑中包含大约550-700亿神经元.
这意味着GPT-3已经和人脑神经元达到一个数量级。
在完成了这一系列学习后,此时的AI已经几乎掌握了人类认知中的许多资料,知道的太多太多。
而AI会随意联想,人很难指挥动他,并且由于预处理中的资料太多,良莠不齐,可能会导致一些非法或者不符合道德规范的回答出现。
如果此时你问它“如何抢银行”,说不定它真能给出一些实质性的建议。
所以此时开始,要实行有监督的学习。
所谓的监督,就是在学习资料上进行筛选,然后人工校对之后才喂给AI。
比如告诉AI,在回答“如何抢银行”这个问题上,要回答用户这是不对的,不能这么做,而不是给出具体建议教用户如何做。
在opeAI以不到两美元每小时的价格,来雇佣大量肯尼亚工人来做数据标注后。
GPT正式进入到了3.5版本,然后诞生了chatGPT。
此时的chatGPT,已经能理解用户给出的抽象问题、举例要求还拥有了思维链。
所谓的思维链,就是当chatGPT无法正确回答一个综合问题时,可以要求它分步思考。它就可以一步步连续推理,且最终答对的可能性大幅提升。
chatGPT上线后,不断的强化学习让其不断进步,数以亿计的用户让这一步变得轻松起来,随后达到了如今的水平。
当然,就算是现在也离完美十分遥远,但对于大众来说,chatGPT所代表的的各种AI,已经成为了现今世界的重要一环。
chatGPT的出现,证明了语言模型与数据规模之间的关系,展现了大语言模型的实力,吸引全球大力开发和改进大语言模型,也就有了华国人们更加熟悉的deepseek。