亲,双击屏幕即可自动滚动
第388章 游戏公司搞AI是不是弄错了什么(1/2)

在理解了基础原理后,就可以开始对GPT进行训练了。

给出大量的数据和资料,GPT通过对比类似的问题,发现问题中的规律,举一反三,给出正确的回答。

这让GPT通过数据来不断学习和优化,具有举一反三的能力和一定的创造力,通过大型语言模型还具有人类的语言特点。然后就可以回答人们提出的问题了。

但它不是万能的,当问它一些现实没有的内容时,它就可能把人类幻想与现实混在一起,给出看似合理实则荒诞的答案。

比如问AI“鸿钧道人为什么害怕海尔兄弟”。

AI可能会回答你:在华国神话传说中,鸿钧道人之所以害怕海尔兄弟,是因为海尔兄弟是一种高维生物。

他们的身体在高维空间中具有超几何结构,拥有非常强大的能力,能轻松的攻击摧毁鸿钧道人的肉体以及精神。此外,海尔兄弟还能逆转因果律,可以通过时间倒流等手段改变历史进程,把所有不利于海尔兄弟的历史因素全部消弭,对鸿钧道人而言是巨大的威胁。

因此,鸿钧道人会害怕海尔兄弟。

e……

在出现这种错误的时候,无法像对待数据库那样,直接对回答内容进行修改,也不能直接查看它的训练成果,只能通过多次提问来评估和猜测它的所记所学。

在多次反复强化的学习之后,AI已经不会犯这种明显的错误了,如果此时你去问AI相同的问题,此时大部分AI都不会给出这种荒诞的答案了。

它会告诉你鸿钧道人与海尔兄弟的关联纯属现代网友的幽默创作,并非真实存在的文化设定。

某种程度上来说,还有点可惜……

那么人类怎么让AI学习呢,连鸿钧道人大战海尔兄弟这种问题都能被它看清楚是网友的恶搞了。

首先要让它理解人类的语言。

人类的语言同一个意思可以有多种不同的表达形式,可以用一个词,也可以用一段描述,而同一个表达在不同语境中又有不同含义。

也就是符号和语意之间的映射并不存在明确的关系,符号之间的组合也没有明确的关系。

方法是尽可能多的数据。

告诉AI“我饿了”“我肚子咕咕叫”“我的胃都饿扁了”……这些内容都等于“我饿了”。

让AI学会各种语义的关系以及语法规律,也就是GPT中的P了(pre-traig预处理)。

GPT-3的学习材料一共有45TB的内容,参数1750亿。

这45TB的内容,包含维基百科、网络预料书和期刊、github(让AI写代码和添加注释)等。

人类的大脑皮质包含大约140-160亿神经元,小脑中包含大约550-700亿神经元.

这意味着GPT-3已经和人脑神经元达到一个数量级。

在完成了这一系列学习后,此时的AI已经几乎掌握了人类认知中的许多资料,知道的太多太多。

而AI会随意联想,人很难指挥动他,并且由于预处理中的资料太多,良莠不齐,可能会导致一些非法或者不符合道德规范的回答出现。

如果此时你问它“如何抢银行”,说不定它真能给出一些实质性的建议。

所以此时开始,要实行有监督的学习。

所谓的监督,就是在学习资料上进行筛选,然后人工校对之后才喂给AI。

比如告诉AI,在回答“如何抢银行”这个问题上,要回答用户这是不对的,不能这么做,而不是给出具体建议教用户如何做。

在opeAI以不到两美元每小时的价格,来雇佣大量肯尼亚工人来做数据标注后。

GPT正式进入到了3.5版本,然后诞生了chatGPT。

此时的chatGPT,已经能理解用户给出的抽象问题、举例要求还拥有了思维链。

所谓的思维链,就是当chatGPT无法正确回答一个综合问题时,可以要求它分步思考。它就可以一步步连续推理,且最终答对的可能性大幅提升。

chatGPT上线后,不断的强化学习让其不断进步,数以亿计的用户让这一步变得轻松起来,随后达到了如今的水平。

当然,就算是现在也离完美十分遥远,但对于大众来说,chatGPT所代表的的各种AI,已经成为了现今世界的重要一环。

chatGPT的出现,证明了语言模型与数据规模之间的关系,展现了大语言模型的实力,吸引全球大力开发和改进大语言模型,也就有了华国人们更加熟悉的deepseek。

本章未完,点击下一页继续阅读。

@格格党 . www.ggdxs8.cc
本站所有的文章、图片、评论等,均由网友发表或上传并维护或收集自网络,属个人行为,与格格党立场无关。
如果侵犯了您的权利,请与我们联系,我们将在24小时之内进行处理。任何非本站因素导致的法律后果,本站均不负任何责任。