而2个月后,chatGPT的月活用户超过了1亿,不是注册人数,是月活跃用户!与之相比,微信的注册量达到1亿用了433天。
接下来,微软追加100亿美刀,并将GPT整合到office系列应用以及必应搜索中,对谷歌正式宣战。
23年2月,谷歌匆忙推出类似应用bard,但发布会上犯了一个事实性错误,导致股价一夜蒸发1000亿美刀。
3月14日,opeAI乘胜追击,发布了GPT-4。
3月16日,度娘发布类似应用文心一言。
自此,AI大战开始。
……
由于对于AI的浓烈兴趣,文韬在重生之前对于AI是非常关注的。
甚至以外行人十分简单就能理解的方式理解了GPT的底层原理。
都知道它基于深度学习和神经网络,还有trasforr模型,但实际理解起来,就是“给出上文,生成下文”。
比如给出一个“今天”,chatGPT就可能会接上“今天晚上吃红烧肉”。
给出“今天星期几?”
它就会在大量的数据中告诉你今天星期一。
当然,仅仅给出“今天”,GPT给出的下文肯定是不唯一的,可能是“今天华国获得世界杯冠军”,也可能是“今天阿美莉卡鸡蛋涨价”,甚至“今天外星人攻打地球”。
究竟GPT是如何选择的呢?
GPT会给出不同答案的概率,最后按照概率分布给出随机的答案,概率越高出现的频率也会越高。概率分布会根据之后强化学习阶段的不同用户反馈来不断进行优化。
越是具体的上文,GPT就能给出越是具体的下文。比如问它“给我写一本游戏开发小说”。
它可能根据相关概率中最高的一些答案,给你杂糅一大堆莫名其妙的内容。
但如果你问它“给我写一本小说,主角重生08年,在高中时代开发了植物大战僵尸,使用了uity引擎……”
然后,它真的可能给你一些满意度较高的内容。
只不过,真要让AI写出符合作者心意的内容,短时间内很难办到。
与此同时,另一个问题出现了。
当前文很长的时候,如何能快速理解前文信息,再给出接下来的内容呢?
这就是为什么opeAI要使用trasforr模型的原因了,因为其注意力机制。
所谓的注意力,也就是抓重点。
比如一张图片,一位不穿衣服的大姐姐正在浴室里洗澡,重点就是洗澡的大姐姐。
但是在AI眼中,除了大姐姐还有浴室里的各种东西,沐浴露、洗发水、马桶、毛巾、牙刷、牙膏……
AI模型只会觉得图里的一切都具有同等权重,没办法及时给出响应,需要人类帮它强调“大姐姐”才行。
所以必须让AI模型辨别前文中最主要的部分,抓住关键,也就是trasforr架构的主要功能之一。