一、ChatGPT 简介

ChatGPT 的火爆

ChatGPT 作为一个 web 应用,自 22 年 12 月发布,仅仅不到 3 个月的时间,月活用户就累积到 1 亿。在此之前,最快记录的保持者也需要 9 个月才达到月活 1 亿。

ChatGPT 的反爬

https://chat.openai.com 因为各种政策&倾向性问题,ChatGPT 目前在中国无法访问。而它又是如此火爆,所以就有大量用户通过代理、爬虫等形式来体验 ChatGPT。

OpenAI 不是专业做网络服务的公司,因此把反爬交给第三方公司 CloudFlare 去做。

CloudFlare 目前全球最大 CDN 服务商,占比 16%;而 OpenAI 的流量在 CloudFlare 中占比已经占据前二。

ChatGPT 的打字效果

可以看到 ChatGPT 的输出是逐字输出的打字效果,这里应用到了 SSE(SeverSideEvent)服务端推送的技术。一个 SSE 服务的 Chrome 开发工具化 network 截图 :

SSE 对比常见 Websocket 如下:

那么这种打字效果它是故意的还是不小心的?

二、ChatGPT 核心原理

ChatGPT 我们可以拆解成 Chat、G、P、T 这四个部分讲述。在后续内容前,我们先补充几个机器学习容易理解的概念:

1.模型:所谓模型,本质上就是一个程序(函数),类似 y=ax+bx2,这里的 a 和 b 就是参数,比如 GPT3 的参数量就是 175B 说的就是 1750 亿参数的程序,ChatGLM-6B 的参数量是 60 亿。

2.机器学习:我们平时写的函数,是人来控制的逻辑和参数,而机器学习指的是机器通过某种方式(训练)来确认参数。这个找特定参数的函数的过程,一般分别为 3 步:

Generative 文字接龙

ChatGPT 本质上是个不断递归执行的生成式的函数,下面我们来看 2 个例子:

Case1:萝卜青菜

当你看到萝卜青菜这 4 个字的时候,脑海中想的是什么?

我想大概率是各有所爱。

给到 GPT 的时候,GPT 根据这 4 个字和逗号,推测出下个字的大概率是各

然后 GPT 会再次将萝卜青菜,各输入给自己,推测出下个字的大概率是有

这就是 ChatGPT 在输出文字时是逐字输出的原因,这种形式最符合 LLM 运行的底层原理,在用户体验上也能让用户更快看到第一个字,体验上接近聊天而不是阅读。它是故意的。这里我们得到第一个结论:

ChatGPT(模型 / Fn)的运行原理是每次输入文本(包含上次返回的内容),预测输出后续 1 个字词。

Case2:书呆子

举个【原创】前端技术十年回顾 文章中的例子:

在这个例子中,为什么输出是 “欺负一样”?

从全文中看,这里的主体应该是前端技术,单纯考虑前端技术和就像在小学被,我们可以想出 “推广”、“普及。即使不考虑 “前端技术”,单纯从就像在小学被,还有可能推测出后文是 “教育”、“表扬”。都很难联想到 “欺负”。

这里出现 “欺负”,很大原因是在前文中欺负(就像,这几个关键字的影响远大于前端技术。所以我们得到第二个结论:

在生成式语言模型中,上文单词离得越远,对生成结果的影响就越小

文字接龙 VS 完形填空

这里补充下 GPT 类似的 BERT,他们都是基于后面提到的 Transform 结构,他们的对比如下,总的来说,文字接龙更服务人类大部分情况下的语言模式,因此像马斯克也更青睐于这种第一性原理的东西。

Transform 注意力机制

Case3:绿洲

在这个 Case 中,绿洲的出现,反而不是因为最近的寻找新的,而是 3 句话之前的沙漠和骆驼。这里就不得不提到大名鼎鼎的 Transform 结构,这是 Google 在 2017 年在一篇论文《Attention is all you need》首次提出的一种类神经网络结构,它和核心是自注意力机制,用来解决长距离文本的权重问题。

作者不是机器学习专业,就不展开说了,建议看相关论文和讲解的文章。

Pretrained 预训练

通过前面的文字接龙模式,用大量数据喂出来的预训练模型,使其具备通用的语言能力,这里的预训练有 2 层含义:

Chat 对话(通过 Finetuning 实现)

因为预训练是无人类的监督,因此通用模型不一定按照聊天形式返回文本,因为它的训练素材包罗万象,比如我说今天天气差,它根据历史的经验:今天天气差的表述方式有下面几种,就会输出这句话的不同的表述,而不是像聊天一样跟我一起吐槽 。下面的 OpenAI 的 GPT3 模型对今天天气差的输出:

要让 GPT3 像聊天一样输出,就需要有针对性的对它就行微调(fine-tuning)训练,例如通过特定的问答结构的语料训练:

能聊天之后,想要上线,就必须给模型上枷锁,不能回答和人类价值观不符的内容,否则资本主义的铁拳也会降临

OpenAI 通过人工标注和强化训练的方式提升 ChatGPT 回答质量并校正它的价值观倾向,想要更多了解这块内容,可以了解下 ChatGPT 背后的算法模型。

三、ChatGPT 的应用

OpenAI 官方给到了 49 个常见的 ChatGPT 应用场景:\
https://openai.com/blog/chatgpt

总的来说可以分为:

对于前端开发同学来说,最关注它的代码能力。正好在一个小程序转 taro 重构的项目中体验了 ChatGPT 的能力:

1. 能理解小程序模板语法,并转换出 ts 的 taro 组件

2. 理解小程序页面逻辑,并修正 props

小程序的页面逻辑 page.js 是独立于 index.wxml 的,在得到纯 wxml 生成的 taro 组件后,把 page.js 的代码合并进去

3. 可以补充知识,教它举一反三特有的语法

HiBox 融合 ChatGPT

这么好的能力,应该如何沉淀呢?

我们首先想到了 VSCode 插件,刚好 HiBox 本身有登录态、自定义 Webview、远程配置化的能力,那就将 ChatGPT 集成到 HiBox 中(太酷啦),Node 端接入 ChatGPT 的接口,通过 Webview 前端实现一个聊天窗,再通过配置系统集成常用的 Prompt,这样前端开发就能通过 VSCode 方便地用到 ChatGPT 的能力。整体结构如下:

数据源方面,也从爬虫版本 ChatGPT,逐步切换到 API 代理服务中,代理服务接入 GPT3.5 的模型能力,整体体验非常接近 ChatGPT。代理服务文档:\
https://joyspace.jd.com/pages/yLnDY3B5UJ1rXP8UYrN6

HiBox 的 ChatGPT 目前仅需 erp 登录即可免费使用,更多使用方式和安装方式:HiBox 快速开始

私域数据集成

在使用 ChatGPT 的过程中,也注意到 2 个问题:

首先想到的是,采用微调(fine-tuning)的方式,将私域数据数据集成到大语言模型(LLM)中,然后私有化部署在公司的服务器上,这样任意代码和文档都可以发送给它,我们尝试了下面 2 种方式:

GPT3 fine-tuning

一是通过 OpenAI 官网提到的 GPT3 的 fine-tuning 接口,将私域数据传给 OpenAI,OpenAI 在他们的服务器里微调训练,然后部署在 OpenAI 的服务器中,整个过程是黑盒。

ChatGLM-6B fine-tuning

二是用清华开源的 ChatGLM-6B 作为基础模型,在公司的九数平台上申请 GPU 机器,将私域数据通过 LORA 的方式微调得到 LORA 权重,然后自己部署,整个过程完全私有化。

GPT3.5 langChain

上面的两种方式总的来说,部署后的推理效果都很难达到 GPT3.5-API 的效果,因此我们最后尝试了 embedding 外挂知识库的方式。使用开源的 langchain 处理文档切割、向量化存储、向量化匹配等。数据还是会暴露给 OpenAI。

四、LLM 现状和展望

LLM 大爆发

其实在 20 年 GPT3 出来之后,机器学习的大部分头部都意识到了这条路线的可行性,积极地在跟进了:

这里专门讲下百度,据公开可靠的文档,百度早在 2019 年就推出了 Ernie(对标谷歌 Bard,Ernie 和 bard 在动画 Muppet 中是 1 对兄弟),确实是国内最早接入 LLM 的玩家。百度走的和谷歌一样,是 BERT 的完形填空的路线,因为在 2018~2019 年的时间点,GPT 一代刚刚问世,第一代的 GPT 对比各方面都不如 BERT,再加上百度和谷歌一样在搜索引擎方面沉淀较多,因此选择的路线是 BERT。

近期羊驼系列和国内大语言模型也在大爆发:

LLM 应用现状&趋势

平台化

LLM 的角色扮演能力可能是下个人机交互变革的关键点,OpenAI 也推出了 Plugin 模型,通过插件,用户可以通过一句自然语言聊天就买一张机票,搜索想看的文章。有人说这是类似 AppStore 发布的 IPhone 时刻:

自驱动、能力集成

类似 Auto-GPT,langchain 等,通过约定特性的模板,可以让 ChatGPT 返回执行特定命令的文本,例如和 ChatGPT 约定如果要搜索的时候,返回 [search: 搜索内容],然后在客户端通过正则匹配 /[search:(.*?)]/,拿到对应的内容执行搜索,再将结果返回给 ChatGPT 整理最终答案。

虚拟一个例子:

1. user: 深圳明天的天气怎么样?
2. chatgpt(触发知识限制 2021 年,返回约定的搜索格式):[search:2023年4月27日的深圳天气]
3. user 接收到正则匹配触发搜索,打开无头浏览器搜索百度并取第 1 条结果:2023年4月27日星期四深圳天气:多云,北风,风向角度:0°风力 1-2 级,风速:3km/h,全天气温 22℃~27℃,气压值:1006,降雨量:0.0mm,相对湿度:84%,能见度:25km,紫外线指数:4, 日照...
4. user(将搜索的内容连带问题第二次发给 ChatGPT): 深圳明天的天气怎么样?可参考的数据:2023年4月27日星期四深圳天气:多云,北风,风向角度:0°风力 1-2 级,风速:3km/h,全天气温 22℃~27℃,气压值:1006,降雨量:0.0mm,相对湿度:84%,能见度:25km,紫外线指数:4, 日照...
5. chatgpt(根据问题和上下文,输出人类语言的表达): 深圳明天的天气还可以,整体多云为主,气温 22℃~27℃

多模态

4 月份发布的 GPT4 已经具备图像识别的能力,下面的 Case 是主持人用一致设计稿草图生成前端页面的过程。经典 “前端已死” 时刻:

LLM 的局限

虽然我们看到 ChatGPT 的技术强大,但是也要审慎看待它的局限,它本质上是个基于历史数据的经验主义的模仿人类的文字输出函数。

例如,ChatGPT 完全做不了 4 位数的乘法运算,它大概率会根据 6 乘和 7 等于这 2 块关键信息,得到答案是以 2 结尾,根据 4 和乘以 3 这 2 块关键信息,得到答案是以 1 开头,而中间的随机性完全收敛不到正确的答案,不管是 ChatGPT 和 GPT4 都是一样的情况:

再比如问它特别小众、普通人也容易错的专业领域知识,它也会根据大部分普通人的错误答案输出错误答案:

比如在 V8 Promise 源码全面解读,其实你对 Promise 一无所知文章中一个很奇葩的题目,下面的代码会打印什么?

Promise.resolve().then(() => {
console.log(0);
return Promise.resolve(4)
}).then(res => {
console.log(res);
})

Promise.resolve().then(() => {
console.log(1);
}).then(() => {
console.log(2);
}).then(() => {
console.log(3);
}).then(() => {
console.log(5);
}).then(() => {
console.log(6);
})

大部分人都会回答:0、1、4、2、3、5、6\
GPT3.5 的回答:0、1、4、2、3、5、6\
GPT4 的回答:0、1、2、3、4、5、6

只有 GPT-4 的回答正确,但是即使它的回答正确,它的具体分析也是错误,因为它可能在某个场景学习过类似答案,但是它并不 “理解”,后面的分析内容也是大部分人容易错的分析

结尾

最后用流浪地球 2 中周喆直的台词做个结尾。

对于 AI 的到来,我们战略上不要高估它,AI 本身有它的局限性,保持乐观,前端没那么容易死;战术重视和关注它的发展,尝试在我们的工作生活中应用,技术变革的浪潮不会随个人的意志变化。

通宵赶稿,码字不易,看到这里同学帮忙点个赞吧 Thanks♪(・ω・) ノ

作者:京东零售 陈隆德

内容来源:京东云开发者社区


↙↙↙阅读原文可查看相关链接,并与作者交流