既然ChatGPT高攀不起,那就试试ChatGLM吧

天天见闻 天天见闻 2024-04-26 科技 阅读: 2
摘要: 不出点钱还玩不了。后来百度的文心一言问世后,很多感兴趣的玩家也积极试用,这其中有不少吐槽的声音。阿里版的也将于本月11日亮相。由于的训练需要强大的算力和千亿级别的参数,让我们这种想要散户玩家望而生畏。但是,最近清华大学开源了-6B,可以让我们自己来搭建一个简单的本地玩玩。

火起来以后,又衍生了一些”商业”出来,比如,卖账号、卖token、卖代收手机短信、卖代理等。不出点钱还玩不了。后来百度的文心一言问世后,很多感兴趣的玩家也积极试用,这其中有不少吐槽的声音。阿里版的也将于本月11日亮相。由于的训练需要强大的算力和千亿级别的参数,让我们这种想要散户玩家望而生畏。但是,最近清华大学开源了-6B,可以让我们自己来搭建一个简单的本地玩玩。

-6B 是一个具有62亿参数的中英双语语言模型。通过使用与 ()相同的技术,-6B 初具中文问答和对话功能,并支持在单张 上进行推理使用。具体来说,-6B 有如下特点:

充分的中英双语预训练: -6B 在 1:1 比例的中英语料上训练了 1T 的 token 量,兼具双语能力。

优化的模型架构和大小: 吸取 GLM-130B 训练经验,修正了二维 RoPE 位置编码实现,使用传统FFN结构。6B(62亿)的参数大小,也使得研究者和个人开发者自己微调和部署 -6B 成为可能。

较低的部署门槛: FP16 半精度下,-6B 需要至少 13GB 的显存进行推理,结合模型量化技术,这一需求可以进一步降低到 10GB(INT8) 和 6GB(INT4), 使得 -6B 可以部署在消费级显卡上。

更长的序列长度: 相比 GLM-10B(序列长度1024),-6B 序列长度达 2048,支持更长对话和应用。

人类意图对齐训练: 使用了监督微调( Fine-)、反馈自助( )、人类反馈强化学习( from Human ) 等方式,使模型初具理解人类指令意图的能力。输出格式为 ,方便展示。

因此,-6B 具备了一定条件下较好的对话与问答能力。当然,-6B 也有相当多已知的局限和不足:

模型容量较小: 6B 的小容量,决定了其相对较弱的模型记忆和语言能力。在面对许多事实性知识任务时,-6B 可能会生成不正确的信息;她也不擅长逻辑类问题(如数学、编程)的解答。

可能会产生有害说明或有偏见的内容:-6B 只是一个初步与人类意图对齐的语言模型,可能会生成有害、有偏见的内容。

较弱的多轮对话能力:-6B 的上下文理解能力还不够充分,在面对长答案生成,以及多轮对话的场景时,可能会出现上下文丢失和理解错误的情况。

英文能力不足:训练时使用的指示大部分都是中文的,只有一小部分指示是英文的。因此在使用英文指示时,回复的质量可能不如中文指示的回复,甚至与中文指示下的回复矛盾。

易被误导:-6B 的“自我认知”可能存在问题,很容易被误导并产生错误的言论。例如当前版本模型在被误导的情况下,会在自我认知上发生偏差。即使该模型经过了1万亿标识符(token)左右的双语预训练,并且进行了指令微调和人类反馈强化学习(RLHF),但是因为模型容量较小,所以在某些指示下可能会产生有误导性的内容。

使用方式硬件需求量化等级最低GPU显存(推理)最低GPU显存(高效参数微调)

FP16(无量化)

13GB

14GB

INT8

8GB

9GB

INT4

6GB

7GB

环境安装

使用 pip 安装依赖:pip -r .txt,其中 库版本推荐为 4.27.1,但理论上不低于 4.23.1 即可。

代码调用

可以通过如下代码调用 -6B 模型来生成对话:

10

11

12

13

14

15

16

17

18

19

>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer = AutoTokenizer.from_pretrained('THUDM/chatglm-6b', trust_remote_code=True)
>>> model = AutoModel.from_pretrained('THUDM/chatglm-6b', trust_remote_code=True).half().cuda()
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, '你好', history=[])
>>> print(response)
你好!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
>>> response, history = model.chat(tokenizer, '晚上睡不着应该怎么办', history=history)
>>> print(response)
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:

1. 制定规律的睡眠时间表:保持规律的睡眠时间表可以帮助你建立健康的睡眠习惯,使你更容易入睡。尽量在每天的相同时间上床,并在同一时间起床。
2. 创造一个舒适的睡眠环境:确保睡眠环境舒适,安静,黑暗且温度适宜。可以使用舒适的床上用品,并保持房间通风。
3. 放松身心:在睡前做些放松的活动,例如泡个热水澡,听些轻柔的音乐,阅读一些有趣的书籍等,有助于缓解紧张和焦虑,使你更容易入睡。
4. 避免饮用含有咖啡因的饮料:咖啡因是一种刺激性物质,会影响你的睡眠质量。尽量避免在睡前饮用含有咖啡因的饮料,例如咖啡,茶和可乐。
5. 避免在床上做与睡眠无关的事情:在床上做些与睡眠无关的事情,例如看电影,玩游戏或工作等,可能会干扰你的睡眠。
6. 尝试呼吸技巧:深呼吸是一种放松技巧,可以帮助你缓解紧张和焦虑,使你更容易入睡。试着慢慢吸气,保持几秒钟,然后缓慢呼气。

如果这些方法无法帮助你入睡,你可以考虑咨询医生或睡眠专家,寻求进一步的建议。

API部署

首先需要安装额外的依赖 pip ,然后运行仓库中的 api.py:

python api.py

默认部署在本地的 8000 端口,通过 POST 方法进行调用

curl -X POST 'http://127.0.0.1:8000' \
-H 'Content-Type: application/json' \
-d '{'prompt': '你好', 'history': []}'

得到的返回值为

{
'response':'你好!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。',
'history':[['你好','你好!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。']],
'status':200,
'time':'2023-03-23 21:38:40'
}

代码地址:

其他相关
强势股的低吸技巧——31231战法

强势股的低吸技巧——31231战法

作者: 天天见闻 时间:2024-05-21 阅读: 1
震荡行情赚钱的思路是不是去追热点,而且是低吸股强势、龙头个股。低吸股强势的核心是:量化+逻辑+盘口!下面再跟大家分析一下实战技巧,股强势的第一低吸技巧——31231战法。三、股强势第一低吸进场点...
通达信如何实现简放动量模型教程编制

通达信如何实现简放动量模型教程编制

作者: 天天见闻 时间:2024-05-04 阅读: 2
我们首先来看下动量模型的步骤:通达信动量模型条件选股公式:(建议无脑复制)...
六步修理电水壶

六步修理电水壶

作者: 天天见闻 时间:2024-04-29 阅读: 1
维修电水壶1)通电后不加热,指示灯不亮。(2)通电后不加热,但指示灯亮。指示灯亮,说明电源已加入指示灯电路,故障在电热管或其连接部分,常见电热管损坏和接触不良。电热管损坏,一般只能更换。壶内水烧干或空壶通电一段时间后不自动断电,多是保温开关失效造成。(6)通电后加热正常,但指示灯不亮。...
一次说清5种主流商业模式!

一次说清5种主流商业模式!

作者: 天天见闻 时间:2024-04-03 阅读: 2
这就是商业模式的力量。那么,商业模式究竟是什么呢?主流商业模式接下来,让我们来介绍一些目前商业领域中主要的商业模式。许多人默认商业模式就是盈利模式,但通过这个模型,你会明白,盈利模式只是商业模式的一部分。现今的主流商业模式看起来越来越复杂,但实质上只是变得更加精细。...
炒股高手都这样做,倍量阴和倍量阳轻松识别主力机构建仓和拉升!

炒股高手都这样做,倍量阴和倍量阳轻松识别主力机构建仓和拉升!

作者: 天天见闻 时间:2024-03-31 阅读: 1
倍量是量大的最重要特征,倍量柱具有五种功能,往往是机构或主力建仓、试盘、加仓、补仓和拉升的标志柱。股票的最后一跌抄底之后找到了建仓模型,接下来就是通过倍量阴找拉升模型。以上三种模型讲解的都是倍量阴的方法,不仅可以找到主力机构的建仓位置,还可以找到拉升的模型。...
计量经济学 | 门限模型原理及应用

计量经济学 | 门限模型原理及应用

作者: 天天见闻 时间:2024-03-17 阅读: 18
门限模型计量经济学门限模型原理门限模型又称门槛模型,主要用来解决自变量在不同值域内对因变量影响不同的问题。仍旧以上一篇推送中参考的文章《生产性服务投入与制造业全球价值链地位:影响机制与实证检验》为例介绍门限效应的应用。门槛效应为非线性经济关系的研究提供了新的方法,但也提出了新的问题。...
我来说两句

年度爆文