AIBL论坛

 找回密码
 立即注册
本论坛所有软件旨在帮助用户创建逼真且有趣的内容,帮助做自媒体的人制作原创有趣的视频或广告,如果使用别人的肖像,使用之前需获得同意和许可(建议使用AI生成的人脸),严禁使用软件制作任何不正规视频,如发现用于不正规用途,一律删号处理
查看: 7300|回复: 33

国内最强ChatGLM3-6B大语言模型本地一键整合包下载地址

[复制链接]
发表于 2023-11-2 08:24:57 | 显示全部楼层 |阅读模式
ChatGLM3 是智谱AI和清华大学 KEG 实验室联合发布的新一代对话预训练模型。ChatGLM3-6B 是 ChatGLM3 系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B 引入了如下特性:
更强大的基础模型: ChatGLM3-6B 的基础模型 ChatGLM3-6B-Base 采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,ChatGLM3-6B-Base 具有在 10B 以下的基础模型中最强的性能。
更完整的功能支持: ChatGLM3-6B 采用了全新设计的 Prompt 格式,除正常的多轮对话外。同时原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务等复杂场景。
更全面的开源序列: 除了对话模型 ChatGLM3-6B 外,还开源了基础模型 ChatGLM3-6B-Base、长文本对话模型 ChatGLM3-6B-32K。以上所有权重对学术研究完全开放,在填写问卷进行登记后亦允许免费商业使用。
ChatGLM3 开源模型旨在与开源社区一起推动大模型技术发展,恳请开发者和大家遵守开源协议,勿将开源模型和代码及基于开源项目产生的衍生物用于任何可能给国家和社会带来危害的用途以及用于任何未经过安全评估和备案的服务。目前,本项目团队未基于 ChatGLM3 开源模型开发任何应用,包括网页端、安卓、苹果 iOS 及 Windows App 等应用。
尽管模型在训练的各个阶段都尽力确保数据的合规性和准确性,但由于 ChatGLM3-6B 模型规模较小,且模型受概率随机性因素影响,无法保证输出内容的准确。同时模型的输出容易被用户的输入误导。本项目不承担开源模型和代码导致的数据安全、舆情风险或发生任何模型被误导、滥用、传播、不当利用而产生的风险和责任。
QQ截图20231102101431.jpg
47.jpg
我们在多个长文本应用场景下对 ChatGLM3-6B-32K 进行了人工评估测试。与二代模型相比,其效果平均提升了超过 50%。在论文阅读、文档摘要和财报分析等应用中,这种提升尤为显著。此外,我们还在 LongBench 评测集上对模型进行了测试,具体

低成本部署
模型量化
默认情况下,模型以 FP16 精度加载,运行上述代码需要大概 13GB 显存。如果你的 GPU 显存有限,可以尝试以量化方式加载模型,使用方法如下:

  1. # 按需修改,目前只支持 4/8 bit 量化
  2. model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).quantize(8).half().cuda()
复制代码

进行 2 至 3 轮对话后,8-bit 量化下 GPU 显存占用约为 10GB,4-bit 量化下仅需 6GB 占用。随着对话轮数的增多,对应消耗显存也随之增长,由于采用了相对位置编码,理论上 ChatGLM-6B 支持无限长的 context-length,但总长度超过 2048(训练长度)后性能会逐渐下降。

模型量化会带来一定的性能损失,经过测试,ChatGLM-6B 在 4-bit 量化下仍然能够进行自然流畅的生成。使用 GPT-Q 等量化方案可以进一步压缩量化精度/提升相同量化精度下的模型性能,欢迎大家提出对应的 Pull Request。

量化过程需要在内存中首先加载 FP16 格式的模型,消耗大概 13GB 的内存。如果你的内存不足的话,可以直接加载量化后的模型,INT4 量化后的模型仅需大概 5.2GB 的内存:

  1. # INT8 量化的模型将"THUDM/chatglm-6b-int4"改为"THUDM/chatglm-6b-int8"
  2. model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4", trust_remote_code=True).half().cuda()
复制代码

量化模型的参数文件也可以从这里手动下载。

CPU 部署
如果你没有 GPU 硬件的话,也可以在 CPU 上进行推理,但是推理速度会更慢。使用方法如下(需要大概 32GB 内存)

  1. model = AutoModel.from_pretrained("THUDM/chatglm-6b", trust_remote_code=True).float()
复制代码


如果你的内存不足,可以直接加载量化后的模型:

  1. # INT8 量化的模型将"THUDM/chatglm-6b-int4"改为"THUDM/chatglm-6b-int8"
  2. model = AutoModel.from_pretrained("THUDM/chatglm-6b-int4",trust_remote_code=True).float()
复制代码

如果遇到了报错 Could not find module 'nvcuda.dll' 或者 RuntimeError: Unknown platform: darwin (MacOS) ,请从本地加载模型

https://github.com/THUDM/ChatGLM-6B/blob/main/README.md#%E4%BB%8E%E6%9C%AC%E5%9C%B0%E5%8A%A0%E8%BD%BD%E6%A8%A1%E5%9E%8B

github项目地址https://github.com/THUDM/ChatGLM3

ChatGLM3-6B大语言模型本地一键整合包下载地址:解压密码 www.aibl.vip

链接:https://pan.baidu.com/s/1zqOS_BkUbo8h7cXNxotypA?pwd=09n1
提取码:09n1

CPU版本补丁

链接:https://pan.baidu.com/s/1y2pL_Uy6tqnUJ81wGhjXYg?pwd=nenc
提取码:nenc



AIBL论坛免责申明
本论坛刊载的所有内容,包括图片、软件、模型等均在网上搜集。
论坛提供的内容仅用于个人学习、研究或欣赏。我们不保证内容的正确性。通过使用本站内容随之而来的风险与本站无关
访问者可将本网站提供的内容或服务用于个人学习、研究或欣赏,以及其他非商业性或非盈利性用途,但同时应遵守著作权法及其他相关法律的规定,不得侵犯本网站及相关权利人的合法权利。
本网站内容原作者如不愿意在本网站刊登内容,请及时通知本站,予以删除。

0

主题

2

回帖

8

积分

初级丹童

积分
8
发表于 2023-11-2 13:03:06 | 显示全部楼层
如何把默认端口7860改成别的?
回复

使用道具 举报

 楼主| 发表于 2023-11-2 13:07:08 | 显示全部楼层
bh4rep 发表于 2023-11-2 13:03
如何把默认端口7860改成别的?

端口占用的话他会自动加1
回复

使用道具 举报

0

主题

2

回帖

8

积分

初级丹童

积分
8
发表于 2023-11-2 13:12:31 | 显示全部楼层
meiyouruguo 发表于 2023-11-2 13:07
端口占用的话他会自动加1

我想让它固定下来 比如7861 啥的
回复

使用道具 举报

0

主题

3

回帖

9

积分

初级丹童

积分
9
发表于 2023-11-2 21:04:51 | 显示全部楼层
感谢分享
回复

使用道具 举报

2

主题

206

回帖

515

积分

初级丹师

积分
515
发表于 2023-11-3 12:10:23 | 显示全部楼层
这个模型估计不小吧
回复

使用道具 举报

0

主题

20

回帖

97

积分

中级丹童

积分
97
发表于 2023-11-3 16:10:48 来自手机 | 显示全部楼层
签到刷灵石
回复

使用道具 举报

0

主题

25

回帖

25

积分

初级丹童

积分
25
发表于 2023-11-3 22:04:33 | 显示全部楼层
不如国外的模型自由,可以涩涩
回复

使用道具 举报

0

主题

10

回帖

26

积分

初级丹童

积分
26
发表于 2023-11-4 13:36:49 来自手机 | 显示全部楼层
这个最底需要多大显存?
回复

使用道具 举报

0

主题

4

回帖

14

积分

初级丹童

积分
14
发表于 2023-11-4 13:44:28 | 显示全部楼层
感谢分享
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|AIBL论坛

GMT+8, 2024-9-17 04:15 , Processed in 0.098887 second(s), 25 queries , Gzip On.

Powered by AI技术论坛 X3.5

© 2001-2023 dfl论坛

快速回复 返回顶部 返回列表