自己电脑部署大语言模型!ChatGLM2 + LoRA微调懒人包

ChatGLM2-6B 是开源中英双语对话模型 ChatGLM-6B 的第二代版本,相对于前代拥有更强大的性能、更高效的推理、更长的序列,长度达到8192,支持更长对话和应用、对于中文有着更好的支持。 模型部署电脑硬件要求: FP16半精度-13GB显存 INT8量化 -10GB显存 INT4量化 -6GB 显存  也可以选择CPU部署,甚至可以在M1M2的MAC上部署

🪄Github官方链接🪄

https://github.com/THUDM/ChatGLM2-6B

https://github.com/hiyouga/ChatGLM-Efficient-Tuning

🔗整合包下载链接🔗

整合包下载链接: https://caiyun.139.com/m/i?165CjeZSrqbR2 提取码:iJHs 复制内容打开中国移动云盘手机APP,操作更方便哦

🦜QQ交流群🦜

交流群:807534742,cuda,python,vs,git以及不含模型的整合包都已上传至qq群里,欢迎自取和交流

🏫详细视频教程🏫

bilibili:https://www.bilibili.com/video/BV12P411r7Mw

发表回复

此站点使用Akismet来减少垃圾评论。了解我们如何处理您的评论数据