您好,
会员登录 快速注册
退出 ( 条未读消息)
关于本站 意见反馈 首页

公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!
全部文章分类
  • 人工智能 >

  • 编程语言 >

  • WPF系列 >

  • ASP.NET系列 >

  • Linux >

  • 数据库 >

  • 嵌入式 >

  • WEB技术 >

  • PLC系列 >

  • 微服务与框架 >

  • 小宅DIY >

  • 学习资料 >

OpenCv基础 ANN车牌识别 yolov5车牌识别 指针式仪表识别 ROS系列 YOLO Halcon Detectron2 昇腾AI ChatGPT在线体验 英伟达JETSON ChatGLM ChatTTS FunASR 地平线 ByteTrack 魔搭社区 LangChain
C C# C++ Python Java Go
WPF
ASP.NET小功能 GPS定位系统-MVC GPS定位系统-VUE
Linux Linux内核 Shell MakeFile
MySql SqlServer Oracle
STM8 STM32 51单片机
VUE入门 HTML JavaScript CSS layui镜像网站 ElementUi中文官网
三菱 欧姆龙 西门子 施耐德 松下 台达
IOTSharp IOTGateway ABP FRAMEWORK Docker
亚克力音响 编程仙途:智驭万法
面试题与技巧 Python入门技能树 微软C#教程
首页 编程之美 工具下载 全国就业 流量地图 文心一言
ChatGLM
ChatGLM 内容介绍 ChatGLM2 PyCharm运行环境部署 ChatGLM2 PyCharm模型训练 Jetson Nano 部署ChatGLM Jetson Nano 语音输入与ASR
ChatGLM 内容介绍
ChatGLM2 PyCharm模型训练
激萌の小宅 小宅博客 ChatGLM

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

ChatGLM2 PyCharm运行环境部署

1、资料下载

ChatGLM2 源码下载地址:

https://github.com/THUDM/ChatGLM2-6B

git clone https://github.com/THUDM/ChatGLM2-6B


数据模型下载(需求全部下载):

https://huggingface.co/THUDM/chatglm2-6b/tree/main

git clone https://huggingface.co/THUDM/chatglm2-6b


有个清华大学云盘的模型地址,没试过

https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/?p=%2Fchatglm2-6b%2F&mode=list


2、Windows PyCharm环境部署

在下载的ChatGLM2-6B-main源码目录下新建个“THUDM\chatglm2-6b”目录,将模型文件都扔到这个目录下

QQ截图20240228162942.jpg


创建python虚拟环境,需要安装PyCharm和Miniconda3,可以参考博客《YOLOv5 安装开发环境》

我们只需要安装这两个软件就行了。

然后创建我们的虚拟环境“ChatGLM”

conda create -n ChatGLM python==3.10


创建完成之后,直接用PyCharm打开我们的ChatGLM2-6B-main工程,然后设置Python解释器为我们刚刚创建的ChatGLM。

QQ截图20240228163424.jpg


打开PyCharm终端,执行下面命令,安装依赖包

pip install -r requirements.txt -i https://mirror.baidu.com/pypi/simple


通过下面代码,来调用 ChatGLM2-6B 模型来生成对话(进入python)

python
>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer=AutoTokenizer.from_pretrained("THUDM\\chatglm2-6b",trust_remote_code=True)
>>> model=AutoModel.from_pretrained("THUDM\\chatglm2-6b", trust_remote_code=True, device='cpu')
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
你好6B,很高兴见到你,欢迎问我任何问题。
>>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
>>> print(response)
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:


执行结果如下:

QQ截图20240228172816.jpg


注意:如果使用GPU,device可以设置成“cuda”,cpu回答问题比较慢,博主这里回答第一个问题花了6分钟左右,第二个问题20多分钟。


如果使用GPU的话,需要安装cuda(请根据自己电脑cuda版本,安装对应cuda)

pip install torch==2.2.1+cu121 torchvision==0.17.1+cu121 -f https://download.pytorch.org/whl/torch_stable.html

ChatGLM 内容介绍
ChatGLM2 PyCharm模型训练

友情链接: CSDN激萌の小宅 95知识库 自考题库 罗分明个人网络博客 精益编程leanboot

小宅博客  www.bilibili996.com All Rights Reserved. 备案号: 闽ICP备2024034575号

网站经营许可证  福建省福州市 Copyright©2021-2025 版权所有

小宅博客
首页 智能家居 地图定位
公告:小宅博客网可以开发票了,需要发票的,去群里找群主哈!!

文章作者:激萌の小宅

促销:¥0

价格:¥0

配送方式: 购买后立即生效(如购买异常,请联系站长)
付款之后一定要等待自动跳转结束,否则购买可能会失败
  • 0 天

    有效期

  • 0

    总销量

  • 0

    累计评价

ChatGLM2 PyCharm运行环境部署

1、资料下载

ChatGLM2 源码下载地址:

https://github.com/THUDM/ChatGLM2-6B

git clone https://github.com/THUDM/ChatGLM2-6B


数据模型下载(需求全部下载):

https://huggingface.co/THUDM/chatglm2-6b/tree/main

git clone https://huggingface.co/THUDM/chatglm2-6b


有个清华大学云盘的模型地址,没试过

https://cloud.tsinghua.edu.cn/d/674208019e314311ab5c/?p=%2Fchatglm2-6b%2F&mode=list


2、Windows PyCharm环境部署

在下载的ChatGLM2-6B-main源码目录下新建个“THUDM\chatglm2-6b”目录,将模型文件都扔到这个目录下

QQ截图20240228162942.jpg


创建python虚拟环境,需要安装PyCharm和Miniconda3,可以参考博客《YOLOv5 安装开发环境》

我们只需要安装这两个软件就行了。

然后创建我们的虚拟环境“ChatGLM”

conda create -n ChatGLM python==3.10


创建完成之后,直接用PyCharm打开我们的ChatGLM2-6B-main工程,然后设置Python解释器为我们刚刚创建的ChatGLM。

QQ截图20240228163424.jpg


打开PyCharm终端,执行下面命令,安装依赖包

pip install -r requirements.txt -i https://mirror.baidu.com/pypi/simple


通过下面代码,来调用 ChatGLM2-6B 模型来生成对话(进入python)

python
>>> from transformers import AutoTokenizer, AutoModel
>>> tokenizer=AutoTokenizer.from_pretrained("THUDM\\chatglm2-6b",trust_remote_code=True)
>>> model=AutoModel.from_pretrained("THUDM\\chatglm2-6b", trust_remote_code=True, device='cpu')
>>> model = model.eval()
>>> response, history = model.chat(tokenizer, "你好", history=[])
>>> print(response)
你好6B,很高兴见到你,欢迎问我任何问题。
>>> response, history = model.chat(tokenizer, "晚上睡不着应该怎么办", history=history)
>>> print(response)
晚上睡不着可能会让你感到焦虑或不舒服,但以下是一些可以帮助你入睡的方法:


执行结果如下:

QQ截图20240228172816.jpg


注意:如果使用GPU,device可以设置成“cuda”,cpu回答问题比较慢,博主这里回答第一个问题花了6分钟左右,第二个问题20多分钟。


如果使用GPU的话,需要安装cuda(请根据自己电脑cuda版本,安装对应cuda)

pip install torch==2.2.1+cu121 torchvision==0.17.1+cu121 -f https://download.pytorch.org/whl/torch_stable.html