6热度
2回答
[Vision-CAIR/MiniGPT-4]请问如果一台主机上使用两块RTX 4090显卡,使用Pytorch加载Vicuna-13B模型,是否能将内存分配在两块显卡上?
2热度
14回答
[THUDM/ChatGLM-6B]chatglm-int4 web_demo.py页面能加载出来 但是输入你好 chatglm-6b一直没有回答
5热度
7回答
2热度
8回答
[THUDM/ChatGLM-6B]微调后,测试问答生成,确实能回答我给他学习的内容 ,但后面会追加很多其它文本 这要怎么解决?
1热度
5回答
[THUDM/ChatGLM-6B]ptuning之后api预测
0热度
13回答
[THUDM/ChatGLM-6B]Ptuing生成的prefix_encoder加载后,原来模型的语言能力消息了
8热度
8回答
[THUDM/ChatGLM-6B][Help] <请问chatglm-6b有公开完整的训练代码吗?>
7热度
5回答
[THUDM/ChatGLM-6B][Help] 请教个问题,我想微调chatglm以更好的完成text2sql的场景,请问prompt该怎么设计比较好?
6热度
6回答
[THUDM/ChatGLM-6B][Help] 为什么P-tuning v2 示例参数的step是3000?
4热度
14回答
3热度
12回答
[PaddlePaddle/PaddleOCR]tensorrt使用相关问题
3热度
18回答
[PaddlePaddle/PaddleOCR]部署后发送服务请求失敗
6热度
5回答
[THUDM/ChatGLM-6B][BUG/Help] <ChatGLM-6B会不会开放GLM框架下的微调代码>
10热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 使用main.py进行全量微调训练后,输出一直为空
8热度
10回答
[THUDM/ChatGLM-6B][BUG/Help] p-tuning如何使用多卡进行微调呢?
9热度
8回答
[THUDM/ChatGLM-6B][BUG/Help] <我不得不说> 在配置不错的情况下,运行也慢,官方 demo respone 也是空的
2热度
14回答
[THUDM/ChatGLM-6B][Help] generate方法和chat方法的调用结果不一致
2热度
6回答
[THUDM/ChatGLM-6B][BUG/Help] 在有GPU的情况下,推理过程消耗CPU,并且只用CPU的1核
10热度
6回答
[THUDM/ChatGLM-6B]ChatGLM-6B如何实现上下午关联?
1热度
5回答