| huggingface-cli hf_xet 插件经常报 dns error 是咋回事 guoguobaba • 173 天前 • 最后回复来自 coefuqin | 1 |
| 目前性价比最高的跑本地大模型显卡是? lemonTreeTop • 112 天前 • 最后回复来自 goodboy95 | 18 |
| 多卡部署 QWQ Q8 是否可行 PalWorld • 173 天前 • 最后回复来自 coefuqin | 3 |
| intel 显卡跑 Qwen3-14B-GGUF:Q8_0 abc0123xyz • 179 天前 • 最后回复来自 coefuqin | 6 |
| 学习大模型的显卡怎么选型 cuteshell • 186 天前 • 最后回复来自 coefuqin | 30 |
| 求本地部署的 AI 推荐~ WessonC • 188 天前 • 最后回复来自 happybabys | 11 |
| 本地 vllm 部署 Qwen2.5-7B-Instruct 在 stream 模式下 tool_calls 参数 JSON 字符串未正常闭合 BenchWidth • 110 天前 • 最后回复来自 DefoliationM | 3 |
| 本地部署视觉大模型,用于 OCR 中文文献+翻译,最好的模型是什么? villivateur • 189 天前 • 最后回复来自 mili100 | 21 |
| mac studio 跑大模型也就那样啊 guoguobaba • 201 天前 • 最后回复来自 fredweili | 26 |
| 有没有能 mac 上直接跑的多语言翻译 LLM? idblife • 189 天前 • 最后回复来自 mili100 | 4 |
| llama.cpp/ollama 对于类似 vllm tensor parallel 功能的支持。 coefu • 38 天前 • 最后回复来自 coefu | 6 |
| 英语文本音频按句自动对齐的有推荐的吗? afkool • 212 天前 • 最后回复来自 barnetime | 8 |
| 本地 llm client kid1412621 • 232 天前 • 最后回复来自 kid1412621 | 5 |
| 公司要搭建本地大模型,推荐配置。 Woolaman • 232 天前 • 最后回复来自 coefuqin | 10 |
| 有在生产上跑私有化 DeepSeek 70B 大模型的吗?什么配置的机器支持?并发多少呢? yiyiniu • 232 天前 • 最后回复来自 coefuqin | 2 |
| 跑 AI 大模型,到底是用 4090 魔改版好还是 Mac studio 好? kisshere • 235 天前 • 最后回复来自 egen | 9 |
| 使用 dify 时代码如何管理? frankyzf • 127 天前 • 最后回复来自 ericguo | 8 |
| 想自己上手跑跑 LLM 大模型,求推荐显卡和主机配置 limatrix81 • 242 天前 • 最后回复来自 coefuqin | 28 |
| 本地 llama.cpp 和 ollama 跑 相同 模型,效果不一样 paranoiagu • 243 天前 • 最后回复来自 tool3d | 7 |