如何为7人规模的企业搭建本地大语言模型服务器?

Reddit r/LocalLLaMA 工具

摘要

用户询问如何为7人企业搭建本地LLM服务器,考虑Gemma 4和Qwen 3.6等模型、5090或MacBook Pro等硬件选项,以及并发用户扩展问题。

好吧,我潜水这个板块有一段时间了,偶尔会在我的笔记本(不是最好的)上跑一些小型的2-8B模型玩玩。但假设我在公司的职责是搭建一个本地LLM,因为我们显然不想让机密数据泄露给其他公司等等。主要用途是查询、RAG、通用使用,没什么特别复杂的,除了可能有一两个人会用它做编程。我在考虑Gemma 4 26/31或Qwen 3.6 27/35。这些模型在并发用户下表现如何?我知道我可以在5090加一些扩展或者用48GB统一内存的MacBook Pro上跑这些模型,但不确定多用户情况下扩展性如何。
查看原文

相似文章