是否存在类似外置硬盘的“外置硬件LLM”这种东西? 我不想运行/维护本地模型,而是想要一台推理机,可以直接连接并输入指令。单GPU即可,或许可以并行运行几个GPU。 谁在建造这个?
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
正在加载线程详情
正在从 X 获取原始推文,整理成清爽的阅读视图。
通常只需几秒钟,请稍候。
共 1 条推文 · 2025年12月18日 17:01
是否存在类似外置硬盘的“外置硬件LLM”这种东西? 我不想运行/维护本地模型,而是想要一台推理机,可以直接连接并输入指令。单GPU即可,或许可以并行运行几个GPU。 谁在建造这个?