深入了解 llama.cpp 的新 WebUI
要开始使用,只需运行你的 llama-server,打开浏览器,即可开始浏览。
借助高效的并行处理支持,您可以进行多线程对话或与他人共享本地服务器。
同时支持并行图像处理。
使用结构化输出执行复杂的数据提取
直接在浏览器中轻松管理您的对话
新版 WebUI 也支持移动设备访问。
全新的 WebUI 与 llama.cpp 的先进后端功能相结合,带来极致的本地 AI 聊天体验。 它速度快、私密、免费且开源。 它现在可以在任何硬件上运行——今天 非常感谢 @huggingface 团队发起、领导和支持这项工作。请欣赏! https://t.co/9jbE1uqy1S






