llama.cpp の新しい WebUI の詳細
始めるには、ラマサーバーを実行し、ブラウザを開くだけで準備完了です。
非常に効率的な並列処理サポートにより、会話をマルチスレッド化したり、ローカルサーバーを他のユーザーと共有したりできます。
並列画像処理もサポートされています
構造化された出力を使用して高度なデータ抽出を実行します
ブラウザ内で直接簡単に会話を管理できます
新しいWebUIはモバイルフレンドリーです
新しいWebUIとllama.cppの高度なバックエンド機能を組み合わせることで、究極のローカルAIチャット体験を実現します。 高速、プライベート、無料、オープンソースです あらゆるハードウェアで動作します - 今日 この取り組みを発起し、主導し、サポートしてくださった@huggingfaceのチームに心から感謝します。どうぞお楽しみください! https://t.co/9jbE1uqy1S






