RT @geerlingguy: 방금 llama.cpp의 새로운 내장 WebUI 기능을 사용해 봤는데 정말 쉬웠어요. 호스트 이름으로 llama-server를 실행하기만 하면 됩니다…