外付けハードドライブのような「外部ハードウェア LLM」というものはすでに存在するのでしょうか? ローカルモデルを実行・維持する代わりに、プラグインしてプロンプトを指示するだけで使える推論マシンが欲しいです。GPUは1つ、あるいは複数を並列に使うのが理想です。 これを作っているのは誰ですか?
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
1 件のツイート · 2025/12/18 17:01
外付けハードドライブのような「外部ハードウェア LLM」というものはすでに存在するのでしょうか? ローカルモデルを実行・維持する代わりに、プラグインしてプロンプトを指示するだけで使える推論マシンが欲しいです。GPUは1つ、あるいは複数を並列に使うのが理想です。 これを作っているのは誰ですか?