わずか 2 つのコマンドで、シェル用の高速かつステートレスな LLM を実現します。 qqが質問に答え、qaがシングルステップエージェントを実行してタスクを完了します。複数のLLMで動作します。 100% オープンソース。
同様の AI ツールやプロジェクトについては、https://t.cotheunwindai.comープンソース コードを使用した 100 以上の AI エージェント、RAG、LLM、MCP チュートリアルにすべて無料でアクセスできます。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。
2 件のツイート · 2025/11/14 3:18
わずか 2 つのコマンドで、シェル用の高速かつステートレスな LLM を実現します。 qqが質問に答え、qaがシングルステップエージェントを実行してタスクを完了します。複数のLLMで動作します。 100% オープンソース。
同様の AI ツールやプロジェクトについては、https://t.cotheunwindai.comープンソース コードを使用した 100 以上の AI エージェント、RAG、LLM、MCP チュートリアルにすべて無料でアクセスできます。