悪魔はチャットテンプレートの中にいる ========================= フィービー・ブッフェイがあなたに信じさせようとしているのとは反対に、ジャガイモとポタトーは同じものではありません。 AGI のことで悩んでいる方、あるいはオープンソースの AI モデルの実装に取り組んでいる方は、ぜひこのブログをお読みください。 もしあなたが「AIセキュリティ」に関する知識人であり、このブログの内容を理解していないのであれば、このテーマについてコメントする資格はありません。よく言われるように、本を読んだ方がいいでしょう。 長々と話すのはここまでにして、このブログでは、フロンティア モデルを「DUMB」にしてしまう可能性のあるすべての問題について説明します。 LLM推論は非常に脆弱です。推論エンジンは、入力を厳密な形式(チャットテンプレート)でLLMに提示する必要があります。少しでも逸脱すると、出力は良くありません。少なくとも、AGIに対する不安は軽減されるでしょう。テクノロジーはスカイネットにはならないのですから。 @vllm_project と Lilian Weng に感謝します。vLLM で実行されている Kimi k2 モデルのツール呼び出し成功率を 100% 近くにまで向上させるため、Kimi チームからのフィードバックをどのように活用したかを説明しています。 フィードバックを受けてから、とても迅速に対応してくれました。素晴らしいですね。コミュニティへの貢献に心から感謝しています🧡💕 重要な教訓(引用) チャットテンプレートにこそ悪魔が潜む:chat_templateは、モデルとそのサービスフレームワーク間の重要なハンドシェイクです。新しいモデルを統合する際は、テンプレートロジックのあらゆる部分をフレームワークの特定の動作と想定に照らし合わせて綿密に検証する必要があります。 抽象化レイヤーを剥がす:/chat/completionsのような高レベルAPIは便利ですが、根本原因が分かりにくくなる場合があります。デバッグの際は、/completionsのような低レベルエンドポイントまで迷わずに降りてみましょう。入力を手動で構築することは、問題を切り分けるための強力なテクニックです。 プロのヒント:トークンIDは究極のグラウンドトゥルースです。最も微妙な問題の場合、モデルに送信されたトークンIDの最終シーケンスを調べることが、確実な唯一の方法です。上記の問題ではこれに頼る必要はありませんでしたが、ツールボックスにある重要なツールです。OpenAI互換APIを使用してトークンIDを返すなどのテクニックは、非常に役立ちます。興味のある方は、Agent Lightningの記事でもこの点について取り上げています。 フレームワークの設計哲学を理解する:vLLM の **kwargs の厳格な処理はバグではなく、意図的なセキュリティ上の選択です。これらの設計上の決定を理解することで、予期せぬ動作に悩まされることなく、根本原因を迅速に特定できるようになります。 オープンエコシステムの課題:「Enforcer」と呼ばれるツールのような高度な機能は、洗練されたプロプライエタリサービスの特徴です。vLLMのようなオープンソースプロジェクトにおいて、これらの機能を堅牢かつエレガントに実装することは、コミュニティにとって重要な課題です。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。