将来 AI が人類を脅かすかどうかを知りたい場合、追跡信号をどのように構築すればよいでしょうか? Hjalmar 氏の METR (AI セキュリティ研究機関) での研究は、2 つの将来機能を追跡するための「早期警告ダッシュボード」の構築に重点を置いています。 - 不正な複製機能: AI は自律的にリソースを獲得し、自身の存在を維持し、人間が「簡単にシャットダウン」できないようにすることができますか? - 自動化された AI 研究開発: AI が独自の AI を開発し、能力が爆発的に成長することは可能でしょうか? これら 2 つの要因は非常に興味深いものです。電源プラグを抜くことができないことと、爆発的な成長が続くことは、人類を脅かすための必要条件である可能性があります...
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。