Yann LeCun: 私が 65 歳で Meta を辞めて、「誰もが間違っていると思っていた」ことを実行した理由。 先週、ディープラーニングの三大巨匠の一人であるヤン・ルカン氏が長時間にわたって講演を行いました。 引退して65歳の生涯を楽しむはずだったこのチューリング賞受賞者は、12年間勤務したMeta社を離れ、パリにAMI(Advanced Machine Intelligence)という新しい会社を設立することを選びました。 彼がやろうとしていることは、シリコンバレーの大手企業すべてが期待していることとはまったく逆だ。 OpenAI、Google、Anthropic が LLM (大規模言語モデル) を必死に構築している間、Yann は次のように言いました。「この方法は機能しません。世界モデルが必要です。」 皆がAGIの実現まであと何年かと話している中、ヤンはこう言った。「皆さんは騙されています。楽観的に見ても、犬の知能レベルに達するには5年から10年かかるでしょう。」 AI終末論者が機械が人類を支配すると主張すると、ヤン氏はこう言う。「それは全くの妄想です。」 なぜ今回Metaを離れるのですか? Yann の推論は単純明快です。Meta は閉鎖的になりつつあるのです。 彼がMetaで設立したFAIR(Facebook AI Research)は、かつて業界で最もオープンなラボであり、すべての研究は論文として発表され、すべてのコードはオープンソースでした。PyTorchはそこから生まれました。 このオープンな文化はかつて、Google もさらにオープンになるよう強いました。 しかし、今では状況は変わりました。 OpenAIは数年前から非公開で技術開発を開始し、Googleもそれに追随しました。そして今、Metaもこの方向に進んでいます。 FAIR には、より短いプロジェクトに取り組むこと、より少ない論文を発表すること、そして LLM チームとより協力することを求められました。 「発表されていないものを研究と呼ぶことはできない」とヤン氏は言う。「そうしないと、簡単に自分を騙してしまうことになる」 彼は大企業内であまりにも多くの「自己満足的なプロジェクト」を見てきた。そこでは、一部の人々がドアを閉めて革命的な進歩を遂げたと考え、社外の人々がすでにそれよりもずっと優れた成果を上げていることにまったく気づかないのだ。 さらに重要なのは、科学者に「私たちのところで働いてください。ただし、何をしているかは言えません。5年後には製品に影響を与えるかもしれませんよ」と言ったら、誰も本当のブレークスルーを起こそうという意欲を持たないだろうということです。 それで彼はカミングアウトすることにした。 しかし、なぜ今起業が可能なのでしょうか? ここには非常に興味深い現象があります。 かつては、長期的なAI研究を行えるのは大企業だけでした。ベル研究所はAT&Tの通信事業の独占、IBMリサーチはメインフレームの独占、そしてゼロックスPARCはコピー機の独占に依存していました。 短期的な利益を考慮しない研究チームを支えることができるのは、独占によって生み出される超過利益だけです。 しかし、今は状況が違います。 投資家は AI に対して前例のない期待を抱いており、スタートアップ企業に多額の投資をすることで、チームが最初の 2 年間は研究に集中できるようにしています。 「これは以前は不可能だった」とヤン氏は語った。 したがって、AMI のモデルは、上流の研究を実施し、そのすべてを公開するだけでなく、製品も開発するというものです。 彼らが作りたい製品は、世界モデルに基づいたインテリジェント システムです。 世界モデルとは何ですか?ヤンはなぜこれが正しい道だと信じているのですか? これは面接全体の中で最も重要な部分です。 ヤンの LLM に対する批判は非常に率直です。LLM は現実世界に対応できないのです。 彼は計算してみた。 適切なLLMを訓練するには30兆トークンが必要です。各トークンは約3バイトなので、10の14乗バイトかかります。 これはどういう意味でしょうか?これはインターネット上で見つかるすべてのテキストデータです。 しかし、ビデオに切り替えたらどうなるでしょうか? 10 の 14 乗バイト、つまり 2 MB/秒の圧縮率では、15,000 時間のビデオを保存するのにしか十分ではありません。 15,000時間とは一体何でしょうか?YouTubeに30分間でアップロードされる動画の時間です。4歳児が起きている時間の合計(4年間で約16,000時間)です。 同じ量のデータでも、ビデオにはテキストよりもはるかに多くの情報が含まれています。 さらに、ビデオには多くの冗長性が含まれており、この冗長性こそが学習の鍵となります。 完全にランダムなものから何かを学ぶことはできません。学べるものには常にパターンと冗長性があります。 したがって、ヤンは、テキストのみを使用して人間レベルの AI をトレーニングすることは決してできないと結論付けています。 では、世界モデルとは一体何でしょうか? 多くの人は、ワールド モデルはゲーム エンジンのように、世界のあらゆる詳細を再現する「シミュレーター」であると考えています。 ヤン氏は、この理解は完全に間違っていると述べた。 彼は数値流体力学 (CFD) を例に挙げました。 飛行機の周りの気流をシミュレートするには、空間を小さな正方形に分割し、各正方形に速度、密度、温度などの変数を含めて、偏微分方程式を解きます。 これはすでに抽象的な表現です。現実世界では空気分子が衝突しますが、すべての分子をシミュレートする人はいません。そのため、計算量には天文学的な数字が求められるでしょう。 もっと深いレベルでは?分子は原子で構成され、原子は粒子で構成され、粒子は量子場理論を使用して記述されます。 現在の会話を量子場理論の観点から本当にシミュレートしたい場合、地球ほどの大きさの量子コンピュータが必要になりますが、それがシミュレートできるのは数ナノ秒だけです。 では、私たちは何をするのでしょうか? 抽象化を発明します。 粒子、原子、分子、タンパク質、細胞、臓器、生物、社会、生態系など、各層は、その下の層に関する多くの詳細を無視しています。 本質的に、あらゆる科学分野には、ある抽象レベルでの予測を行うことが含まれます。 物理学者には典型的な例があります。それは、ガスで満たされた箱で、各分子の動きをシミュレートできるのですが、誰もそれをやりません。 PV=nRT を使用します。ここで、圧力 × 体積 = 粒子数 × 温度です。 これが世界モデルの核となる考え方です。抽象的な表現空間で予測を行い、関連する部分のみを予測します。 100年後に木星がどこにあるか尋ねられたら、木星に関するあらゆる情報のうち、必要なのはたった6つの数字、つまり位置座標3つと速度成分3つだけです。それ以外の情報は重要ではありません。 LLM ではなぜこれができないのでしょうか? LLM の問題は、すべてのピクセル、すべてのトークンを予測しようとすることです。 これは、高次元、連続、ノイズの多いデータでは不可能です。 予測できない詳細が多すぎるため、ビデオの次のフレームをピクセルレベルで予測することはできません。 葉がどのように漂うか、水しぶきがどのように形成されるか、これらはすべてランダムです。 LLM がテキストに機能するのは、テキスト自体が離散的であり、比較的低次元であるためです。 しかし、すべての視覚能力は個別に訓練されており、LLM 自体では学習されないため、視覚タスクのパフォーマンスは低下します。 Yann のソリューションは JEPA (Joint Embedding Predictive Architecture) です。 簡単に言うと: 1. 予測する入力 X と Y の両方をエンコーダーに渡して、抽象表現を取得します。 2. 抽象表現空間における予測 3. この表現空間は、予測できない詳細 (ノイズを含む) を自動的に無視します。 彼は長い間この考えについて考えていた。 20年間の反省の旅 ヤンは、入力がエンコーダーによって表現され、その後デコーダーによって入力が再構築されるというオートエンコーダーを使用するというアイデアで、2000 年代初頭に教師なし学習の研究を始めました。 しかし、この考え方は間違っています。 入力されたすべての情報を表現に含めるように強制するのは悪い考えです。 その後、彼らはスパースオートエンコーダ、ノイズ除去オートエンコーダ、制限付きボルツマンマシンなど、さまざまな正規化手法を試しました。 これらはすべて当時かなり人気がありましたが、どれも実際に問題を解決しませんでした。 2015 年、ヤンは世界モデルに焦点を当てた NIPS (現在の NeurIPS) で基調講演を行いました。 彼の生徒たちはビデオで予測を立て始めました。 しかし、その後、ピクセルレベルで予測するという同じ間違いが起こりました。 これをうまくやるのは単純に不可能です。 予測は非決定論的です。つまり、知らないことすべてを表す潜在変数が必要です。 彼らは何年も試みましたが、結果は理想的ではありませんでした。 転機は5年前だった。 ヤンの博士研究員であるステファン・デニーは、あるアイデアを試しました。 対照学習の代わりに、エンコーダー出力の情報量を直接最大化します。 ヤン氏は当初、これはうまくいかないだろうと考えていた。1980年代にジェフリー・ヒントン氏が同様の試みをしたが、いずれも失敗していたからだ。 情報の上限は計算できますが、下限は計算できないため、情報を直接最大化することはできません。 しかし、実際は成功しました。 この方法は、バーロウ・ツインズと呼ばれます。 その後、VICReg (分散-不変-共分散正規化) でさらに改良され、より効果的になりました。 最近、Randall Balestriero (このポッドキャストにも出演) と Yann は、SigReg を使用してエンコーダー出力が等方性ガウス分布であることを保証する I-JEPA を立ち上げました。 この方法は現在ではかなり成熟しています。 LLM が AGI に到達することは決してないと言われるのはなぜですか? ヤンは、シリコンバレーの現在の「LLM カルト」に対して非常に批判的です。 「競争が激しすぎて誰も迂回する勇気がないので、皆が同じことをしている。」 OpenAI、Meta、Google、Anthropicなど、全員が関与しています。 • モデルサイズを拡大する • より多くの合成データでトレーニングする • ライセンスデータを購入する • RLHFを行うために数千人を雇う • 新しい強化学習技術を発明する 彼らはこの道が超知能につながると信じている。 ヤンはこう言った。「これは希望的観測であり、決して成功しないだろう。」 次に、彼らはいくつかの「推論」技術を追加しました。これは本質的に、モデルに非常に長い思考の連鎖を生成させ、多数の候補出力を生成し、評価関数を使用して最適なものを選択することを意味します。 「これでは何も解決しません。」 彼は、現在シリコンバレーには一種の「優越感」が存在していると語った。 DeepSeek は少し前に登場し、さまざまな方法を使用して優れた結果を達成し、シリコンバレーの人々を驚かせました。 自分達だけが賢いと思ってるんですか? 本物の AGI が開発されるまでにはどれくらいの時間がかかるのでしょうか? ヤン氏はまず、「汎用知能」という概念はナンセンスだと述べた。 私たち人間は「普遍的」であると考えていますが、現実には非常に特化しています。 私たちは現実世界でのやり取りや社交は得意ですが、チェスは下手です。機械はずっと前から私たちより優れていました。 私たちが多才であると考えるのは、私たちが考えつく問題はたまたま私たちが対処できる問題だからです。 しかし、私たちが想像もしなかった問題が数多く存在します。 したがって、「一般的な知能」と言う代わりに、「人間レベルの知能」と言うのです。 最も楽観的なシナリオでは、犬は5〜10年以内にその知能レベルに達するでしょう。 なぜ犬なのですか? 犬と人間の主な違いは脳の大きさと言語です。言語は実際には非常に小さな部分で、ブローカ野とウェルニッケ野という皮質の2つの小さな領域に過ぎず、100万年足らずで進化しました。 言語を処理するための LLM はすでに存在しており、これは脳の言語領域と考えることができます。 私たちに今欠けているのは、世界モデルが存在する前頭前皮質です。 しかしヤン氏は、今は見えない障害に遭遇する可能性があり、それには20年、あるいはそれ以上かかるかもしれないとも述べた。 「これはAIの歴史の中で何度も起こってきたことだ。」 モラベックのパラドックスは今も続いている。 モラベック氏は1988年にこう述べた。「人間にとって難しい知的作業(チェスをプレイしたり、スコアを計算したりすること)は、コンピューターによって簡単に実行できる。」 しかし、私たちが当たり前だと思っていること(猫ができる事)は、コンピューターにはできないのです。 47年が経過しましたが、このパラドックスは依然として存在しています。 今ではロボットを訓練して歩かせたり障害物を避けさせたりすることはできるが、ロボットの敏捷性や創造性は猫に比べるとはるかに劣る。 「ですから、1、2年以内にAGIが実現すると主張する人たちは完全に妄想に陥っています。現実世界は彼らが想像するよりもはるかに複雑です。」 現実世界をトークン化してから LLM を使用するだけでは、現実世界を理解することはできません。 AIはすべての仕事を奪ってしまうのでしょうか? ヤン氏はこう言った。「AI科学者が経済について語るのを聞かないでください。」 どの経済学者に聞いても、大量失業を予測する人は一人もいないだろう。 彼は例を挙げた。1980年代に最も求められていた職業は「ナレッジエンジニア」だった。 当時はエキスパートシステムという大きな潮流があり、日本ではLispや推論エンジンが動くCPUを作る「第5世代コンピュータ」プロジェクトが立ち上がりました。 ナレッジエンジニアの仕事は、専門家の隣に座り、専門家の知識をルールと事実に変換し、コンピューターが専門家と同じことを実行できるようにすることです。 これは動作のクローン作成の手動バージョンです。 その結果、非常に限られた領域でしか機能せず、経済的に実行可能で信頼性の高いアプリケーションはほとんどありません。 これは人間の知性への道ではありません。 しかし、当時の人々もこれが未来だと感じていました。それは今日の人々が LLM が未来だと感じているのと同じです。 「私のキャリアの中で、『最新技術がAGIをもたらす』という幻想は3回、おそらく私より前に5、6回起こった。」 1956 年、ニューウェルとサイモンは「General Problem Solver」(とても控えめな名前ですよね?)を作成しました。 彼らは、すべての問題は検索として表現できると信じています。つまり、目的関数と解決空間があり、検索は単に最適な解決策を見つけることです。 彼らが知らないのは、興味深い問題はすべて指数関数的な複雑さを持っているということです。 したがって、一般的な問題解決者はまったく一般的ではありません。 AI セキュリティ: ヤンが心配していない理由 彼の意見がヒントン氏やベンジオ氏の意見と異なる場合、どうすればよいのかと多くの人が彼に尋ねる。 ヤンの答えは実際的なものでした。もちろん、安全性は重要ですが、それは技術的な問題であり、原則的な問題ではありません。 彼はジェットエンジンの例を挙げた。 双発機なら、地球を半周する17時間も、完全に安全に飛行できるんです。すごいですね。 ターボファンエンジン内部の温度は、どんな金属にとっても耐え難いものです。回転によって発生する遠心力は数百トンにも達します。論理的に考えると、このエンジンはそもそも作動するはずがありません。 しかし、エンジニアリングが優れているため、それは機能します。 初めてジェットエンジンを作ると、10分も運転すれば必ず爆発します。燃費も悪く、信頼性も低いでしょう。 しかし、経済の推進力は非常に強力であったため、最終的に今日見られる信頼性のレベルが達成されました。 AIにも同じことが当てはまります。 まずは猫のような AI を作成し、次に危険な行為を防ぐためのガードレールを追加します。 スチュアート・ラッセル氏は次のような例を挙げた。家庭用ロボットにコーヒーを持ってくるように頼んだとき、誰かがコーヒーメーカーの前に立ちふさがっていたら、ロボットはタスクを完了するためにその人を押しのけたり、傷つけたりさえするだろうか? ヤンは、この例は修正が簡単すぎるので愚かだと言いました。 低レベルの制約を追加するだけで済みます。家庭用ロボットは人から離れていなければならず、誰かが行く手を阻んでいる場合は脇に寄るように要求しなければなりませんが、決して人に危害を加えてはいけません。 ロボットがナイフを持ってキュウリを切っている場合、制約を追加します。ロボットが手にナイフを持っているとき、周囲に人がいる場合は腕を振ってはいけません。 これらは微調整ではなく、厳格な制約です。 LLM の問題は、微調整しかできず、いつでもジェイルブレイクされる可能性があることです。 ただし、目標駆動型アーキテクチャを使用し、世界モデルを持ち、アクションの結果を予測し、一連の制約を満たしながら最適化を通じてアクションシーケンスを選択できる場合は、構造的に安全です。 これらはトレーニングされた設定ではなく、システム アーキテクチャの一部であるため、これらの制約から逃れることはできません。 知性は支配したいという欲求と同じではありません。 これはヤンが繰り返し強調している点です。 「何かが知的であるからといって、他のものを支配したいわけではない。それは全く別のことだ。」 人間は、時には支配を通して、時には名声を通して、他者に影響を与えたいと願っています。これは、人間が社会的な種であるため、進化によって遺伝子に書き込まれたものです。 この原動力を AI システムに書き込む理由はなく、AI システムがそれを独自に開発することもありません。 さらに、「最も賢い人々は、上司になりたがる人々ではないことが多い」。 同氏は「国際政治の舞台を見れば、リーダーになりたがる人たちは、最も賢い人たちではないことが分かる」と語った。 最も賢い人々の多くは、自分自身の問題だけを研究したいと思っており、他人の問題には興味がありません。 なぜ私たちはオープンなままでいなければならないのでしょうか? AMI は上流の研究をすべて公開します。 ヤン氏は、これは感傷的なことではなく、必要性の問題だと語った。 「公表しなければ、簡単に自分自身を騙すことができる。」 彼は、こんなことを何度も見てきた。社内の人間はあるプロジェクトに非常に興奮し、革命的な大発見だと考えていたが、社外の人間がすでにそれよりもずっと良い仕事をしていたことには気づかなかったのだ。 さらに、科学者に「研究に来なさい。ただし、何をしているかは言わないで。5年後には製品ができるかもしれないから」と言ったら、彼らはやる気を起こさないでしょう。 彼らには同僚からの短期的なフィードバックと認識が必要です。 真のブレークスルーを望むなら、人々にそれを出版してもらわなければなりません。他に方法はないのです。 「これは多くの企業が今忘れていることです。」 興味深い現象:中国はよりオープンになってきています。 ヤンは皮肉な現象を指摘する。 現時点で最も優れたオープンソース モデルは中国のものです。 アメリカの企業(Meta を除く)は、自社の「競争上の優位性」を守るために閉鎖的になりつつあります。 しかし、中国の企業や研究機関は完全にオープンです。 そのため、オープンソース モデルを必要としている産業界や学界の多くの人々が、現在、中国のモデルを使用しています。 アメリカの業界の多くの人々はこれに非常に不満を抱いています。 彼らは、優れた非中国的なオープンソース モデルを求めています。 Llama 4は良い選択肢だったかもしれないが、残念だ。Metaは修正されるかもしれないし、Meta自体が閉鎖されるかもしれない。まだ不透明だ。 Mistral は素晴らしいコード生成モデルをリリースしたばかりで、それをオープンに保っているのは素晴らしいことです。 彼はなぜまだ引退しないのですか? ヤンは65歳で、チューリング賞を受賞し、つい最近エリザベス女王賞も受賞したばかりです。彼女はもう引退してもおかしくない年齢です。 彼の妻も彼に引退してもらいたいと思っている。 「しかし、私には使命があるのです。」 彼は、人々を賢くすること、あるいは人々が賢くなるのを助けるために機械を使うことは本質的に良いことだと常に信じてきました。 情報は世界で最も希少な商品であり、特に政府においてはそうである(彼は笑いながら言った)。 人類としても地球としても、知能の供給には限りがあります。だからこそ、私たちは人々の教育に莫大な資源を費やしているのです。 人類に役立つ知性の総量を増やすことは、本質的に良いことです。 もちろん危険はありますし、予防策を講じることも必要です。ジェットエンジンの安全性と信頼性を確保する必要があるのと同じように、車も軽微な衝突で命を落とすことはありません。 しかし、これは技術的な問題であり、克服できないものではありません。また、政治的な問題でもありますが、克服できないものではありません。 彼のキャリアにおけるすべてのプロジェクトは、「人々をより賢くする」という目標を中心に展開されました。 これが彼が教授になった理由であり、ソーシャルメディアで科学を広く普及させた理由であり、機械知能の研究を行っている理由です。 「自律型知能機械の開発と人間を支援する機械の開発は、異なる技術だと考える人がいます。しかし、全く同じ技術なのです。」 ヤンは AI の研究だけを行っているのではありません。 彼はセーリング、特に多胴船(トリマランとカタマラン)が大好きで、複数の船を所有しています。 彼は飛行機を作るのが好きで、「飛行機とは呼びません。飛行機に似ていないものも多いから。でも、確かに飛ぶんです」と話す。 彼の父親は航空技師で、余暇には飛行機を組み立て、独自の無線リモートコントロールシステムも作っていました。これは家族の趣味になりました。彼の兄弟も同じことをやっていて、パリのGoogle Researchで働いていました。 パンデミックの間、彼は天体写真撮影を始め、夜空を撮影するためにたくさんの望遠鏡を購入しました。 彼は電子楽器を作っています。10代の頃から音楽や電子音楽に興味を持ち、今では自宅にたくさんのシンセサイザーを所有しています。彼は自分で電子楽器を作っています。指使いで吹いて演奏するタイプの楽器ですが、制御信号も生成します。 彼は、ナビゲーションと世界モデルは非常に似ていると述べました。 ヨットをうまく速く航行させるには、波がボートにどのような影響を与えるか、突風はいつ来るか、ボートが傾くかどうかなど、多くのことを予測する必要があります。 基本的には頭の中で流体力学の計算を実行する必要があります。 空気の流れが帆の周りでどのように動くかを知る必要があります。迎え角が大きすぎると乱流が発生し、揚力が大幅に減少します。 「帆を調整するには頭の中で CFD を実行する必要がありますが、抽象的なレベルではストークス方程式を解いているわけではありません。」 彼がセーリングを愛する理由はそこにある。セーリングをうまく行うには、予測的なメンタルモデルを構築する必要があるからだ。 最終アドバイス 誰かが尋ねました: 「今日 AI のキャリアを始めるとしたら、何を学ぶべきですか?」 ヤンの答えはあなたを驚かせるかもしれません。 長く使えるもの、学ぶ方法を学ぶのに役立つものを学びましょう。 テクノロジーの変化は速いため、素早く学習する能力が必要です。 どうすればそれができるのでしょうか?それは基礎を学ぶことです。 さらに、これらはコンピュータサイエンスではない場合がほとんどです。 私はコンピュータサイエンスの教授ですが、コンピュータサイエンスをあまり勉強しすぎないようにアドバイスします。正直に言うと、私は学部時代は電気工学を専攻しており、真のコンピュータサイエンティストではありません。 学ぶべきこと: • 数学、特に現実とつながる数学 • モデリング • 工学分野で学んだこと アメリカでは、微積分学I、II、IIIでしっかりとした基礎を身につけることができます。しかし、コンピュータサイエンス系の学部では微積分学Iのみを必須としており、それだけでは不十分です。 確率論、代数、サイバネティクス、信号処理、最適化はすべて AI に非常に役立ちます。 物理学は、「予測を行うために現実で何を表現すべきか」という学問なので、物理学も良いでしょう。 これが知性の本質です。 もちろん、十分なコンピュータサイエンスを学び、プログラミングができ、コンピュータを使用できることも必要です。 AI がプログラミングを支援するとしても、これらのことを理解する必要があります。 誰かが尋ねました: AI がプログラミングを支援するとどうなるでしょうか? ヤン氏はこう言いました: 興味深い現象が発生します。多くのコードが一度しか使用されません。 コードを書くのがすごく安くなってきたからです。AIアシスタントに「図を描いて」とか「小さなシミュレータを作って」とか頼めば、AIアシスタントがコードを書き、それを一度使って捨ててしまうんです。 「ですから、プログラマーはもう必要ないというのは間違いです。ソフトウェアのコストは下がってきており、これは次のステップに過ぎません。」 しかし、これはコンピューターの重要性が低下することを意味するのではなく、むしろさらに重要になるでしょう。 インタビューを通して、ヤンは非常に珍しい資質を示した。 彼は現在の主流の傾向を批判しているが、批判そのものが目的ではない。 彼には明確な選択肢、数十年にわたって蓄積された思考、失敗から学んだ教訓、そして最近の画期的な進歩があります。 彼は65歳で、これまでの功績に満足することもできたが、彼は「誰もが間違っていると思う」ことをすることを選んだ。 たぶん彼は正しい。 おそらく5年後には、誰もがLLMを構築している一方で、本当のブレークスルーは世界モデルから生まれることがわかるでしょう。 おそらく20年後には、私たちは再び目に見えない障害に遭遇していることに気づくだろう。 しかし、少なくとも、異なる道を歩んでいる人もいます。 そしてこの人物こそが、畳み込みニューラル ネットワークを発明し、AI の冬の時代を何十年も耐え抜き、「今度こそは必ず AGI を実現できる」という 3 度のバブルを目の当たりにした人物なのです。 たとえ聞くのが不快な言葉であっても、彼の言葉は聞く価値がある。
スレッドを読み込み中
X から元のツイートを取得し、読みやすいビューを準備しています。
通常は数秒で完了しますので、お待ちください。