圖靈獎得主本吉歐博士實驗室中被引用次數最多的研究論文是關於生成對抗網路(GAN)的。那麼,GAN 是誰發明的呢? 第一個兼俱生成性與對抗性的神經網路(NN)於1990-1991年在慕尼黑發表[GAN25] https://t.co/Ev6rSvYiY2 當時的計算成本大約是今天(2025 年)的 1,000 萬倍。 這些網絡是如何運作的呢?這裡有兩個互相博弈的神經網路。一個所謂的控制器神經網路(帶有自適應隨機高斯單元,即生成模型)產生輸出資料。此輸出被輸入到一個預測器神經網路(在1990年被稱為「世界模型」[people.idsia.ch/~juergen/who-i…習來預測輸出的影響。然而,在極小極大博弈中,生成器神經網路的目標是最大化預測器神經網路所最小化的誤差。 因此,控制器會透過其輸出創造出令預測器感到意外的實驗/情境。隨著預測器的改進,這些情境會變得乏味。這反過來又會激勵控制器創造出結果更難以預測的新輸出(或實驗),如此往復。這被稱為人工好奇心[GAN90][GAN91][GAN10][AC]。 人工好奇心並非首個對抗性機器學習場景,但早期的研究[S59][H90]與之截然不同——它們既不涉及自監督神經網路(即一個神經網路觀察另一個生成神經網路的輸出並嘗試預測其結果),也不涉及資料建模,更未使用梯度下降法。 (生成模型本身的歷史更為悠久,例如隱馬可夫模型[MM1-3]。) 請參閱 1990 年技術報告 [GAN90] 中的「實現動態好奇心和無聊感」部分以及 1991 年同行評審會議論文 [GAN91]。其中提到了一些初步實驗,在這些實驗中(在沒有外部獎勵的情況下),預測器最小化生成器最大化的線性函數。 因此,這些早期論文本質上描述的是近四分之一個世紀後,也就是2014年[GAN14]才出現的生成對抗網絡(GAN)技術。當時的計算成本比1990年便宜了約10萬倍。 2014年,1990年的神經預測器或世界模型[GAN90][GAN91]被稱為判別器[GAN14],用於預測生成器可能輸出的二元效應(例如真實與虛假)[GAN20]。 2014年將其應用於影像生成[GAN14]是一項創新。 1990 年的 GAN 比 2014 年的 GAN 更具通用性:它不局限於單步試驗中的單一輸出動作,而是允許執行長序列的動作。 1997 年發表了更複雜的用於人工智慧好奇心和創造力的生成對抗系統 [AC97][AC99][AC02][LEC],這些系統預測的是抽象的內部表徵,而不是原始數據。 1990 年的原理 [GAN90-91] 已被廣泛用於強化學習的探索 [SIN5][OUD13][PAT17][BUR18] 和逼真圖像的合成,例如深度偽造 [GAN14-19b],儘管後者最終被 Rombach 等人的潛在擴散 [DIF1] 所取代,這是慕尼黑物理學[DIF2] 和最近的論文 [DIF3-5] 之上。 附錄 1. GAN 優先權之爭(1990-91 年 vs 2014 年) 2014 年關於生成對抗神經網路 (GAN) 的論文 [GAN14] 未能引用 1990 年關於生成對抗神經網路的原始工作 [GAN90,91,20][R2][DLP]。 2014 年的論文 [GAN14] 也對另一個基於梯度的雙網路對抗系統-可預測性最小化 (Predictability Minimization, 1991) [PM0-1][GAN20][DLP]-做出了錯誤的論點。在 1990 年關於人工好奇心的論文 [GAN90] 發表一年後,可預測性最小化利用兩個學習神經網路之間的對抗來創建輸入資料的解耦內部表示(或階乘編碼)[PM0-1]。 2014 年的論文 [GAN1] 引用了可預測性最小化,但錯誤地聲稱它不是極小極大博弈,因此與 GAN 不同。然而,1991 年 [PM0-1] 和 1996 年 [PM2](使用影像)的可預測性最小化實驗正是極小極大型態。 即使是作者後來的調查[GAN14]也未能引用原始論文[DLP]。 [GAN14]的作者從未更正他們2014年的論文,這表明他們意圖強行建構一種新穎的敘事,即使面對相反的證據也是如此。 在2016年N(eur)IPS會議上,Juergen Schmidhuber (JS)與[GAN14]的第一作者發生了一次引人注目的會面,之後,包括彭博社[AV1]在內的大眾媒體開始關注優先權之爭。當時,[GAN14]的第一作者就生成對抗網路(GAN)發表了演講,並鼓勵與會者提問。 JS也提出了問題,指出了N(eur)IPS 2014論文[GAN14]中存在的問題,以及該論文對先前關於機率管理(PM)的研究[GAN20][DLP]的錯誤論斷。 隨後,各方努力在一篇共同發表的論文中修正這些問題,但持續數月之久,最終未能成功。第一作者[GAN14]最終承認PM是對抗性的(他未經修正的NeurIPS論文[GAN14]仍然聲稱相反),但他強調PM並非生成式演算法。作為回應,JS指出,更早的Artificial Curiosity[GAN90][GAN91][GAN20][R2][AC][DLP]既是對抗性的又是生成式的(其生成器神經網路包含機率單元[GAN90],類似於StyleGANs[GAN19])。 儘管這一說法屬實,但[GAN14]的作者並未嘗試更正論文或對此作出回應。因此,一篇關於此優先權爭議的同行評審期刊論文[GAN20]於2020年發表,以澄清事實。 當然,眾所周知,抄襲可以是「無意的」或「有意或魯莽的」[PLAG1-6],而本案很可能部分屬於後者。但科學界有一套完善的方法來處理「重複發現」和抄襲問題——無論是無意的[PLAG1-6][CONN21]還是有意的[FAKE1-3]——其依據是出版物和專利的時間戳等事實[DLP][NOB]。科學的準則要求無意抄襲者透過勘誤表更正其出版物,並在未來正確地註明原始出處。然而,作者[GAN14]並沒有這樣做;相反,他們不斷地收集其他研究人員發明成果的引用[DLP]。這種行為顯然將無意的抄襲[PLAG1-6]變成了有意的抄襲[FAKE2]。 參考 [AC] J. Schmidhuber(JS,AI博客,2021年,2023年更新)。三十年來,人工智慧的好奇心與創造力不斷發展。我們的人工智慧科學家不僅能解答既定問題,還能提出新的問題。他們透過以下方式實現好奇心:(1990年)生成對抗網路原理;(1991年)最大化學習進度的神經網路;(1995年)最大化資訊增益的神經網路(自2011年起達到最優);(199 7-2022)對抗性設計出人意料的計算實驗;(2006)像科學家/藝術家/喜劇演員一樣最大化壓縮進度;(2011年)PowerPlay…自2012年起:應用於真實機器人。 [AC97] JS 什麼有趣?技術報告 IDSIA-35-97,IDSIA,1997 年 7 月。重點在於自動創建複雜時空事件的可預測內部抽象:兩個相互競爭、具有內在動機的智能體就本質上任意的演算法實驗達成一致,並在零和博弈中押注其可能令人驚訝(但尚未可預測)的結果。每個智能體都可能透過發明實驗方案來智勝/出其不意地擊敗對方,使雙方對預測結果產生分歧。重點在於探索通用演算法空間(而非傳統的從輸入到輸出的簡單映射);該通用系統專注於有趣的事物,而忽略了世界中可預測和不可預測的方面。與我們之前具有內在動機的系統(例如 [AC90])不同,該系統還考慮了學習新技能、學習何時學習以及學習什麼的計算成本。請參閱後續出版品 [AC99][AC02]。 [AC99] JS 人工好奇心是基於透過協同演化發現新的演算法可預測性。載於 P. Angeline、Z. Michalewicz、M. Schoenauer、X. Yao、Z. Zalzala 編,《進化計算大會》,第 1612-1618 頁,IEEE 出版社,新澤西州皮斯卡塔韋,1999 年。 [AC02] JS 探索可預測性。載於 Ghosh, S. Tsutsui 編,《進化計算進展》,第 579-612 頁,Springer,2002 年。 [AV1] A. Vance. Google、Amazon 和 Facebook 都欠 Jürgen Schmidhuber 一大筆錢——這個人是人工智慧界想要遺忘的教父。 《商業周刊》,彭博社,2018 年 5 月 15 日。 [DEC] JS(人工智慧博客,2020年2月20日,2025年更新)。 2010年代:我們的深度學習十年/2020年代展望。回顧過去十年基於我們人工智慧技術的最重要發展和工業應用,並展望2020年代,同時探討隱私和資料市場。 [DIF1] R. Rombach、A. Blattmann、D. Lorenz、P. Esser、B. Ommer。基於潛在擴散模型的高解析度影像合成。 CVPR 2022。預印本 arXiv:2112.10752,慕尼黑大學,2021。 [DIF2] C. Jarzynski. 非平衡測量得到的平衡自由能差異:主方程式方法。物理評論 E,1997。 [DIF3] J. Sohl-Dickstein、EA Weiss、N. Maheswaranathan、S. Ganguli。使用非平衡熱力學的深度無監督學習。 CoRR,abs/1503.03585,2015。 [DIF4] O. Ronneberger、P. Fischer、T. Brox. Unet:用於生物醫學影像分割的捲積網路。載於 MICCAI (3),計算機科學講義第 9351 卷,第 234-241 頁。 Springer,2015 年。 [DIF5] J. Ho, A. Jain, P. Abbeel. 擴散機率模型去噪. 神經資訊處理系統進展 33:6840-6851, 2020. [DL1] JS,2015。神經網路中的深度學習:概述。 《神經網路》,61,85-117。更多。 [DLH] JS (2022)。現代人工智慧和深度學習的註釋歷史。技術報告 IDSIA-22-22,IDSIA,瑞士盧加諾,2022 年。預印本 arXiv:2212.11279。 [DLP] J. Schmidhuber (2023)。三位圖靈獎得主如何重新發表了他們未註明出處的關鍵方法和想法。技術報告 IDSIA-23-23,瑞士人工智慧實驗室 IDSIA,2023 年 12 月 14 日。 [FAKE1] H. Hopf、A. Krief、G. Mehta、SA Matlin。 《偽科學與知識危機:無知可能致命》。皇家學會開放科學,2019 年 5 月。引用:“科學家必須勇於發聲,當他們在社交媒體、傳統紙媒或廣播媒體上看到虛假信息時”,並且“必須公開反對流傳的虛假信息和偽科學,並有力地反駁那些宣揚虛假信息的公眾人物”。 [FAKE2] L. Stenflo. 聰明的抄襲者是最危險的。 《自然》,第427卷,第777頁(2004年2月)。引用:“在我看來,更糟糕的是……一些科學家用不同的措辭改寫先前的研究成果,故意隱藏其思想來源,然後在隨後的幾年裡強行聲稱他們發現了新的現象。” [FAKE3] S. Vazire (2020). 向錯誤偵測器致敬。願 2020 年成為我們珍惜那些確保科學自我糾正的人的一年。 《自然》,第 577 卷,第 9 頁,2020 年 2 月 2 日。 [GAN90] J. Schmidhuber (JS). 使世界可微:關於使用全循環自監督神經網路在非平穩環境中進行動態強化學習和規劃。技術報告 FKI-126-90,慕尼黑工業大學,1990 年。這是第一篇關於使用強化學習循環神經網路 (NN) 進行規劃的論文(更多內容),以及關於生成對抗網路的論文,其中生成器 NN 與預測器 NN 在極小極大博弈中對抗。 [GAN91] JS 在模型建構神經控制器中實現好奇心和無聊的可能性。載於 JA Meyer 和 SW Wilson 編輯的《國際自適應行為模擬會議論文集:從動物到擬人化動物》,第 222-227 頁。 MIT Press/Bradford Books,1991 年。基於 [GAN90]。 [GAN10] JS 創造力、樂趣和內在動機的形式理論 (1990-2010)。 IEEE 自主心理發展彙刊,2(3):230-247, 2010。這篇著名的 2010 年綜述總結了 1990 年的生成對抗神經網路如下:「神經網路作為預測世界模型,用於最大化控制器的內在獎勵,該獎勵與模型的預測誤差成正比」(而模型的預測誤差則被最小化)。 [GAN10b] O. Niemitalo. 一種訓練人工神經網路在可變上下文中產生缺失資料的方法。部落格文章,互聯網檔案館,2010 年。一篇描述 GAN 基本思想的部落格文章 [GAN90-91][GAN20][AC]。 [GAN14] I. Goodfellow、J. Pouget-Abadie、M. Mirza、B. Xu、D. Warde-Farley、S. Ozair、A. Courville、Y. Bengio。 「生成對抗網路」。 NIPS 2014,2672-2680,2014 年 12 月。該 GAN 描述未引用 JS 於 1990 年提出的原始 GAN 原理 [GAN90-91][GAN20][AC][R2][DLP],並且包含關於 JS 用於可預測性最小化的對抗神經網路的錯誤聲明 [PM0-2][GAN20][DLP]。 [GAN19] T. Karras, S. Laine, T. Aila. 產生對抗網路的基於風格的生成器架構。在 IEEE 計算機視覺與模式識別會議 (CVPR) 論文集,第 4401-4410 頁,2019 年。 [GAN19b] D. Fallis.深度偽造的認知威脅。哲學與技術 34.4 (2021):623-643。 [GAN20] J. Schmidhuber. 生成對抗網路是人工好奇心 (1990) 的特例,並且與可預測性最小化 (1991) 密切相關。神經網絡,第 127 卷,第 58-66 頁,2020 年。預印本 arXiv/1906.04493。 [GAN25] J. Schmidhuber. 誰發明了生成對抗網路?技術報告 IDSIA-14-25,IDSIA,2025 年 12 月。參見上方連結。 [H90] WD Hillis. 共進化寄生蟲改進模擬進化作為一種優化程序。 Physica D: Nonlinear Phenomena, 42(1-3):228-234, 1990。 [LEC] JS(AI Blog,2022)。 LeCun 2022 年發表的關於自主機器智能的論文重述了 1990 年至 2015 年間的重要工作,但並未引用這些工作。多年前,JS 的團隊發表了 Y. LeCun 所稱的他「主要原創貢獻」的大部分內容:例如,能夠學習多個時間尺度和抽象層次、生成子目標、利用內在動機改進世界模型並進行規劃的神經網路(1990 年);以及能夠學習資訊豐富的可預測表示的控制器(1997 年)等等。這些內容也曾在 Hacker News、Reddit 和媒體上討論過。 LeCun 還列出了“2012-2022 年的 5 個最佳想法”,卻隻字未提其中大部分都來自 JS 的實驗室,而且時間更早。 [MIR] JS(2019 年 10 月,2021、2022、2025 年更新)。深度學習:我們奇蹟般的 1990-1991 年。預印本 arXiv:2005.05744。 [MOST] JS(AI Blog,2021 年,2025 年更新)。被引用次數最多的神經網路都基於我實驗室的工作:1. 長短期記憶網路 (LSTM),20 世紀被引用次數最多的 AI 模型。 2. ResNet(開放式高速公路網路),21 世紀被引用最多的 AI 模型。 3. AlexNet 和 VGG Net(類似但更早的 DanNet 於 2011 年發布,此前贏得了 4 項影像辨識挑戰賽)。 4. GAN(1990 年對抗性人工好奇心的實例)。 5. Transformer 的變體-請參閱 1991 年的非歸一化線性 Transformer (ULTRA)。生成式 AI 的基礎理論發表於 1991 年:GAN(現用於深度偽造)、Transformer(ChatGPT 中的 T)、深度神經網路的預訓練(ChatGPT 中的 P)、神經網路蒸餾以及著名的 DeepSeek 的原理。 [NOB] JS 因剽竊而獲得諾貝爾獎。技術報告 IDSIA-24-24(2024 年 12 月 7 日,2025 年 10 月更新)。 [PLAG1] 牛津大學關於剽竊類型的指南(2021)。引文:“剽竊可能是故意的、魯莽的,也可能是無意的。” [PLAG2] 傑克遜州立社區學院 (2022)。無意抄襲。 [PLAG3] RL Foster. 避免無意抄襲。兒科護理專家雜誌;霍博肯,第 12 卷,第 1 期,2007 年。 [PLAG4] N. Das. 無論是有意或無意,抄襲都是絕對不允許的:關於印度大學如何處理抄襲問題的說明。 Perspect Clin Res 9:56-7, 2018。 [PLAG5] InfoSci-OnDemand (2023)。什麼是無意剽竊?互聯網檔案館中的副本。 [PLAG6] 版權所有 (2022)。如何避免意外和無意抄襲 (2023)。互聯網檔案館藏本。引文:“無論是意外還是故意,抄襲就是抄襲。” [PLAG7] 康乃爾評論,2024 年。哈佛大學校長因抄襲醜聞辭職。 2024 年 1 月。 [PLAN] JS(AI Blog,2020)。規劃與強化學習結合循環世界模型與人工智慧好奇心30週年紀念(1990)。這項工作還引入了高維獎勵訊號、循環神經網路的確定性策略梯度以及生成對抗網路(GAN)原理(如今已被廣泛應用)。具有自適應循環世界模型的智能體甚至為意識和自我意識提供了一個簡單的解釋。 [PLAN2] JS 一種用於反應式環境中動態強化學習和規劃的線上演算法。發表於 IEEE/INNS 國際神經網路聯合會議論文集,聖地牙哥,第 2 卷,第 253-258 頁,1990 年 6 月 17-21 日。基於 [GAN90]。 [PLAN3] JS 馬可夫和非馬可夫環境下的強化學習。載於 RP Lippman、JE Moody 和 DS Touretzky 編輯的《神經資訊處理系統進展 3》(NIPS'3),第 500-506 頁。加州聖馬特奧:Morgan Kaufmann,1991 年。部分基於 [GAN90]。 [PM0] J. Schmidhuber. 透過可預測性最小化學習因子編碼。 TR CU-CS-565-91,科羅拉多大學博爾德分校,1991 年。 [PM1] JS 透過可預測性最小化學習因子編碼。神經計算,4(6):863-879, 1992。 [PM2] JS, M. Eldracher, B. Foltin. 半線性可預測性最小化產生眾所周知的特徵偵測器。神經計算,8(4):773-786, 1996。 [R2] Reddit/ML,2019 年。 J. Schmidhuber 早在 1990 年就提出了 GAN。 [S59] AL Samuel. 利用跳棋遊戲進行機器學習的一些研究。 IBM 研究與發展雜誌,3:210-229,1959。
正在載入線程內容
正在從 X 取得原始推文,整理成清爽的閱讀畫面。
通常只需幾秒鐘,請稍候。
![圖靈獎得主本吉歐博士實驗室中被引用次數最多的研究論文是關於生成對抗網路(GAN)的。那麼,GAN 是誰發明的呢?
第一個兼俱生成性與對抗性的神經網路(NN)於1990-1991年在慕尼黑發表[GAN25] https://t.co/Ev6](https://pbs.twimg.com/media/G7GFST0WsAATGya.jpg)