LeCun最新演講談預測學習:記憶網路和對抗訓練很有前景

  機器之心原創

  作者:葉兀

  

  當地時間2017年 1 月 13 日,Yann LeCun 在愛丁堡大學做了一個題為《預測學習(Predictive Learning)》的演講。在這篇文章中,我很高興能向大家分享我在這個演講中的收穫。雖然我並沒有完全理解他在講座中提到的所有概念,但我會盡我所能分享我了解到的知識。

  

null

  人工智慧在過去幾年的快速進展很大程度上可歸功於深度學習和神經網路演算法的進步,當然還有大規模數據集和高性能 GPU 的可用性。我們現在已經具有準確度可媲美人類的映像識別系統了,而這也引發了一些領域的革命性發展,其中包括資訊存取(information access)、自動運輸系統(autonomous transportation)和醫學影像分析(medical image analysis)。

  但是所有這些系統目前都在使用監督學習,即使用人工標記的數據作為機器的輸入。所以接下來幾年內的挑戰就是讓機器能從原始、未標記的數據(如視頻或文本)中進行學習,這就是人們稱為預測學習無監督學習的方法。智能系統如今並不能掌握“常識”,而在人類和動物的世界裡,常識是通過觀察世界、參與世界和理解世界的物理約束而獲得的。Yann LeCun 認為機器學習世界的預測模型的能力將會是人工智慧的重大進步。然而主要的難點在於世界只是部分可預測的。接下來將會介紹無監督學習的一種一般形式,其能夠應對部分可預測的世界。這種形式連接了許多眾所周知的無監督學習方法以及一些新的和令人興奮的方法(如對抗訓練)。

  Yann LeCun 簡介

  Yann LeCun 是 Facebook 的人工智慧研究主管,紐約大學的 Silver 教授,隸屬於紐約大學數據科學中心、Courant 數學科學研究所、神經科學中心和電氣與計算機工程系。

  Yann LeCun 在 1983 年在巴黎 ESIEE 獲得電氣工程學位,1987 年在 Université P&M Curie 獲得計算機科學博士學位。在完成了多倫多大學的博士後研究之後,他在 1988 年加入了 AT&T 貝爾實驗室(AT&T Bell Laboratories /Holmdel, NJ),後來在 1996 年成為 AT&T Labs-Research 的映像處理研究部門主管。2003 年,他加入紐約大學獲得教授任職,並在 NEC 研究所(普林斯頓)呆過短暫一段時間。2012 年他成為紐約大學數據科學中心的創辦主任。2013 年末,他成為了 Facebook 的人工智慧研究中心(FAIR)負責人,並仍保持在 NYU 中兼職教學。從 2015 到 2016 年,Yann LeCun 還是法蘭西學院的訪問學者。

  LeCun 目前感興趣的研究領域包括人工智慧、機器學習、計算機感知、機器人和計算神經科學。他最出名的是對深度學習和神經網路的貢獻,特別是廣泛用於計算機視覺和語音識別應用的卷積神經網路模型。他在這些主題以及手寫字型識別、映像壓縮和人工智慧硬體等主題上發表過 190 多份論文。

  LeCun 是 ICLR 的發起人和常任聯合主席(general co-chair),並且曾在多個編輯委員會和會議組織委員會任職。他是加拿大高級研究所(Canadian Institute for Advanced Research)機器與大腦學習(Learning in Machines and Brains)項目的聯合主席。他同樣是 IPAM 和 ICERM 的理事會成員。他曾是許多初創公司的顧問,並是 Elements Inc 和 Museami 的聯合創始人。LeCun 位列新澤西州的發明家名人堂,並獲得 2014 年 IEEE 神經網路先鋒獎(Neural Network Pioneer Award)、2015 年 IEEE PAMI 傑出研究獎、2016 年 Lovie 終身成就獎和來自墨西哥 IPN 的名譽博士學位。

  概述

  在這篇演講中,LeCun 一開始介紹了最近人工智慧的發展情況,然後談到了人工智慧面臨的難題。接著,他深入論述了預測性學習以及 Goodfellow 在 2014 年提出的新概念:生成對抗性網路。除此之外,“常識”也是這篇演講中多次提及的重要概念,我稍後會做解釋。

  這篇演講的主題分為 4 個部分:

  人工智慧當前發展情況概覽

  人工智慧所面臨的難題

  預測學習(無監督學習)

  對抗訓練

  監督學習

  實際上,去年取得的所有成功都是基於監督學習。我們在大量樣本上(比如桌子、椅子、狗、汽車和人)訓練機器,不過,機器可以識別之前沒有見過的桌子、椅子等嗎?

null

  這兩張幻燈片講的是訓練深度神經網路的過程,所有灰色圖片是每一層提取的特徵。當然,如果你覺得這些幻燈片內容很難理解,可以首先學習卷積神經網路以及反向傳播演算法。

  他也介紹了 深度卷積網路的架構:VGG、GoogleNet 和 ResNet

null

  接著,他介紹了一些駕駛方面的研究——使用卷積網路對行駛中的汽車進行映像標註和語義分割。另外,他也給出了一些映像識別的例子。

null

  在這一過程中,我們使用了計算機視覺和卷積網路方面的知識。

  人工智慧發展中所面臨的難題

null

  上面這張幻燈片告訴我們,機器需要通過觀察和行動來獲取某種程度的常識,這樣才能準確預測、規劃以及關注重要事項。記憶相關事件並預測如何行動才能得到我們想要的世界的狀態。

  智能&常識=感知+預測模型+記憶+推理&規劃

  常識是一種填空能力

  從部分資訊推出世界狀態

  從過去和現在推斷未來

  從當前狀態推斷過去事件

  補充視覺盲點的視野內容

  補充被遮擋的映像

  補充文本、語音缺失部分

  預測行動結果

  預測導致結果的行動序列

  人類有常識。比如,看看下面這幅圖片

null

  我們知道這個人拿起包並要離開房間。我們之所以有常識是因為我們知道世界運行原理,不過,機器怎麼學會常識呢?

  從提供的任何資訊預測過去、現在以及未來的任何一部分。這就是預測學習(predictive learning)。不過,這是很多人對無監督學習(unsupervised learning)的定義。

  無監督學習/預測學習的必要性

  訓練大型學習機器所需的樣本數量(無論為了完成何種任務)取決於我們需要預測的資訊量大小。

  你需要機器回答的問題越多,樣本數量就要越大。

  如果想用很多參數訓練一個非常複雜的系統,就需要海量訓練樣本讓系統預測很多內容

  “大腦有 10 的 14 次方個突觸,我們卻只能活大概 10 的 9 次方秒。因此我們的參數比我們所獲得的數據會多的多。這一事實激發了這一思想:既然感知輸入(包括生理上的本體感受)是我們每秒獲取 10^5 維度約束(10^5 dimensions of constraint)的唯一地方,那麼,就必須進行大量的無監督學習。”

  預測人類提供的標籤,一個價值函數(value function)是不夠的。

  然後 LeCun 舉了個例子,解釋了不同的學習演算法進行預測需要多少資訊。如下幻燈片所示。

  隨後,他使用兩篇預測視頻幀的論文闡述了強化學習系統,這是 Facebook 贏得 VizDoom 2016 比賽的研究結果。[Wu & Tian, submitted to ICLR 2017] 和 Plug: TorchCraft: interface between Torch and StarCraft [Usunier, Synnaeve, Lin, Chintala, submitted to ICLR 2017].

  他在這裡還提到了人工智慧的成功案例 AlphaGo,不過很難將其用於真實世界。因為圍棋的世界一步步的,我們的學習系統可以通過許多訓練樣本獲得經驗。但真實的世界是存在許多問題的,我們永遠不能加速真實世界來進行訓練模型。

null

  智能系統的架構

  這一部分是關於人工智慧系統架構的,我認為這對我們很重要,所以我把四張 PPT 貼到這裡。但是,除了 PPT 上的內容,Yann 並沒有展開太多。

null

  上述理論非常類似於下述的控制論。

null

  下面的這個幻燈片簡單但非常清楚地勾勒了人工智慧的架構,如果讀者了解模式識別的基本過程,你也能理解這個架構。

null

  這裡的關鍵詞是類比世界和目標函數(objective function)。因此,你要懂它們的意思。

null

  學習關於世界的預測性正演模型

  Yann 介紹了一個預測落體軌跡的模型,其使用了非真實的遊戲引擎,它與真實世界的真實物體略微不同,因此,也只是在遊戲引擎中有效。後來,他討論了真實世界中的真實物體的情況。

null

  從文本中進行推斷:實體 RNN

  儘管監督式 ConvNet 已經取得了重大的進展,我們仍需要記憶增強網路賦予機器進行推論的能力。Yann 用 PPT 的形式幫助我們理解記憶\堆棧增強迴圈網路。

  使用記憶模組增強神經網路

  迴圈網路不能進行長期記憶

  皮層記憶只能持續 20 秒

  神經網路需要一個“海馬體”(一個單獨的記憶模組)

  LSTM [Hochreiter 1997],暫存器

  Memory networks [Weston et 2014] (FAIR),聯合存儲器

  堆棧增強迴圈神經網路 [Joulin & Mikolov 2014] (FAIR)

  神經圖靈機 [Graves 2014]

  可微分神經計算機 [Graves 2016]

null

  此外,他也給出了一個例子演示 MemNN 的結果。

null

null

  EntNet 是第一個解決所有 20 個 bAbi 任務的模型。

  無監督學習

  基於能量的無監督學習

null

  塑造能量函數的 7 種策略

  1. 建立低能量體量(the volume of low energy stuff)不變的機器

  PCA、K-means、GMM、square ICA

  2. 數據點能量的下推(push down),其他位置能量都提高(push up)

  最大似然(需要易操作的配分函數)

  3. 數據點能量的下推(push down),在選擇出的點上進行提高

  contrastive divergence、Ratio Matching、Noise Contrastive Estimation、Minimum Probability Flow

  4. 圍繞數據點最小化梯度,最大化曲率(curvature)

  score matching

  5. 訓練一個動態系統,以便於動態進入 manifold

  降噪自編碼器

  6. 使用正則化進行限制有低能量的空間體量

  Sparse coding、sparse auto-encoder、PSD

  7. 如果 E(Y) = ||Y - G(Y)||^2, 儘可能的使得 G(Y) 不變

  Contracting auto-encoder, saturating auto-encoder

  對抗訓練

  然後,他談到了 2014 年由 Ian Goodfellow 提出的對抗訓練(GAN),這是改進機器預測能力的一種方式。GAN 包括一個生成器、一個判別器,它們同時進行學習。你可以通過閱讀引用 [5],、[6] 了解更多。

  下面是在現實世界進行預測的一個例子。比如圖中演示,當你鬆手時筆倒下可能指向不同的方向。我們如何準確的預測筆的指向?這是一個難題,與學物理的學生多交流會有幫助。

null

  然後,Yann 給出了一個解決方案,基於能量的無監督學習:

null

null

  下面我附上了 PPT,有一些關於基於能量的 GAN 的函數:

null

  視頻預測

  最終,Yann 向我們演示了關於視頻預測的有趣例子,使用不帶有池化(pooling) 的多尺度 ConvNet。Yann 說他也不知道為什麼這裡的池化不起作用。

null

  我們的大腦是一台“預測機器”。

  我們能否訓練機器來預測未來?

  一些使用“對抗訓練”獲得的成功。

  但我們離完全的成功還很遠。

  總結

  總而言之,Yann 在演講中總結了去年人工智慧領域的進展,並介紹了監督學習的一些知識點。然後,Yann 聚焦於無監督學習。他認為無監督學習會成為未來的主流,能解決我們的學習系統難以處理的眾多問題。我們如今正在面臨無監督和預測性前向模型(predictive forward model)的建立,這也可能會是接下來幾年的挑戰。此外,對抗訓練在未來可能會逐漸扮演更重要的角色,而如今的難題是讓機器學習“常識”。

  我個人看來,我也從 Yann 身上獲得了一些特別的東西。他非常友好、樂於助人。現場有一個學生問了一個非常耗時間的問題,他同樣給出了解答,這超乎了我的想象。此外,他告誡我們多與其他領域的人交流,比如物理學,這可能幫助我們解決上面提到的預測筆倒下之後指向的問題。最後,我們來了一個合照。

  References

  [1] Goodfellow, Ian, et al. "Generative adversarial nets." *Advances in Neural Information Processing Systems*. 2014.

  [2] Athans, Michael, and Peter L. Falb. *Optimal control: an introduction to the theory and its applications*. Courier Corporation, 2013.

  [3] https://research.fb.com/projects/babi/_ (https://research.fb.com/projects/babi/)

  [4] https://iot-for-all.com/yann-lecuns-keynote-on-predictive-learning-mixed-reality-as-imagined-by-magic-leap-and-marc-f2adfecf7ab6#.7q1xepw2u_

  (https://iot-for-all.com/yann-lecuns-keynote-on-predictive-learning-mixed-reality-as-imagined-by-magic-leap-and-marc-f2adfecf7ab6)

  [5] https://arxiv.org/pdf/1511.06434v2.pdf

  [6] https://tryolabs.com/blog/2016/12/06/major-advancements-deep-learning-2016/

  [7] http://datascience.inf.ed.ac.uk/events/data-science-distinguished-lecture

《更多精彩内容,按讚追蹤Gooread·精選!》
喜歡這篇文章嗎?立刻分享出去讓更多人知道~

    相關閱讀