年輕時喜歡中午放飯或者放學後去打街機,《街頭霸王》是我的最愛,我喜歡選用的角色叫「軍佬」,也算是深水埗福華街的街機高手之一了。老實說,這也是我花了不少「打斧頭」的銀子換來的「成就」,可是偶然換了角色,功力會大打折扣,不過有些技術及經驗還是用得上的,不至於一敗塗地。這種舉一反三的技巧轉移能力,在我們從學校到工作的成長過程中不難體現。怪不得有些投資人垂青多次創業成功者的項目。
言歸正傳,一種名為Agent57的人工智能研究項目,正在通過街機的環境中(57個Atari經典電子遊戲),學習更高段數的深度學習能力。Agent57由DeepMind(AlphaGo團隊)開發,在面對不同遊戲時使用相同的深度強化學習算法,並能夠超越以往AI很難應付的遊戲,希望達到以一敵57的通用水平。
遊戲玩家都知道,在Atari中有兩款差異比較大的遊戲特別難搞,例如《蒙特祖瑪的復仇》中,AI在獲勝之前必須嘗試許多不同的策略,而在《滑雪》中,動作和獎勵之間有較長的延遲,這使得AI很難學習哪些動作能獲得最好的回報。
為了應付這些挑戰,Agent57滙集了DeepMind對其名為「Deep-Q網絡」,擊敗Atari遊戲的多項改進,其中包括一種基於前序經驗的遊戲和獎勵系統,以便讓AI在制定策略之前,更充分地探索其選項。然後,這些不同的技術由元控制器管理,在推進特定策略和進行更多探索之間權衡。儘管Deepmind取得了成功,但我們今天最好的深度學習模式並不是很通用,大多數往往只擅長一件事。訓練AI使其在多個任務中表現出色,是深度學習中的一大挑戰。擁有學習57個不同任務的能力,使Agent57比以前玩遊戲的AI更加通用,但仍然不能學習一次過玩多個遊戲。Agent57可以學習玩57個遊戲,但不能學習同時玩57個遊戲。即使採用了相同的算法,它需要為每個新遊戲重新訓練。從這一點來看,Agent57類似於AlphaZero,DeepMind的另一個深度強化學習算法,它可以學習下棋、圍棋和象棋,但同樣也是不能同時進行,達到真正的通用能力。
但相對而言,人類在小孩的時候已經具備一邊夾餸吃飯一邊看電視分析劇情的能力,這些說不上是什麼智能技巧吧,卻遠遠超出今天AI的能力範圍。若盼望AI能夠為創業中的CEO作出不同商業決策,其水平差距可想而知。