推動人工智能道德規範

美國紐約大學有一所名為AI Now Institute的研究所,致力確保企業和政府推出新的人工智能應用程序沒有道德方面的問題。這些智能工具現在正影響着我們日常生活的各方面,從醫療保健到刑事司法,再到教育、招聘以至日常的電子商務,這些影響都在同時發生。這將對人們產生怎樣的影響,是非常值得關注的。為了確保未來人工智能的發展符合人類的最佳利益,AI Now的研究人員歸納出四類挑戰,分別為:權利和自由、勞動和自動化、偏見和包容,以及安全與關鍵基礎設施。

權利和自由涉及人工智能侵犯公民自由的可能性,比如在商場內為了得到免費WiFi而同意對智能手機的識別,不代表你允許商場或服務供應商追蹤到曾到此一遊。勞動和自動化包括工人如何因為自動化系統而減少被解僱的機會,但同時自動化的本身也可以為改進人類的工作環境而努力。偏見和包容涉及到人工智能系統是否會加劇對邊緣群體的歧視,例如手機叫車的軟件愈好用,對沒有智能手機的老人家來說是一種歧視。內地沒帶手機可能比沒有現金更難過。安全與關鍵基礎設施關注人工智能在互聯網等重要系統中應用所帶來的風險。

像AI Now Institute一類研究人工智能領域倫理問題的研究所,還有密歇根大學的倫理、社會和計算中心(簡稱ESC),該中心專注於解決技術在加劇不平等和歧視方面的風險。但在許多方面,人工智能倫理的研究仍然有限。由於保密條款和計算機欺詐和濫用法案等法律,很多情況下他們都被禁止調查系統。

人工智能領域的研究人員,現在正鑽研一些迫切的問題,即人工智能如何在不威脅人們隱私或加劇系統性偏見的前提下服務人類。推動人工智能道德的道路並不簡單,在全力發展人工智能的同時,又要迎合新的道德標準,但實際上並沒有取得多大的成就。現在就斷言這是否會促成真正的系統性改變還為時過早,但可以肯定的是,我們正面臨一個重大轉變,而且情況不容小覷。