AI六大框架

隨着人工智慧不斷快速擴展,面臨的挑戰往往是來自人類而非機器。廣泛部署AI的障礙不再是技術本身,而是一系列與人相關的挑戰。惡意AI(misbehaving AI)的出現可能為科技增加了陰影,這些風險實際可能影響着每個地球人的未來,除了種族、年齡或性別歧視等,亦可以用作散布虛假資訊,甚至戰爭。

從商業角度來看,AI現在成為必備的業務能力,有諮詢公司提出了「可信賴人工智慧」(Trustworthy AI)的框架,說明企業在AI系統實施的設計、開發、部署和運營階段中達成通盤考慮。以下是框架中的6個重點:

  1. 公平、不偏頗:可信賴的AI必須從設計和訓練,以遵循公平的角度開發,還要經過內部和外部的測試,以減少不公平。自古以來偏見就存在於社會之中,不是什麼新鮮事。如今AI有可能成為貪婪的人們作惡新工具罷了。
  2. 透明且可解釋:要讓AI可信任,所有參與者都有權了解資料的使用方式以及AI的決策方式。AI的演算法、屬性和相關性必須易於檢查,並且具有可解釋性。隨着依賴AI的產品數量和關鍵程度增加,AI不能再被視為接收輸入並生成輸出的「黑匣子」,我們需要對內部發生的情況清楚了解。
  3. 負責和承擔責:可信賴的AI系統需要包括明確誰應當對於產出負責和擔責。對於那些受到傷害的人和政府監管機構而言,指摘技術本身的決策失誤是不夠的。隨着AI的應用日益關鍵(如疾病診斷、財富管理和自動駕駛),這個問題可能只會變得更加重要。
  4. 穩定和可靠:AI在實現廣泛應用前,必須至少與它要增強或替換的傳統系統、流程和人員一樣穩定和可靠。要達成可信賴的AI,必須使其在需要時發揮作用,並產生一致且可靠的輸出,在不太理想的條件下,以及遇到意外等情況正確執行任務。可信賴的AI必須有良好的擴展性,在規模化應用時保持穩定和可靠。即使出現錯誤,也應當是可預測和預期的錯誤。
  5. 尊重隱私:隱私對於所有類型的資料系統都是關鍵問題,但它對於AI來說尤其重要,因為AI系統生成的複雜結論通常來自更詳細、更個性化的資料。可信賴的AI必須遵守資料方面的法規,並且僅出於所述目的來使用資料。AI隱私問題通常超出了公司的控制範圍。例如AI助手捕獲音訊資料的隱私最近成為頭條新聞,關於公司供應商和合作夥伴訪問資料的權力等級引發了爭議。
  6. 安全無虞:為了達到可信賴的AI,必須防範可能導致物理或虛擬損害的網絡安全風險。儘管安全性對所有電腦系統都非常重要,但由於AI在真實世界中的作用和影響愈來愈大,因此安全問題對於AI尤為重要。

車品覺_紅杉資本中國專家合夥人、阿里巴巴商學院特聘教授暨學術委員會委員