有沒有試過被推薦系統「欺凌」?網絡常有個黑色幽默的說法,剛買了一副棺材,明天又再推薦棺材,合理嗎?又或者誰會聯想到忘記繳交電話費,竟然會影響到貸款的批核呢?當然這種情況不僅在互聯網才會發生,現實中已滲透到日常生活的每個角落。作為普羅大眾,我們雖然感到無可奈何,沒有太大的談判空間,但大家愈來愈意識到數據的使用權應該掌握在自己手裏。
近日國家互聯網信息辦公室起草了《互聯網信息服務算法推薦管理規定(徵求意見稿)》,向社會表達規管的必要。為了能讓讀者快速了解此稿的內涵,筆者列出其中一條給各位參考:
第十條:「算法推薦服務提供者應當加強用戶模型和用戶標籤管理,完善記入用戶模型的興趣點規則,不得將違法和不良訊息關鍵詞記入用戶興趣點或者作為用戶標籤並據以推送訊息內容,不得設置歧視性或者偏見性用戶標籤。」
這篇徵求意見稿可說是為算法的規管揭開了序幕,從過去的數據治理延伸到人工智能的應用治理。事實上,世界各地的監管機構很久前已要求企業刪除非法獲取的訊息。如果用戶對已披露的個人訊息改變了主意,都有權要求企業刪除該數據。當然,如何去證明企業真的把數據刪掉或沒有使用帶歧視性的個人標籤,殊不容易。換個角度來看,即使數據被刪了,昔日運用這些數據來訓練的算法可能還繼續存在,於是一個嶄新的領域「機器遺忘」(machine unlearn)迅速冒起。「機器遺忘」是希望能實現選擇性遺忘,從系統中刪除某人的數據點及所有相關的痕跡,而不影響整體運作。不過,要識別出某個數據點與機器學習算法成果的邏輯關係,並把影響部分局部刪除絕不容易。不久之前,美國聯邦貿易委員會(FTC)勒令人臉識別初創公司Paravision刪除那些從不當途徑獲取的人臉照片,以及使用這些照片進行訓練機器學習的算法,迫使那些違反數據保護條例的公司喪失其依賴非法途徑得來的成果。
從企業的角度看,如果因為刪除小部分數據點導致要重新建立整個算法,成本極高之餘更欠缺效率;同時,監管機構則希望能夠核實數據及相關算法,確定其已經合規。似乎理想與現實還有漫長的路要走。
車品覺_紅杉資本中國專家合夥人、阿里巴巴商學院特聘教授暨學術委員會委員