我們正在進入一個“算法”的時代。它對我們生活的影響越來越大——我們去哪里上學,我是不是應該貸款買車,我們應該花多少錢來買健康保險,這些都不是由人來決定的,而是由算法、由模型來決定的。
我們被告知:通過大數據的精準畫像,算法可以讓企業更好地識別我們的偏好,從而更好地向我們提供商品和服務。由于算法對每一個人的衡量標準是一樣的,因此它可以排除很多不必要的偏見。總而言之,算法可以讓整個社會的運行變得更高效、更公平、更美好。
但是,在凱西·奧尼爾在新書《算法霸權》中,卻告訴了我們一個完全不同的故事。在奧尼爾的故事里,算法并沒有帶給人們它所承諾的美好。相反,它可能破壞這個社會所賴以良好運行的基礎,讓它變得既不公平,也沒效率。
算法如何施暴?
和很多算法的批判者不同,凱西·奧尼爾本人其實就是一個算法“圈內人”。她自小開始就對數學十分敏銳,在大學期間更是以數學作為專業。從哈佛大學獲得博士學位后,她曾在巴納德學院任教,后來又以數據科學家的身份輾轉于
金融圈和實業界,為很多知名企業提供過算法和數據方面的咨詢。
豐富的經歷讓奧尼爾得以熟諳各類算法的精髓,也對其中蘊含的危險了如指掌。由于這個原因,相比于其他同類著作,《算法霸權》對算法的批判就來得更真實,也更可信,也更富有洞見。
那么,算法究竟會有哪些問題呢?
首先,算法可能并沒有像人們通常想象的那么準確。很多基于大數據的算法本來是用于分析整體的屬性的,在這種條件下它們可以比較好地工作。正如奧尼爾在書的一開始中所舉的棒球隊的例子那樣,通過大數據算法,球隊可以大幅提升自己的成績。
但是,一旦這樣的算法被應用到了評估個體上,就會馬上發生問題。例如,書中提到了用算法評估教師質量的問題。由于每一個教師每年教授的學生都是有限的,因此極個別的異常點就可能導致評估結果的重大變化,這讓一些優秀的教師被誤判為不合格。更為重要的是,當被評判的教師了解了評判的標準時,就可能針對這些標準有意識地進行造假,從而讓原本有效的算法很快失去了效力。
其次,算法本身可能就蘊含著歧視性。很多算法在設計的時候只考慮了相關性,而沒有考慮因果關系,這讓它們在表面公正的背后,蘊含了對部分人的歧視。例如,曾經有統計表明,黑人進行犯罪的概率會更高,這個統計結果曾影響了美國司法數十年,讓黑人在審判中難以得到像白人一樣的權利。
然而,這個判斷本身其實掩蓋了真正的因果關系。事實上,黑人在很多方面都難以享受到和白人同樣的待遇,他們難以接受和白人一樣的教育、難以找到和白人一樣的工作……在很大程度上,黑人的高犯罪率正是這種不平等的結果。因此,如果以這高犯罪率為理由,對黑人進一步施加歧視,結果只可能會讓他們的犯罪率進一步提升。
需要指出的是,算法的歧視性很難反駁,因為它們往往會自我實現。例如,例如在上面的例子中,對黑人的歧視讓他們的犯罪率更高了,這是令人沮喪的,但從表面上看,這又恰好印證了算法的預言。在這樣的事實面前,我們似乎很難對算法提出質疑。
再次,算法的精準也可以成為損害福利、制造不公正的工具。一個例子就是精準推送的廣告。從理論上講,精準廣告是可以幫助改善人們的福利的——通過對人們特征的識別,算法可以更好地識別其個體的偏好,在此基礎上的推送可以更符合他們的口味、更滿足他們的要求。
但這里有一個重要的問題,那就是在很多時候,人們并不知道自己真正想要什么,也不知道什么是對自己真正有用的。面對有針對性的廣告,他們的決策很容易受到誘導。
在書中,奧尼爾舉了一個大學招生的例子。在美國,有很多“野雞大學”,除了提供文憑,它們并不能真正為人們提供良好的教育。然而,這些“野雞大學”卻是營銷的高手,借助算法,它們把客戶群精準地集中在了那些收入和社會地位相對較低,但對改變現狀極為迫切的人的身上。從這部分人群身上,他們收獲了高昂的學費。但與此同時,那些繳納了學費的學員卻沒能得到他們期待的改變。
基于以上分析,奧尼爾認為,對于算法和數據,我們不應該盲目樂觀,而應該持續保持警醒。
版權申明:本內容來自于互聯網,屬第三方匯集推薦平臺。本文的版權歸原作者所有,文章言論不代表鏈門戶的觀點,鏈門戶不承擔任何法律責任。如有侵權請聯系QQ:3341927519進行反饋。