天天看點

紀錄片《編碼歧視》:客觀的算法是不存在的

圖源:unsplash

弗洛伊德之死掀起了美國乃至全球各地又一輪反對種族歧視的運動,人們對結構性不平等的認識也進一步提高了。盡管大衆關注的焦點是美國警察的暴行,但也有許多學者、活動家和藝術家發出警告——全面的種族主義是如何通過通訊和監控技術在科技行業等其他領域被加劇的。

在沙裡尼·坎塔亞的紀錄片《編碼歧視》中,導演跟随麻省理工學院媒體實驗室研究員、算法正義聯盟(algorithmic justice League)創始人喬伊·布蘭維尼,發現了面部識别的一個根本問題:布蘭維尼意識到計算機視覺軟體無法跟蹤她的臉,但當她戴上白色面具時,效果卻很好。這是面部識别和人工智能系統中存在歧視的最新證據。

坎塔亞與布蘭維尼一起采訪了作家、研究人員和活動家,例如凱茜·奧尼爾、梅勒迪斯·布魯薩德、薩菲亞·諾布爾和西莉·卡洛,探讨了面部識别或犯罪預測等軟體目前存在的技術問題。這些技術常常與種族監控、優生學或人相學等黑暗的曆史實踐有關。

這部在聖丹斯電影節上放映的影片,以批判的眼光審視了假定的算法“客觀性”,奧尼爾将其定義為“利用曆史資訊對未來做出預測”。雖然算法通常被看作是公正、客觀且理性的,但它們可以重制創造者的偏見。

布魯薩德說,我們給科技灌輸了“神奇的思維”,這雖然贊揚了它的好處,卻掩蓋了它的負面影響。

紀錄片《編碼歧視》:客觀的算法是不存在的

圖源:第七帝國傳媒

《編碼歧視》紀錄片展現了算法歧視對現實世界産生負面影響的。影片描述了休斯頓的一個學區如何在其“增值”教師評價系統中使用秘密算法,該算法甚至将獲獎教師歸類為“差老師”;警察使用的面部識别軟體也經常将黑人誤判為嫌疑犯。

影片還展示了深深植根于我們生活中的技術如何增強了現有的不對稱權力動态。影響人們生活的算法通常隐藏在“黑匣子”中,它們由大型科技公司建立,利用所有權保護政策來阻止公衆了解其算法如何工作,公司正在收集我們的資料。

坎塔亞通過電話向OneZero講述了她是如何了解算法歧視的,她希望《編碼歧視》紀錄片能夠幫助公民了解并保護自己的權利。《編碼歧視》将于今年秋季在部分影院上映。

Q:您是如何開始了解算法歧視的?是什麼啟發您拍了一部關于它的電影?

坎塔亞:我的很多工作都是關于颠覆性技術,以及它們是如何讓這些技術或多或少變得公平和平等的。我常常思考關于種族、性别和階級的問題,而且我還發現了像喬伊·布蘭維尼、凱茜·奧尼爾和澤伊内普·圖菲克希等女性的作品。我開始對大型科技公司的黑暗面感興趣,同時這也讓我陷入了困境。

紀錄片《編碼歧視》:客觀的算法是不存在的

Q:影片中有哪些算法歧視的例子?

亞馬遜曾經有一種算法,技術本身無法歧視,但該算法在招聘實踐和保留方面借鑒了過去的性别歧視,并開始挑選出履歷上有女子大學或體育經曆的女性。是以,這個人工智能在招聘過程中會不自覺地歧視女性。

電影的核心部分是面部識别在深色面孔或女性身上的效果不佳,而這些人是最容易被種族定性的目标。就在最近,底特律的一名男子因面部識别錯誤而被拘留了30個小時,這種例子實在是太多了。

Q:正在開發該技術的公司和人員,需要做些什麼來消除算法中的編碼歧視呢?

我的電影的觀衆實際上并不是技術人員,而是公民。公司在招聘時應該更負責任,更具包容性嗎?當然,但我的關注點并不是公司。對我來說,我并不是要制定一個完美的算法,而是想要建立一個更加人性化的社會。

這部電影的關注點是讓公民去了解這些工具,以便我們可以使用法律和保護措施來防止這些歧視行為的發生;這樣一來,就不會任由科技公司把他們的技術賣給聯邦調查局、警察或其他沒有被選舉出來的人參與的企業。企業做這件事并不比政府做得更好,公民需要開始要求谷歌公司和蘋果公司不要複制這種獨裁的監控技術。

紀錄片《編碼歧視》:客觀的算法是不存在的

Q:普通公民可以通過哪些方式來對抗這些監控系統?

現在正是科技巨頭該傾聽的時刻。上個月,美國國際商用機器公司表示,它将基本退出面部識别項目,即停止研究、停止提供服務和停止銷售。亞馬遜表示将暫停向警方出售産品一年,微軟公司也将停止向警方出售産品。

正因為我們有機會在街頭舉行争取平等的運動,我們才有機會通過意義非凡的立法。我們需要推動立法者,将我們的資料資訊作為人權的一部分加以保護,并保護我們遠離侵犯公民權利的侵略性技術。

紀錄片《編碼歧視》:客觀的算法是不存在的

技術中立,可技術背後的人有偏向,如何限制根植在淵源中的歧視與偏見,僅僅靠科技公司的自覺是不夠的,需要我們的大聲疾呼。

長按識别二維碼可添加關注

讀芯君愛你

紀錄片《編碼歧視》:客觀的算法是不存在的