close

ProPublica為什麼是Facebook等科技巨頭最怕的媒體?

ProPublica被Fast Company形容為科技巨頭最怕的“看門狗”:要“對付”科技巨頭,記者們的武器從筆變成數據和算法。


來源:36kr

原標題:ProPublica 為什麼是 Facebook、Amaz靜電除油機on等科技巨頭最怕的新聞媒體?

ProPublica被Fast Company形容為科技巨頭最怕的“看門狗”(新聞術語,指新聞媒體替公眾監督政府、企業,調查社會問題)。

ProPublica是我非常喜歡的一個媒體。簡單形容其模式,有兩個關鍵詞,一是“數據新聞”,二是“公共媒體”。數據新聞指的是生產方式,ProPublica一直是數據新聞界的典范,除瞭講好故事,還以數據、圖表、街景圖等多元化的方式生產和呈現新聞。公共媒體則指盈利模式,ProPublica基本不靠廣告盈利,收入來自基金和眾籌,並且在逐漸減少單個基金的占比。

接下來我們要看到的這篇報道,編譯自Fast Company,介紹瞭在科技時代,當真相掩藏在 Facebook、Amazon 等科技巨頭的“黑箱”中,ProPublica 如何用數據和算法行使監管職責。如何告訴大眾,你的生活究竟如何被科技巨頭影響。

作者 | KATHARINE SCHWAB

除油煙機 編譯 | 痕痕

Facebook像個政治戰場,俄羅斯的特工試圖影響選舉,假新聞泛濫,政治候選人利用廣告來觸達不確定的選民。我們不知道Facebook隱藏的黑箱算法中發生瞭什麼,它控制著整個News Feed。政客們遵守規則嗎?我們能信任 Facebook 去監靜電除油煙機價格管他們嗎?我們真的有什麼選擇嗎?

要想“對付” Facebook 的科技巨頭,也許隻能以其人之道還其人之身——用類似的技術去刺探黑匣子裡在發生什麼,收集數據,不斷驗證假設,就像早期天文學傢探測太陽系一樣。

這就是 ProPublica 的記者 Julia Angwin 團隊采用的策略。Julia Angwin 是普利策獲獎者,她的團隊裡包括程序員、記者、研究員。他們專門調查影響人們生活的算法,包括 Facebook 的新聞源,Amazon 的定價模型,軟件如何確定汽車保險費,甚至軟件如何決定犯人被關押的時間。為瞭研究這些算法,他們使用機器學習和聊天機器人等新技術。

Angwin 表示,他們得不斷地建立新算法,這是個資源密集型、非常具有挑戰性的任務,很少有普通媒體願意投入金錢和人力去做。但這個任務顯然很重要,Angwin 認為他們需要為立法者提供科技巨頭在進行不法行為的具體證據。

ProPublica 在最初沒有使用技術作為調查工具。團隊在 2016 發出瞭一篇關於犯罪風險評分的轟動性報道。報道顯示這些評分由一種算法產生,用來給法官決定保釋和入獄判決,而評分充斥著系統性的種族主義:黑人男子通常被認為比具有類似犯罪歷史的白人更高的風險。不過根據信息自由法的要求,這篇報道是以傳統調查報道的方式呈現的。

Angwin 團隊第一次在調查中搭建算法,是針對 Amazon 的定價體系。ProPublica 的程序員測試瞭很多假設—— Amazon 的東西在移動端比 PC 端更貴,Prime 會員比非會員看到的價格更高等等。最終他們發現 Amazon 給用戶優先推薦的是自有品牌產品,而不是性價比最高的產品。

不可避免的,記者們把目光投向瞭 Facebook,更確切的說,是用戶們最常接觸的 News Feed。

但破解 News Feed 並非易事,因為 News Feed 是 Facebook 的獨創 ,和任何普通人一樣,Angwin 團隊對 Facebook 如何掌握用戶數據,以什麼算法決定 News Feed 給用戶看什麼一無所知,隻能另尋辦法。

他們的重大突破源於得到瞭一份泄密文件,講述 Facebook 的秘密審查制度。相關報道發出後,讀者告訴 Angwin 他們有過 Facebook 不遵守(自己設立的)規則的經歷。讀者提供的素材讓 ProPublica 能進一步調查,而且為瞭獲取更多證據,他們建瞭自己的 Facebook Messenger 聊天機器人,號召更多讀者來提供證據。

使用聊天機器人,顯然是為瞭更廣泛地收集證據。團隊需要獲取、評估讀者提供的例子,是否能證明 Facebook 違反瞭自己設立的審查制度。

團隊裡的程序員 Varner 精心設計瞭機器人的問題,他認為在 Facebook 這個大傢討論的平臺上接收這些信息具有重要的意義。而對於已經不使用 Facebook 的人群,他們也提供瞭獨立調查表格。

在收集到的幾千份回復中,可用的約有 900 個,團隊最終選出瞭 49 個典型案例,來證明 Facebook 不遵循自己的規則。作為此報道的回應,Facebook 把“年齡”作為受保護群體的條件,加入瞭審查制度,這意味著“黑人小孩”將成為保護群體,不會再看到仇恨言論(Hate Speech)。然而,由於這個制度隻針對群體,而不針對個人,因此仍有許多人會看到仇恨言論

Angwin 認為,雖然 Facebook 聲稱他們通過抽樣調查來檢查 News Feed 裡的新聞是否符合審查制度,但他們的數據設置方式都是秘密的,凌駕於司法之外。“他們可以隨便怎麼說,說他們在執行審查制度,但我們需要有能力搞清楚他們究竟怎麼做。”

接著,ProPublica 開始調查 Facebook 上的廣告,這次他們采用的辦法是自己購買廣告。他們發現在 2016 年,Facebook 允許廣告商排除特定種族、年齡的受眾,比如允許房地產廣告商專門投放給“猶太人仇恨者”,或者防止老年人看到招聘廣告。

在 ProPublica 爆炸性的報道後,Facebook 稱他們建立瞭一個系統拒絕歧視性廣告(雖然 Angwin 測試瞭一遍,發現平臺仍允許房產廣告向特定種族投放)。Facebook 取消瞭像“Jew Haters”這樣的標簽,並承諾將更好地監控廣告目標類別。但 Facebook 否認隻向某一年齡段的人發招聘廣告是違法的,訴訟已經開始。

“這麼多的個人數據被用來決定看什麼廣告,聽起來非常無所謂,直到你意識到你看不到招聘廣告是因為你太老瞭。” Angwin 說。

該團隊目前在操作的項目是,調查政治廣告在 Facebook 上是如何運作的。和上次主動買廣告不同,這次他們建瞭個瀏覽器插件,挑選你看到的 News Feed 廣告,並用機器算法識別這個是否為政治廣告。

本周他們發表瞭一些關於政治廣告的報道,稱不少美國政治廣告沒有包含強制性的“我贊同這個信息”的免責聲明,而這個聲明通常在電視、印刷廣告中都有。

這個政治廣告收集插件符合最嚴格的隱私標準,也在德國、瑞士、意大利、丹麥等 8 個國傢亮相。ProPublica 為每個國傢建立瞭自定義算法,可以識別這些國傢政治廣告的獨特風格。

Angwin 認為,把假設變成故事不是最重要的,更重要的是要有具體的證據,要讓立法者能采取行動。“有很多人在寫:技術平臺,他們的權力太大瞭!但這還不夠具體,決策者也不能對此采取任何行動。所以我們要把更多數據放到桌子上來。”

她稱這些數據為“小數據”,和 Facebook、Google、Amazon 等公司的數據比起來,這些數據的確不值一提。但這已經比一般記者所能獲得的數據更多瞭。“每一傢科技公司都應該得到同等力度的審查,非科技公司也一樣,因為技術在入侵一切。”

抗爭的一部分還包括教育人們算法會給他們帶來多大的影響,團隊的一位記者 Tobin 認為,讓更多人意識到這一點,也能給他們帶來更多新聞源。“我們希望人們多說。”

“同時也希望人們憤怒。”Angwin 補充道,“Outrage is the new porn,這是我在 2017 年的箴言。不少政治廣告就是虛假廣告、垃圾軟件、垃圾郵件,因為這些能誘導用戶去點擊。”

Angwin 的小團隊、以及越來越多的記者和巨頭抗爭的畫面看起來有些悲涼,他們的報道讓一些人認識到瞭算法的“兩面三刀”,但我們也不禁要問,我們能做什麼?我們真的能做出真的改變嗎?

“我總是用環境的比喻來安慰自己,我們的河流一直在著火,然後人們過瞭 50 年才意識到,我們不應該讓河流被污染。” Angwin 說,“我想人們隻是需要一段時間才能清醒。”

本文翻譯自 www.fastcodesign.com,原文鏈接。如若轉載請註明出處。

(function(){ var adScript = document.createElement('script'); adScript.src = '//d1.sina.com.cn/litong/zhitou/sinaads/demo/wenjing8/js/yl_left_hzh_20171020.js'; document.getElementsByTagName('head')[0].appendChild(adScript); })();


愛極客轉載本文隻以信息傳播為目的,不代表認同其觀點和立場;

版權歸原創者所有,如有侵權請及時聯系。

聯系郵箱:fankui#igeek.com.cn(請將#替換成@)


A4D7D2685B0E1CE4
arrow
arrow

    fzn553jp95 發表在 痞客邦 留言(0) 人氣()