洪敬舒:製造貧窮冤案的演算法

貧窮其實是人工產物。打從一六〇一年英國推出《伊莉莎白濟貧法》至今四百多年,貧窮未曾消失反倒更加惡化,以致於聯合國也不得不將消滅貧窮(no poverty)列為「永續發展目標」(SDGs)的第一目標,可見被大規模量產的貧窮已對社會造成嚴重危害。只不過任誰也想不到,舊式濟貧機制的遺毒尚未消除,來自數位演算法的新威脅已經敲著貧苦家庭的大門。

為了因應貧窮,過去各國運用統計調查精算貧窮線的做法,無可避免地犧牲掉部分福利需求者。如今被作者稱為﹁數位濟貧院﹂的福利演算法,卻更加危險。一旦救助決策權被徹底交托數位審查,只要一個小小的數據bug就會演變成集體災難;因為我們總認為電腦不會出錯,所以通常得等到大量錯誤發生,才會對程序進行除錯。尤其是作者維吉妮亞.尤班克斯實際考察數位工具套用於社福制度,其結果也指明,比起過去由人來計算執行的濟貧機制,數位濟貧院將製造出更多的「貧窮冤案」。

冤案具體來自於二項主因。一方面,數位福利系統看似快速精準,卻讓人忽略了設計者對於貧窮的歧視及偏誤,也會完美的複製在程式之中。一如尤班克斯直白地指出,貧困管理科技不僅不中立,更只對窮人與勞工進行從嚴審查,因為隱藏在數據背後,仍是美國政府「畏懼經濟不穩定又仇視窮人」的防弊邏輯。

另一方面大數據對列冊者的勞動、支出、性行為與子女教養展開全方位監管,用以預測未來行為,但是成千上萬家庭及個人的複雜差異,最終被機械性的回歸分類的結果,非但未能提供細致的個別化支持,反而創造出大規模的「數位排除」。

相似案例也曾在國內發生。二〇二〇年疫情爆發之際,行政院第一版紓困方案就直接排除掉十多萬名以零工或自營作業維生的無保者,問題癥結同樣源於「自動化決策機制」。本書雖著墨於美國的濟貧制度與社會現狀,若持續盲目地相信演算法,誰也難保它不會奉效率之名,悄然無聲地接管我們的生活。

懲罰貧窮:大數據橫行的自動化時代,隱藏在演算法之下的不平等歧視

( 本文作者洪敬舒, 臺灣勞工陣線研究部主任。摘自維吉妮亞・尤班克斯著《懲罰貧窮:大數據橫行的自動化時代,隱藏在演算法之下的不平等歧視》,寶鼎出版提供)


延伸閱讀

誰說人不理性!理性讓我們做出更好的選擇

假新聞、陰謀論盛行 為何世上有這麼多不理性?

GDP越高越幸福?一旦跨過門檻 弊病開始出現