人,是算法的尺度

文 | 佘宗明

2021年7月,還沒被馬斯克強娶的推特,做了一個不算艱難的決定——推出算法偏見賞金。大意就是:求求你,找我茬。

這記懸賞找茬的操作,被視作開啓了算法倫理治理的衆包模式。

推特爲什麼這麼想不開?

因爲算法有不足。

糾治算法偏見,是爲了優化算法。此舉傳遞出的價值取向,是算法須向善。

用主流話語說就是——

算法,只能“屬於人民”。

揆諸現實,算法得向善,已成了社會各方在算法命題上的共識。

對應的要求是,算法不只要有精度和準度,還要有溫度。

算法=魔法,這是時下挺流行的看法。

由此而來的,就是算法經常成爲獵巫對象:很多人會掄起道德皮鞭,抽向算法之軀。

比如,批算法制造信息繭房;比如,批算法編織賽博囚籠;比如,批算法帶來大數據“殺熟”……

算法壓榨外賣員,自然也在批判射程。

以至於平臺經濟和數字勞動研究者孫萍感慨:

外賣騎手研究,困在批判性理論裡。

這針對的,就是那句蔚爲風行的“外賣騎手,困在系統裡”——這9個字,鋪設了很多人的算法認知底座。

外賣員困在系統裡,說得有錯嗎?

並沒有。問題是,系統也困在誤解裡。

政治經濟學視野下的“系統”,說白了就是泰羅制的翻版,是摩登時代流水線的復刻。所以,聽到外賣員被困在了系統裡,不少人立馬聯想到資本壓榨,再想到掛路燈。

可正如孫萍老師認爲的,現在對數字勞動的研究,無論研究的是抖音、快手的直播者,還是B站的Up主、“愛優騰”的內容生產者,抑或是網約車、外賣、快遞的平臺勞動者,結論不外乎資本壓榨勞動者、勞動者非常不穩定、階層化不平等等單一化論點,這是“理論化路徑遇到了困難”。

在她看來,數字勞動研究該引入跨學科視角,而非陷入控制-自主、壓制-反抗這樣的二元話語。

就外賣系統來說,訴諸道德化評判容易,理解市場化邏輯挺難。

究其主要原因,其實就在於,平臺也困在另一個系統裡——對外賣平臺來說,它們要連接的其實是三方:訂餐用戶,餐飲商家,送餐外賣員。這三者的利益訴求疊合,會合成“不可能三角”困境:商家希望能多跑單、用戶希望儘快取餐、騎手希望有充裕時間送餐。

網民可以“既要又要還要”:既要商家少交佣金、撐過疫情,又要自己少掏配送費、餐早點送到,還要騎手“想慢就慢”。平臺卻沒法全都照顧到,通常是傾向於保障商家與用戶利益,犧牲相對弱勢的騎手體驗。

不能說平臺這樣就合情合理,但應看到平臺抉擇背後的現實考量。

系統不是不可以批,但批之前不妨先看懂其生成和運作邏輯。

這倒不是說,這套由算法織密的系統就沒毛病。

好多人認爲,是算法逼得外賣騎手不得不快。

這不是算法要坑騎手,而是算法天然有缺陷。

算法首要追求的是效率,旨在從效率/成本維度尋求最優解,但人們要求的是公平正義、善待弱者。

比起“公平正義”這類複雜倫理概念,“效率”也更容易轉化爲計算機編碼語言。

因此,孫萍老師就指出,算法遵循的是直男邏輯,畢竟“技術本身是帶有強烈男性氣質的”,現在的算法技術其實沒有把社會結構、人際關係、權力關係等等納入到思考中去。

循此觀點,算法底色中理應嵌入更多柔性化色澤,更顯人性化、更有人情味。

那該怎麼解?算法取中,就是政策層面給出的解題思路。

2021年7月,七部委聯合印發文件,首次提出不得將“最嚴算法”作爲考覈要求,通過“算法取中”等方式,合理確定訂單數量、準時率、在線率等考覈要素,適當放寬配送時限。

在此之後,兩大外賣平臺都採取措施響應了“算法取中”要求。

美團在今年5月份前曾進行三次算法優化:

去年9月,公佈了“預估到達時間”算法規則(兼顧“模型預估時間”和“三層保護時間”),明確在異常場景下爲騎手提供時間補充,在部分情況下將預估到達時間中的“時間”變爲“時間段”;

去年11月,啓動了“出餐後調度”試點、推出了“主動改派”功能;

今年3月初,試點新的“服務星級”激勵機制,變超時罰款爲扣分、明確可加分彌補,給予騎手更多差評豁免與免扣分機會,也完善了差評申訴流程。

餓了麼也明確,禁止以最嚴算法、最低時限爲導向,不採用最短配送時效,針對複雜配送場景自動匹配靈活配送時長。

清華大學公共管理學院教授樑正認爲,面對算法缺陷及其產生的問題,應將算法嵌入到整個社會體系中評估,分析算法運行所牽涉的各個環節,以體系化的思維爲算法向善提供解決方案。

而算法取中,就是頗具針對性的問題解決方案。

在外賣行業陷入比速度的“逐底競爭”,騎手不得不超負荷運轉的背景下,用人性化要求補足算法缺陷,確實很有必要。

羅爾斯的正義理論主張,沒有人應當爲他所不能掌控的原因所造成的後果而擔負責任。由此延伸,規則設計不能不考慮那些偶然性因素。

之前許多人批評,外賣系統算法總是計算趨於理想狀態的最快時間,卻忽略了電梯擁擠、雨天堵車、電動車故障或騎手突發疾病等偶然性因素。言下之意,算法要考慮到異常場景問題。

現在看,平臺修補算法缺陷、改善算法機制時,也將偶然性因素納入了考量之中。

比如,疫情之下,很多小區只開一個門,部分訂單配送難免要多繞路,許多外賣騎手會擔心隨之而來的超時問題。但現在美團騎手們可免除後顧之憂了——因爲平臺最新採取的異常場景下可“單次補時+系統修正”的措施,會讓配送時限變得更合理。

又如,不少騎手都曾遭遇電動車在半路上沒電或跌倒摔傷,暫時沒法配送卻又不送不行的棘手難題。而按照美團外賣5月10日宣佈的舉措,他們完全可通過改派、轉單、自行設置“同時接單量”等方式,管理自己的接單節奏。

就算只是累了倦了,騎手們也可以想歇就歇:在接單前,他們可自行設置接單上限;在接單中,他們可自主決定是否接這單。

諸如此類的算法優化舉措,顯然賦予了外賣騎手更大的自主權,或者說是把自主權還給騎手。

如果說,以往完全被系統裹挾的騎手,是陷入了社會學家烏爾裡希·貝克所說的風險社會裡的“體制化個人主義”——他們看似越來越自由了,可仍會被各種關係和邊界拴住,那給他們接還是不接的自主選擇權,無異於繼續鬆綁。他們有更多的喘息空間了。

這本質上是用另一種“算法”去解算法之弊。它讓人的權利歸於人,彰顯的是人文關懷和人本情懷。

此處的算法,已超越了數學或計算機學的範疇,無關公式和代碼,而是泛指的問題解決策略,正如有些人說的,“生活中你的一舉一動一呼一吸都是算法。”在此意義上,監管是一種算法,平臺決策也是一種算法。

以人爲“算法”的立足點,無疑有助於讓騎手們能更自主地跳出所謂的系統。

復旦大學管理學教授蘇勇在談到靈活用工時說,無論是企業的管理方、從業者,還是社會各界,都應該思考一個問題:如何在算法之外,找到以人爲本的管理辦法,讓人的智慧和關懷在相關問題或挑戰的應對過程中,發揮更大的作用。

嵌入了人本位邏輯的“算法”,就給出了答案。

算法之弊“算法”解。

外賣平臺的“算法”優化,對算法的價值觀校準不乏參照意義。

就在前幾天,英國DRCF(官方性數字監管合作論壇)發佈《算法的利弊》專題報告,其中提到兩點:

算法爲個人和社會提供了許多好處,並且這些好處可以隨着持續創新而增加。

傷害可能會有意或無意地發生。

因爲算法有缺陷就否定算法當然不妥。

因爲算法有價值就認爲有問題也不要緊,同樣不合適。

科學家凱西·奧尼爾廣爲流傳的“算法霸權”理論就認爲,就將那些依託大數據卻會引發偏見強化和持續大範圍傷害的算法模型,稱之爲“數學殺傷性武器”。

雖然“算法霸權”的說法引發了許多爭議,但算法確實帶來了某些問題。

比如,會用於控制、會誘導沉迷、會助長大數據殺熟、會製造信息迴音室等。

無論是國外某科技巨頭用“AI監工”精確計算工人摸魚時間(Time Off Task)、根據實時數據生成在線解僱指令,還是國內某企業監測通報員工摸魚,都反映了算法被濫用的弊害。

要解決這些問題,就得將算法導入向善的軌道上。

換句話說,算法姓“算”,更要姓“善”。

遵循價值對齊的科技倫理,讓算法更有溫度,是應有之義。

讓算法更有溫度的外延是:算法的背後是人,人應該是丈量算法的尺度。

2016年11月,美國麻省理工學院研究員喬伊·布蘭維尼就曾針對算法之弊,創辦了“算法正義聯盟(Algorithmic Justice League)”,來對抗算法偏見。

喬伊斷定,要創造更具有包容性的代碼,並且運用有包容性的編程實踐,就要從人開始。

而“算法霸權”提出者凱西·奧尼爾,也就算法向善提出了兩點建議:

必須承認算法不是全能的,必須明確地將正向的價值觀嵌入算法代碼中,創造符合道德準則的大數據模型,即使是犧牲利潤。

進行算法審查。在某個算法模型投入使用之前就進行訓練,藉助反饋通路發現偏見,進行糾偏處理,以達到正向的效果。

它着眼的,就是用打補丁式“算法”,去彌補算法缺陷、引導算法向善。

而外賣平臺把接單權利交給個人,就是打補丁消除Bug。

今年3月1日正式實施的首部聚焦算法治理的法規——《互聯網信息服務算法推薦管理規定》,更是有的放矢。

確保用戶有可以關閉算法的選項,就跟確保外賣騎手可以想不接單就不接單如出一轍。

而對算法黑箱、輿論操控、大數據殺熟“亮紅牌”,也傳遞了明晰的信號:算法屬於“人民”。

算法不是無情物。算法的“法”,也是章法的“法”。而算法的N多個章法裡,最重要的,還是要把人當做算法的尺度。

算法必須“利人”而不能“損人”。

算法有弊端,那就用更高階的“算法”來消解——這套“算法”的核心就是以人爲本。

算法編織的系統,動輒把人當成工具。

而以人爲本的“算法”,則重申了那個常識:人是目的,要把人當人。