地址:成都市天府大道中段1388號花樣年·美年廣場,JR·Fantasia花漾錦江B棟10樓1007室
發布時間:2023-05-23 09:56:25 瀏覽量:75
【摘要】互聯網平臺隨著算法技術的不斷進步,抓取用戶數據后進行的自動化決策水平也隨之提高。人類社會中長期存在的歧視和偏見在互聯網中更被加劇和固化,但這一歧視并不是技術本身具有的,而是人為干預的加入價值判斷后的不公正待遇。質言之,聚焦于現代算法歧視本身,對其類型進行分類后探討自動決策背后的人為干預并進行規制,本文的重心正在于此。
【關鍵字】算法;人為歧視;規制
一、算法歧視的內涵界定
(一)現代社會語境下的算法歧視
算法起源于算術,是對計算方法的系統性總稱。更確切的說,算法指的是以一種確定、有限、行之有效的術式或模型通過計算機程序來解決問題的方法。算法的出現與計算機科學密切相關,進入大數據時代以后,算法徹底改變了社會生產方式,從個人生活的衣食住行到社會層面的政府管理,以算法為核心的決策體系開始取代傳統的治理模式,數據不再是簡單的符號,而是具有價值且關乎利益的信息。
現代社會一直追求資源與需求的低成本高效匹配,以算法為技術基礎的互聯網平臺使資源高效匹配需求,社會進一步快速發展。在帶來高效率的同時,算法也因人為干預、技術壁壘導致具有挑戰性的問題出現。這一現象并非是算法自身所導致的,而是因為在數據分析中加入人為價值判斷所產生的不公正傾向。算法歧視嚴格意義上來講并非法學體系之中的用語,主要見于新聞報道和社會評論,其概念也并未有統一的意見。算法歧視是指互聯網平臺通過個人信息數據分析對特定群體的多次、重復、有預測性且導致區別待遇的程序性決策,“大數據殺熟”便是價格歧視的一種現象。
(二)歧視的根源與傳統
人們對算法的認知經歷了從中立到偏見的轉變,算法自動決策過程曾被視為有步驟地執行某種程序命令,其中難以看到人為干預的影子,因而被認為是客觀中立的。2016年的“快播案”進一步印證了人們對算法中立性的認識,公司首席執行官王欣辯護的主要理由便是如“技術中立”或“技術無罪”等主張。但在法院看來,視頻播放技術的中立性與使用該技術的公司追求商業利益并不矛盾,這顯然是一種商業行為而非技術行為。
在線下市場領域,定價歧視這一場景并不少見。砍價、分時定價、區域定價等具有個性化定制的銷售模式普遍存在,商家為了追逐利益最大化所采用的多樣化銷售手段也符合經濟規律。但線上平臺的消費者對這一模式卻抵觸已久,特別是其對老客戶、優質的定價高于“普通價格”,違背誠信原則與商業倫理、更違背消費者內心真實意愿。
算法所做出的決策與分析本質上是人腦思維的復刻,而人類思維又天然性地帶著歧視與不可消除的偏見。正如帕斯奎爾教授所說:“算法并不會杜絕基本的歧視問題,而那些負面的和毫無根基的假設會匯集成為種種偏見。算法由人類編寫完成,那么人類的價值觀會嵌入到這些軟件當中。它們經常也必然在使用數據的過程中帶入人類的偏見”。[]
二、算法歧視的類型及表現
公眾受到的算法歧視是多類型且可以歸類的,根據歧視產生的時間來劃分,可以分為原始歧視和喂養歧視[]。
原始歧視,是指算法在開發設計之初,開發者便將其帶有偏見的價值選擇內嵌到代碼之中或潛移默化地將偏見代入算法之中,也就是設置規則時便人為干預的對群體進行劃分。只要在算法設計時進入了這樣一種規則,在代碼程序運行之后便當然的得到必然的結果。諸如,招聘軟件的算法分析到用戶是女性后,便不會推送高薪工作或者開發者認為不適宜女性的工作;網購軟件分析到用戶的膚色是黑色后,便針對性的投放“美化膚色”的廣告,開發者的價值傾向便通過算法侵害了用戶的平等權。
喂養歧視在現代社會出現得更為普遍,例如打車軟件對忠實用戶的定價高于普通用戶;網購軟件對用戶的訂單數據進行分析后推送購買價格區間的商品等等。簡而言之,喂養歧視是指通過算法對數據的處理,聯系與之初設的相關設置或目標,并進行自我學習而產生一種新的智能形式,從而使的人為歧視逐漸外露和顯化的對外結果。只要系統獲得了數據,便能通過算法進行自我學習,在難以察覺的情況下分析用戶的特征、偏好、習慣、趨勢等,盡管在一定程度上提高了效率,但也加深了既有的不平等模式,給用戶制造了“信息繭房”。
三、算法歧視的規制現狀
以“大數據殺熟”為主要表現的算法歧違背民法誠實信用基本原則,更是嚴重侵害了用戶知情權與選擇權。盡管算法歧視現象非常普遍,但我國司法實踐中還并未出現以價格歧視為由且獲得相應賠償的案例。可以明確的是,目前我國還未專門制定以算法歧視為對象的立法,可能規制算法歧視的是《消費者權益保護法》《電子商務法》《反壟斷法》《價格法》及《個人信息保護法》等。經過檢索發現,我國司法實踐并不支持以消費者公平交易權或知情權而主張商家侵權,尤其是在算法的技術壁壘下,舉證的難度和請求權基礎缺失都直接導致了維權困難。
隨著大眾和學者對該問題的持續性關注,國家市場監督管理總局于2021年8月17日發布的《禁止網絡不正當競爭行為規定(公開征求意見稿)》第二十一條擬規定:“經營者不得利用數據、算法等技術手段,通過收集、分析交易相對方的交易信息、瀏覽內容及次數、交易時使用的終端設備的品牌及價值等方式,對交易條件相同的交易相對方不合理地提供不同的交易信息,侵害交易相對方的知情權、選擇權、公平交易權等,擾亂市場公平交易秩序。交易信息包括交易歷史、支付意愿、消費習慣、個體偏好、支付能力、依賴程度、信用狀況等”對經營者利用數據所進行的分析與決策行為進行了嚴格規制;國家互聯網信息辦公室在同年8月27日發布《關于〈互聯網信息服務算法推薦管理規定(征求意見稿)〉公開征求意見的通知》第十八條擬規定:“算法推薦服務提供者向消費者銷售商品或者提供服務的,應當保護消費者合法權益,不得根據消費者的偏好、交易習慣等特征,利用算法在交易價格等交易條件上實行不合理的差別待遇等違法行為”再次回應了公眾關切。《個人信息保護法》第二十四條:“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇。通過自動化決策方式向個人進行信息推送、商業營銷,應當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式。通過自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定”在借鑒GDPR的基礎之上對作出自動化決策和個性化推送的信息處理者提出了更嚴格的監管要求。
現行立法多是在條文中對算法及算法歧視零星的涉及,還未形成具有整體性體、系統化的規制體系。隨著《個人信息保護法》的落地實施,我國個人信息保護以及算法治理相關規則總體而言逐步取得進展,通過完善立法的形式避免違法使用公民信息形成算法歧視。
四、算法歧視的規制對策
(一)倫理性規制
大數據時代,智能設備和技術的治理以其本身的“智”為前提條件,因而倫理性規制常被采用為首要方法。智能技術運用場合中不同主體間信息公平失衡造成了社會分配正義失衡和社會不公正現象的產生,規制的著力點則為破解信息壟斷實現信息公平分配。按照分配正義理論,社會基本要素都應該不分主體和對象的平等分配,網絡平臺亦應如此,公民在數據的獲取與傳輸、利用與被利用上都享有平等的權利。
個人權利與算法之間的沖突除了價值判斷的加入,更是由于“算法黑箱”“算法歧視”“信息繭房”“信息霸權”等技術障礙所導致的。普通公民難以認識到這樣一種復雜且具有較強專業性的技術,在網絡空間中并不具有平等地位更不具有優勢。因此,要消除公民與算法權力之間的不平等問題,要充分認識到“數字弱勢群體”的訴求,恢復個人主體性及其應有權益。在對其進行倫理性規制時,要在設計算法時體現人文關懷。基于算法正義的要求,在算法設計階段便要體現平等、自由的價值觀,從技術內部融入良好價值,進而改變傳統的設計模式,促進公平的數據分配,消除政府或市場主導企業利用算法對用戶的權利限制或侵害。
(二)技術性規制
相比于倫理性規制,技術性規制更具有操作性和可行性。從分析算法的運行機制來切入對其技術規制,主要包括對信息基礎設施的完善和信息處理活動的監管。
實現大數據治理的重要路徑便是縮小城鄉差距,經濟發展水平與基礎設施的不一致也是影響數字鴻溝的因素之一。導致信息公平失衡,除了算法不公正傾向之外,還有主體的信息技術低水平,要消弭失衡狀態的重中之重就是完善基礎設施,構建多種平臺和數據庫來降低某些企業和公民因信息接入障礙和使用困難造成的利益損害。此外,公民在算法進程中受到侵害,除了算法本身的程序瑕疵外,也與信息處理的規則設置直接相關。具體到實際操作中,監管部門應要求企業明確相關技術規則,且對該規則嚴格清楚解釋到用戶,厘定權利與義務的邊界范圍,盡可能實現不同對象的流程標準化與統一化,保證信息資源公平分配。
(三)制度性規制
在算法及信息侵權逐漸成為社會性問題時,對相應制度的反思必須予以關注。結合社會實踐來看,對算法歧視的制度性規制主要依賴的便是出臺相關的法律或其他規范性文件。
當下已經出臺的相關制度規定信息處理者要推進算法公開和透明、公民合理合法行使算法解釋權以保證個人的“知情同意”,以及從制度層面要求反算法歧視和行使算法拒絕權等。可以看出,對算法的規制已經開始試圖構建體系,以加強信息處理者義務的方式從源頭杜絕歧視現象的出現,針對性地解決了目前出現的重點問題。但,針對算法歧視的侵權問題還未有相應的規范,例如尋求保護時其權利基礎是如何的?相應的證據如何固定才能證明是同一時段不同待遇?在已有立法基礎上,各主體在面對大數據遭到侵害時的救濟路徑還未明確。
規則的彌補應由相關的制度來彌補:在爭議解決程序中,可以加強信息處理者的舉證責任,如采用舉證倒置的方式來證明其算法過程中沒有歧視現象;在信息處理過程中,對算法的運行程序和技術在不影響商業秘密的前提下進行公開,把監督的權力交回到社會和公眾手中。
五、結語
每一種不公平的現象都有導致其產生的主要原因,算法歧視本質上是不同主體對信息的獲取、接收、處理等過程中的不平等狀態。盡管人類社會一定程度上仍存在著公平失衡狀態,但追求公正、公平、自由也同樣是社會正常運行應有之義。為了能讓這項技術更好地服務于人類社會,技術專家、法律專家甚至其他領域的專家應該攜手合作,解決算法歧視問題并構建化解對策,提升個體尊嚴,共同促進社會公平與社會正義的實現。
作者:四川法也律師事務所 俞 劍、杜金秋
來源:成都市律師協會網絡與高新技術法律專業委員會
此文系作者個人觀點,不代表成都市律師協會立場
歡迎全市律師踴躍投稿,投稿郵箱:cdlxxc@163.com