520 čítania
520 čítania

Čo robiť, keď „spravodlivá“ AI prináša nespravodlivé výsledky

podľa Demographic5m2025/03/24
Read on Terminal Reader

Príliš dlho; Čítať

Metódy spravodlivosti demografickej parity (DP) v AI môžu neúmyselne uprednostňovať väčšinové skupiny, čo vedie k zaujatosti. Táto štúdia predstavuje SA-DRO, optimalizačnú techniku, ktorá znižuje toto skreslenie úpravou pre nevyvážené súbory údajov. Experimenty potvrdzujú jeho účinnosť v centralizovaných aj federatívnych modeloch učenia.
featured image - Čo robiť, keď „spravodlivá“ AI prináša nespravodlivé výsledky
Demographic HackerNoon profile picture
0-item

Tabuľka odkazov

Abstrakt a 1 Úvod

2 Súvisiace práce

3 Prípravné zápasy

3.1 Spravodlivé vyučovanie pod dohľadom a 3.2 Kritériá spravodlivosti

3.3 Opatrenia závislosti pre spravodlivé vyučovanie pod dohľadom

4 Induktívne predsudky spravodlivého supervidovaného učenia založeného na RP

4.1 Rozšírenie teoretických výsledkov na pravidlo randomizovanej predikcie

5 Distribučne robustný optimalizačný prístup k spravodlivému vzdelávaniu založenému na RP

6 Číselné výsledky

6.1 Experimentálne nastavenie

6.2 Induktívne predsudky modelov trénovaných v spravodlivom učení založenom na RP

6.3 Spravodlivá klasifikácia založená na DP v heterogénnom federatívnom učení

7 Záver a odkazy

Príloha A Dôkazy

Príloha B Ďalšie výsledky pre množinu údajov o obrázku

Abstraktné

Spravodlivé algoritmy učenia pod dohľadom, ktoré priraďujú štítky s malou závislosťou od citlivého atribútu, pritiahli veľkú pozornosť v komunite strojového učenia. Zatiaľ čo pojem demografická parita (DP) sa často používa na meranie spravodlivosti modelu pri školení spravodlivých klasifikátorov, niekoľko štúdií v literatúre naznačuje potenciálne vplyvy presadzovania RP v algoritmoch spravodlivého učenia. V tejto práci analyticky študujeme vplyv štandardných regularizačných metód založených na DP na podmienenú distribúciu predpovedaného označenia vzhľadom na citlivý atribút. Naša analýza ukazuje, že nevyvážená množina tréningových údajov s nerovnomernou distribúciou citlivého atribútu by mohla viesť k klasifikačnému pravidlu orientovanému na výsledok citlivého atribútu, ktorý obsahuje väčšinu tréningových údajov. Na kontrolu takýchto induktívnych skreslení v spravodlivom učení založenom na DP navrhujeme metódu citlivej distribučnej robustnej optimalizácie založenej na atribútoch (SA-DRO), ktorá zlepšuje odolnosť voči marginálnej distribúcii citlivého atribútu. Nakoniec uvádzame niekoľko numerických výsledkov o aplikácii metód učenia založených na DP na štandardné centralizované a distribuované problémy učenia. Empirické zistenia podporujú naše teoretické výsledky týkajúce sa induktívnych skreslení v algoritmoch spravodlivého učenia založených na DP a debiasingových efektoch navrhovanej metódy SA-DRO.

1 Úvod

Zodpovedné nasadenie moderných rámcov strojového učenia pri rozhodovacích úlohách s vysokým podielom vyžaduje mechanizmy na kontrolu závislosti ich výstupov od citlivých atribútov, akými sú pohlavie a etnická príslušnosť. Rámec učenia pod dohľadom bez kontroly závislosti predikcie na vstupných vlastnostiach by mohol viesť k diskriminačným rozhodnutiam, ktoré významne korelujú s citlivými atribútmi. Vzhľadom na kritický význam faktora spravodlivosti v niekoľkých aplikáciách strojového učenia sa v literatúre venovala veľká pozornosť štúdiu a vývoju spravodlivých štatistických algoritmov učenia.



Obrázok 1: Predsudky algoritmov učenia založených na DP vo federatívnom učení s heterogénnym rozdelením citlivých atribútov: 80 % trénovacích údajov v klientovi 1 pochádza z menšinovej podskupiny (ženy) celej siete, zatiaľ čo ostatní klienti majú 20 % svojich údajov z menšinovej podskupiny. Algoritmus spravodlivého federatívneho učenia KDE založený na DP viedol k výrazne nižšej presnosti pre klienta 1 v porovnaní s presnosťou testu lokálneho (nefederovaného) trénovaného modelu klienta 1.


Aby sme znížili zaujatosti algoritmov učenia založených na DP, navrhujeme metódu citlivej distribučnej robustnej optimalizácie založenej na atribútoch (SA-DRO), kde spravodlivý študent minimalizuje najhoršiu stratu regulovanú DP cez súbor citlivých marginálnych distribúcií sústredených okolo marginálnej distribúcie založenej na údajoch. Výsledkom je, že prístup SA-DRO môže zodpovedať za rôzne frekvencie výsledkov citlivých atribútov, a tak ponúkať robustné správanie k zmenám vo väčšinovom výsledku citlivého atribútu.


Uvádzame výsledky niekoľkých numerických experimentov o potenciálnych skresleniach metodológií spravodlivej klasifikácie založených na DDP voči citlivému atribútu, ktorý má väčšinu v súbore údajov. Naše empirické zistenia sú v súlade s teoretickými výsledkami, čo naznačuje induktívne skreslenie pravidiel spravodlivej klasifikácie založených na DP smerom k citlivej väčšinovej skupine založenej na atribútoch. Na druhej strane naše výsledky naznačujú, že metóda spravodlivého učenia založená na DRO-SA vedie k pravidlám spravodlivej klasifikácie s nižším sklonom k distribúcii označenia podľa atribútu citlivej väčšiny.


Okrem toho, aby sme ukázali dopady takýchto induktívnych skreslení v praxi, analyzujeme úlohu spravodlivej klasifikácie v kontexte federatívneho vzdelávania, kde sa viacerí klienti pokúšajú trénovať decentralizovaný model. Zameriavame sa na prostredie s heterogénnou distribúciou citlivých atribútov medzi klientmi, kde sa nemusia zhodovať výsledky s väčšinovo citlivými atribútmi klientov. Obrázok 1 ilustruje takýto scenár federatívneho učenia na množine údajov pre dospelých, kde sa väčšinový citlivý atribút klienta 1 (vzorky žien) líši od väčšinovej skupiny siete (vzorky mužov), a preto je presnosť testu klienta 1 s spravodlivým federatívnym učením založeným na DP výrazne nižšia ako presnosť testu lokalizovaného spravodlivého modelu trénovaného iba na údajoch klienta 1. Takéto číselné výsledky spochybňujú motiváciu klienta zúčastniť sa na spravodlivom federálnom vzdelávaní. Nasleduje súhrn hlavných príspevkov tejto práce:


• Analytické skúmanie predsudkov spravodlivého učenia založeného na RP smerom k atribútu citlivému na väčšinu,


• Navrhnutie distribučne robustnej optimalizačnej metódy na zníženie skreslenia spravodlivej klasifikácie založenej na DP,


• Poskytovanie numerických výsledkov o predsudkoch spravodlivého vzdelávania založeného na RP v centralizovaných a federatívnych vzdelávacích scenároch.

2 Súvisiace práce

Metriky porušenia spravodlivosti. V tejto práci sa zameriavame na vzdelávacie rámce zamerané na demografickú paritu (DP). Keďže vynútenie prísneho dodržiavania DP by mohlo byť nákladné a škodlivé pre výkon učiaceho sa, v literatúre o strojovom učení sa navrhlo použiť niekoľko metrík na hodnotenie závislosti medzi náhodnými premennými, vrátane: vzájomnej informácie: [3–7], Pearsonovej korelácie [8, 9], maximálnej priemernej diskrepancie založenej na jadre: [10], miery rozdielu v jadre (1 estim) maximálna korelácia [12–15] a exponenciálna vzájomná Renyiho informácia [16]. V našej analýze sa väčšinou zameriavame na schému spravodlivej regularizácie založenú na DDP, zatiaľ čo ukazujeme len slabšie verzie induktívnych skreslení, ktoré by mohli ďalej platiť v prípade vzájomných informácií a algoritmov spravodlivého učenia založených na maximálnej korelácii.





Spravodlivé klasifikačné algoritmy. Spravodlivé algoritmy strojového učenia možno rozdeliť do troch hlavných kategórií: predbežné spracovanie, následné spracovanie a priebežné spracovanie. Algoritmy predbežného spracovania [17–19] transformujú skreslené vlastnosti údajov do nového priestoru, kde sú štítky a citlivé atribúty štatisticky nezávislé. Metódy následného spracovania ako [2, 20] majú za cieľ zmierniť diskriminačný vplyv klasifikátora úpravou jeho konečného rozhodnutia. Ťažisko našej práce je len na prístupoch v procese regulácie tréningového procesu smerom k férovým modelom založeným na RP. [21–23] tiež navrhujú distribučne robustnú optimalizáciu (DRO) pre spravodlivú klasifikáciu; na rozdiel od našej metódy však tieto práce neaplikujú DRO na distribúciu citlivých atribútov, aby sa znížili odchýlky.

jednoduché


Tento dokument je dostupný na arxiv pod licenciou CC BY-NC-SA 4.0 DEED.


Autori:

(1) Haoyu LEI, Katedra počítačovej vedy a inžinierstva, Čínska univerzita v Hong Kongu ([email protected]);

(2) Amin Gohari, Katedra informačného inžinierstva, Čínska univerzita v Hong Kongu ([email protected]);

(3) Farzan Farnia, Katedra počítačovej vedy a inžinierstva, Čínska univerzita v Hong Kongu ([email protected]).


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks