Hogyan tartsuk számon az algoritmusokat

Az algoritmusokat ma már a köz- és a magánszektorban is használják, és az oktatástól és a foglalkoztatástól a büntető igazságszolgáltatásig minden kérdésben megalapozzák a döntéseket. De a hatékonyságnövekedés lehetősége ellenére a big data által táplált algoritmusok is képesek erre felerősíti a strukturális diszkriminációt , olyan hibákat produkál megtagadja a szolgáltatásokat az egyénektől , vagy akár hamis biztonságérzetre csábítja a választókat. Valóban, van növekvő tudatosság hogy a közvéleménynek óvatosnak kell lennie az társadalmi kockázatok az ezekre a rendszerekre és munkára való túlzott támaszkodás okozza tartsd meg őket felelős .

Különféle iparági erőfeszítések, köztük a konzorcium A Szilícium-völgyi behemótok kezdenek megküzdeni az olyan algoritmusok alkalmazásának etikájával, amelyek váratlan hatással lehetnek a társadalomra. Az algoritmusfejlesztőknek és a termékmenedzsereknek új módszerekre van szükségük az algoritmikus rendszerek nyilvánosan elszámoltatható módon történő gondolkodására, tervezésére és megvalósítására. Az elmúlt hónapokban mi és néhány kolléga megpróbálták elérni ezeket a célokat egy a elszámoltatható algoritmusok alapelvei .

Tekintsünk egy esetet, amikor nagyon nagy szükség van az algoritmikus elszámoltathatóságra: a kockázatértékelési pontszámok amelyek tájékoztatják a büntető igazságszolgáltatási döntéseket az Egyesült Államok jogrendszerében. Ezeket a pontszámokat úgy számítják ki, hogy kérdéseket tesznek fel olyan dolgokkal kapcsolatban, mint a vádlott életkora, bűnügyi előélete és egyéb jellemzők. Az adatokat egy algoritmusba táplálják be, amely kiszámítja a pontszámot, amelyet azután felhasználhatnak az előzetes letartóztatásról, a próbaidőre, a feltételes szabadlábra helyezésről vagy akár a büntetés kiszabásáról szóló döntésekben. Ezeket a modelleket pedig gyakran szabadalmaztatott gépi tanulási algoritmusok és a korábbi vádlottak adatai alapján képezik ki.



szemüveg, amely segít a színvakságban

A legújabb vizsgálatok azt mutatják hogy a kockázatértékelési algoritmusok fajilag elfogultak lehetnek, és olyan pontszámokat generálnak, amelyek téves esetben gyakrabban minősítik helytelenül a fekete vádlottakat a magas kockázatúnak. Ezek az eredmények jelentős vitákat váltottak ki. Tekintettel ezeknek az algoritmikus döntéseknek az életet megváltoztató természetére, gondos figyelmet kell fordítani rájuk, és felelősségre kell őket vonni a negatív következményekért.

Az algoritmusokat és az azokat mozgató adatokat emberek tervezik és hozzák létre. Még olyan technikáknál is, mint pl genetikai algoritmusok amelyek maguktól fejlődnek, ill gépi tanulási algoritmusok ahol az eredményül kapott modellt nem személy készítette kézzel, az eredményeket az ember által hozott tervezési döntések, az optimalizálandó szabályok és a felhasználandó képzési adatokkal kapcsolatos döntések határozzák meg. Az algoritmus nem elfogadható mentség, ha az algoritmikus rendszerek hibáznak vagy nem kívánt következményekkel járnak.

Az elszámoltathatóság magában foglalja az algoritmikus döntéshozatal jelentésének és indoklásának kötelezettségét, valamint a negatív társadalmi hatások vagy potenciális károk mérséklését. Az elszámoltathatóságot öt alapelv szemszögéből vizsgáljuk: felelősség, magyarázhatóság, pontosság, auditálhatóság és méltányosság.

Felelősség . Minden algoritmikus rendszerhez szükség van egy személyre, aki képes időben kezelni a káros egyéni vagy társadalmi hatásait. Ez nem a jogi felelősség kijelentése, hanem inkább a jogorvoslati lehetőségekre, a nyilvános párbeszédre és a változás belső hatáskörére összpontosít. Ez olyan egyszerű lehet, mintha valakit a műszaki csapatból belső hatalommal és erőforrásokkal ruházna fel a rendszer megváltoztatásához, biztosítva, hogy az illető elérhetőségei nyilvánosan elérhetőek legyenek.

Magyarázatosság . Az algoritmikus rendszer által hozott döntéseket meg kell magyarázni a döntések által érintett emberek számára. Ezeknek a magyarázatoknak hozzáférhetőnek és érthetőnek kell lenniük a célközönség számára; a tisztán műszaki leírások nem alkalmasak a nagyközönség számára. A kockázatértékelési pontszámok ismertetése az alperesekkel és jogtanácsosaikkal elősegítené a jobb megértést, és segítene nekik megkérdőjelezni a nyilvánvaló hibákat vagy hibás adatokat. Egyes gépi tanulási modellek jobban megmagyarázható mint mások, de attól, hogy van egy képzeletbeli neurális háló, még nem jelenti azt, hogy értelmes magyarázat nem állítható elő.

co2 súroló otthonra

Pontosság . Az algoritmusok hibáznak, akár adathibáik miatt (szemét be, szemét ki), akár a kimeneteik statisztikai bizonytalansága miatt. Az elve a pontosság azt javasolja, hogy az algoritmusban és adatforrásaiban azonosítani, naplózni és összehasonlítani kell a hiba- és bizonytalanságforrásokat. Az algoritmikus rendszerek által előidézett hibák természetének megértése segíthet a mérséklési eljárásokban.

Audithatóság . Az elve a auditálhatóság kimondja, hogy olyan algoritmusokat kell kidolgozni, amelyek lehetővé teszik harmadik felek számára, hogy megvizsgálják és felülvizsgálják egy algoritmus viselkedését. Az algoritmusok nyomon követésének, ellenőrzésének és kritizálásának lehetővé tétele tudatosabb tervezést és pályakorrekciót eredményezne hiba esetén. Bár lehet technikai kihívások az állami könyvvizsgálat lehetővé tételében, miközben védi a védett információkat, a magánellenőrzés (mint a számvitelben) némi állami biztosítékot nyújthatna. Ahol lehetséges, még a korlátozott hozzáférés is (pl. API-n keresztül) értékes esélyt adna a nyilvánosság számára ellenőrizni ezeket a társadalmilag jelentős algoritmusok.

Méltányosság . Ahogy az algoritmusok egyre inkább történelmi és társadalmi adatok alapján hoznak döntéseket, fennáll annak a veszélye, hogy a meglévő torzítások és a történelmileg diszkriminatív emberi döntések beépülnek az automatizált döntésekbe. Az egyénekre vonatkozó döntéseket hozó összes algoritmust értékelni kell a diszkriminatív hatások szempontjából. Az értékelés eredményeit és az alkalmazott kritériumokat nyilvánosságra kell hozni és meg kell indokolni.

Rengeteg lehetőség van ezen alapelveknek a saját kontextusához való adaptálására és értelmezésére, és természetesen politikai, tulajdonjogi vagy üzleti megfontolások is közbelépnek. De úgy gondoljuk, hogy ha ezeket az ötleteket a tervezési, megvalósítási és kiadási fejlesztési ciklusok során végiggondoljuk, az algoritmusok társadalmilag felelősségteljesebb alkalmazásához vezet a társadalomban.

Hogyan kezdj hozzá? Felvázolunk néhány pragmatikus kérdést, amelyeken a termék- és fejlesztőcsapat átdolgozhat a társadalmi hatásnyilatkozat amely ezekkel az elvekkel foglalkozik .

Nicholas Diakopoulos a University of Maryland, College Park adjunktusa. Sorelle Friedler a n adjunktus a Haverford College-ban, valamint a Data & Society Research Institute leányvállalata.

elrejt

Tényleges Technológiák

Kategória

Nincs Kategorizálva

Technológia

Biotechnológia

Technikai Politika

Klímaváltozás

Ember És Technológia

Szilícium-Völgy

Számítástechnika

Mit News Magazin

Mesterséges Intelligencia

Tér

Okos Városok

Blockchain

Feature Story

Alumni Profil

Öregdiák Kapcsolat

Mit News Funkció

1865

Az Én Nézetem

77 Mass Ave

Ismerje Meg A Szerzőt

Profilok A Nagylelkűségben

Az Egyetemen Látható

Öregdiák Levelei

Hírek

Mit News Magazine

Választások 2020

Indexszel

A Kupola Alatt

Tűzoltótömlő

Végtelen Történetek

Pandémiás Technológiai Projekt

Az Elnöktől

Fedősztori

Képgaléria

Ajánlott