Ha a mesterséges intelligencia megmenthet minket magunktól

a távolság a Földtől az alfa kentauriig

Az emberek feltörték az internetet. Az internetes zaklatás, a zaklatás, a társadalmi megszégyenítés és a puszta kellemetlenségek sújtják az olyan webhelyeket, mint a Twitter és a Reddit, különösen akkor, ha véletlenül nem megfelelő figyelmet kelt. Fontolja meg az utat Szellemirtók sztár Leslie Jones és PR-vezető Justine Sacco tömeges visszaélések célpontjai lettek.

Az online szolgáltatásokat üzemeltető cégek jellemzően a zaklatással szembeni közömbösség és a szólásszabadság elnyomása között vannak. Most azonban a Google úgy gondolja, hogy mesterséges intelligenciával képes csökkenteni a digitális közhasználat tragédiáját. (Közzététel: a Google-nál dolgoztam a 2000-es években.) A cég Jigsaw nevű technológiai inkubátora (korábbi nevén Google Ideas) azt állítja, hogy a Conversation AI nevű automatizált programmal szándékozik észlelni és eltávolítani a digitális zaklatást. A Jigsaw elnökeként Jared Cohen mondta Vezetékes , A rendelkezésünkre álló legjobb technológiát akarom használni, hogy elkezdhessek felvállalni a trollkodást és más aljas taktikákat, amelyek aránytalanul nagy súlyt adnak az ellenséges hangoknak, [és] mindent megtenni a versenyfeltételek kiegyenlítése érdekében.



A biológiai óra feltörése

Ez a történet 2017. januári számunk része volt

  • Lásd a probléma többi részét
  • Iratkozz fel

Merész, hogy a Google felvállalja ezt, és eltér a Jigsaw néhány korábbi munkájától. Ide tartozik a Project Shield is, amely a híroldalakat és a szólásszabadságot hirdető webhelyeket védi a szolgáltatásmegtagadási támadásokkal szemben. Egy másik kirakós játék, a Password Alert egy Chrome-bővítmény, amely védelmet nyújt az adathalász támadások ellen. Ezek elsősorban technikai kihívások voltak. De a trollok és az online csőcselék elleni küzdelem szociológiai probléma is.

Áttekintett dolog

  • AI Chat

    a Google Jigsaw-jából

A Conversation AI a Google egyik legsikeresebb moonshot projektjének, a Google Brainnek a hajtása. Nagyméretű neurális hálózatokon keresztül forradalmasította a gépi tanulás területét, és olyan előnyökhöz juttatta a Google-t, mint például a szoftverek, amelyek ügyesebbek a képek felismerésében, mint az emberek. A Conversation AI azonban nem fogja tudni legyőzni az online visszaéléseket. Bár a Jigsaw kimondott célja az harcolni az online csőcselék térnyerése ellen , maga a program egy sokkal szerényebb – és ezért hihetőbb – projekt. A Conversation AI elsősorban a közösségi moderálást fogja egyszerűsíteni, amelyet ma az emberek végeznek. Tehát még ha nem is képes semlegesíteni a legrosszabb online viselkedést, bizonyos webhelyeken több és jobb diskurzust ösztönözhet.

Allúzióérzékelés

A Jigsaw elindítja a Conversation AI-t a New York Times , ahol néhány hónapon belül bevezetik, hogy segítse a céget az online megjegyzések kezelésében. Az emberi moderátorok jelenleg szinte minden, az oldalon közzétett megjegyzést átnéznek. Jelenleg a Conversation AI 18 milliót olvas belőlük, és megtanulja felismerni az elutasított megjegyzések minden egyes kategóriáját – lényegtelen, témától eltérő, spam, összefüggéstelen, lázító, obszcén, hozzászóló elleni támadás, szerző elleni támadás, kiadó elleni támadás.

A Times A célja nem feltétlenül a visszaélések visszaszorítása a megjegyzéseiben, ezt a problémát máris kontroll alatt tartja. Ehelyett azt reméli, hogy csökkenti a humán moderátorok munkáját. Soha nem számítunk arra, hogy teljesen automatizált rendszerünk legyen, Erica Greene, a mérnöki vezető New York Times közösségi csapat, mondta nekem. Times Bassey Etim közösségi szerkesztő becslése szerint a megjegyzések 50-80 százaléka végül automatikusan moderálható lenne, ami felszabadítja az alkalmazottakat, hogy erőfeszítéseiket vonzóbb tartalom létrehozására fordítsák. tól től a lap megjegyzés rovatait.

A New York Times A webhely nagyon eltérő problémákat vet fel, mint a Twitter és a Reddit valós idejű, mindenki számára ingyenes szolgáltatása. És tekintettel a gépi tanulás korlátaira – ahogyan az ma is létezik – a Conversation AI nem tud felvenni a harcot a visszaélésekkel szemben az internet tágra nyílt terein. A gépi tanulás minden káprázatos vívmánya ellenére még mindig nem törte meg az emberi nyelvet, ahol a Go-ban vagy a képekben megtalálható minták ördögien megfoghatatlannak bizonyulnak.

Illusztrációi: Erik Carter

A visszaélések felderítésének nyelvi problémája a kontextus. A Conversation AI megjegyzéselemzése nem modellezi a vita teljes folyamatát; összeveti az egyéni megjegyzéseket a jó vagy rossz megjegyzések tanult modelljeivel. Például megjegyzéseket a New York Times a webhely akkor tekinthető elfogadhatónak, ha gyakori szavakat, kifejezéseket és egyéb jellemzőket tartalmaz. Greene szerint azonban a Google rendszere gyakran sértőnek jelölte meg a Donald Trumpról szóló cikkekhez fűzött megjegyzéseket, mert olyan szavakkal idézték őt, amelyek a megjegyzések elutasítását eredményeznék, ha az olvasótól származnának. Az ilyen típusú cikkeknél a Times egyszerűen kikapcsolja az automatikus moderálást.

Lehetetlen tehát azt látni, hogy a Conversation AI jól teljesít egy olyan széles körben nyitott oldalon, mint a Twitter. Hogyan fedezné fel a holokauszt-utalásokat a visszaélésekben? tweeteket küldtek Marc Daalder zsidó újságírónak : Ez te vagy, ha Trump nyer, egy lámpabúra képével, te pedig ide tartozol, egy kenyérpirító sütő képével? A bántalmazás észlelése történelmi ismereteken és kulturális kontextuson alapul, amelyet egy gépi tanulási algoritmus csak akkor tudna észlelni, ha nagyon hasonló példákra tanították volna. Még akkor is hogyan tudna különbséget tenni a visszaélés és ugyanazon kép között az Ezt veszem, ha Trump nyer? A szükséges szemantikai és gyakorlati tudás szintje meghaladja azt, amit a gépi tanulás jelenleg is megcéloz.

Következésképpen egy dedikált Twitter-troll kétségtelenül megtalálja a visszaélések kifejezésének újszerű módját, amely megkerüli az olyan rendszereket, mint a Conversation AI. Egyes megjegyzések blokkolásával a gépi tanulás tisztességes munkát végezhet arra, hogy a hozzászólókat ne hagyják abba, hogy véletlenül köcsögöknek és homoknak nevezzék egymást, ha ez a cél. A gépi tanulás azonban nem tudja meghiúsítani azt az embert, aki azt sugallja, hogy valaki furcsa.

Más szóval, a Conversation AI lehetővé teszi a moderálási feladatok hatékonyabb végrehajtását azokban a közösségekben, amelyek már általában meglehetősen jól viselkednek. Nem képes kiküszöbölni a legrosszabb visszaéléseket, amelyekről hallunk, amelyek gyakran megjelennek olyan webhelyeken, amelyek minimális moderálási szabványokat követnek. Rendőrségi visszaélések a Twitteren és a Reddit lehetetlen anélkül, hogy alapvetően megváltoztatnánk e platformok természetét.

Zárt közösségek

A Twitteren és a Redditen történő visszaélések felderítése lehetetlen anélkül, hogy alapvetően megváltoztatnánk e platformok természetét.

A Facebook sikere emlékeztet arra, hogy a legtöbb ember, és minden bizonnyal a legtöbb cég is a viszonylag védett és ellenőrzött környezetet részesíti előnyben, mint azt, ahol idegenek behatolhatnak mások üzletébe, és veszekedni kezdhetnek. Tehát ha a Conversation AI vagy hasonló eszközök megkönnyítik és hatékonyabbá teszik az ilyen irányítást, akkor ez emlékeztet arra, hogy a visszaélési probléma megoldásához, akár emberi, akár automatizált eszközökkel, el kell távolodni a maximális inkluzivitástól, mint a legmagasabb online ideálistól. Még az olyan nyitottnak tűnő közösségek is, mint a StackExchange és a MetaFilter, állandó moderátori beavatkozást és közösségi rendfenntartást igényelnek. Az igazán anarchikus közösségek, mint például a Twitter, a 4chan és néhány Reddit csatorna, az online kivételnek bizonyulnak, nem pedig a szabálynak. Az anarchikus közösségek sem pénzkeresők. A Twitter nem tudott vevőt vonzani, részben a sértő tartalmak hírneve miatt, míg a Redditnél nagy a fluktuáció és a bevételszerzés nehézségei. Ezeknek a webhelyeknek a vadnyugati jellege csak akkor válik nyilvánvalóbbá, ha az olyan eszközök, mint a Conversation AI, még jobban működnek a moderált webhelyek.

Érdemes megjegyezni egy nagy potenciális hátrányt. Mivel a Conversation AI-t bizonyos lexikai, nyelvtani és stilisztikai irányelveknek megfelelő tartalmak jóváhagyására képezik ki, nem csak a sértő tartalmakat szűri ki. Az is hajlamos lehet a sztrájkra különböző tartalom. Ez felveti a kérdéseket, hogy a cenzúra beállítottságú kormányok mit tehetnének ezzel. Csakúgy, mint a Times ápolja közösségeit, így Törökország és Kína kormánya is gondozhatja a sajátjukat. Míg a Jigsaw erőfeszítései, mint például a Project Shield célja, hogy védelmet nyújtsanak a politikailag érzékeny webhelyek számára, a Conversation AI megkönnyíti a nem kívánt beszéd kiszűrését – de a kérdés az, hogy kik nem kívánják? A dobozon nincs felirat: Csak a visszaélések megelőzésére használható.

David Auerbach könyvet ír az emberi és számítógépes nyelvekről, valamint ezek konvergenciájáról, amelyet a Pantheon ad ki. 11 évig dolgozott szoftvermérnökként a Google-nál és a Microsoftnál, elsősorban szerverinfrastruktúrában.

elrejt

Tényleges Technológiák

Kategória

Nincs Kategorizálva

Technológia

Biotechnológia

Technikai Politika

Klímaváltozás

Ember És Technológia

Szilícium-Völgy

Számítástechnika

Mit News Magazin

Mesterséges Intelligencia

Tér

Okos Városok

Blockchain

Feature Story

Alumni Profil

Öregdiák Kapcsolat

Mit News Funkció

1865

Az Én Nézetem

77 Mass Ave

Ismerje Meg A Szerzőt

Profilok A Nagylelkűségben

Az Egyetemen Látható

Öregdiák Levelei

Hírek

Mit News Magazine

Választások 2020

Indexszel

A Kupola Alatt

Tűzoltótömlő

Végtelen Történetek

Pandémiás Technológiai Projekt

Az Elnöktől

Fedősztori

Képgaléria

Ajánlott