Igen, aggódunk a mesterséges intelligencia egzisztenciális kockázata miatt

Oren Etzioni, egy jól ismert mesterséges intelligencia-kutató panaszkodik az AI-kutatás jövőbeni sikereiből fakadó lehetséges hosszú távú kockázatokról szóló hírek miatt (lásd: Nem, a szakértők nem gondolják, hogy a szuperintelligens AI fenyegetés az emberiségre). Miután ujjal az oxfordi filozófusra, Nick Bostromra és legutóbbi könyvére mutatott, Szuperintelligencia , Etzioni kifogásolja, hogy Bostrom fő adatforrása az emberi szintű intelligencia megjelenésével kapcsolatban az AI-kutatók véleményére vonatkozó felmérésekből áll. Ezután felméri az AI-kutatók véleményét, azzal érvelve, hogy eredményei cáfolják Bostromét.

Fontos megérteni, hogy Etzioni nem is foglalkozik az okkal Szuperintelligencia megvolt az általa elítélt hatás: világos magyarázata arra, hogy a szuperintelligens mesterséges intelligencia miért lehetnek önkényesen negatív következményei, és miért fontos, hogy jóval korábban elkezdjük a probléma kezelését. Bostrom nem azokra az előrejelzésekre alapozza az esetét, amelyek szerint az emberfeletti AI-rendszerek küszöbön állnak. Azt írja: Ebben a könyvben nem szerepel az az érv, hogy a mesterséges intelligencia terén elért nagy áttörés küszöbén állunk, vagy hogy bármilyen pontossággal megjósolhatjuk, mikor következhet be ilyen fejlemény.

Így véleményünk szerint Etzioni cikke elvonja az olvasó figyelmét a könyv alapvető érvéről, és ad hominem támadást irányít Bostrom ellen, azzal az ürüggyel, hogy vitatja felmérési eredményeit. Szükségesnek érezzük a jegyzőkönyv javítását. Egyikünk (Russell) még Etzioni felméréséhez is hozzájárult, de a válaszát teljesen félreértelmezték. Valójában, mint a miénk részletes elemzés Azt mutatja, hogy Etzioni felmérési eredményei teljes mértékben összhangban vannak a Bostrom által idézettekkel.



Hogyan jut tehát Etzioni regénybeli következtetéséhez? Egy olyan felmérési műszer megtervezésével, amely az Alsó a Bostromhoz, majd félremagyarázva az eredmények.

víz a holdban

A cikk alcíme így hangzik: Ha megkérdezi azokat az embereket, akiknek valóban tudniuk kell, akkor azt találjuk, hogy kevesen hiszik el, hogy a mesterséges intelligencia veszélyt jelent az emberiségre. Így az olvasó azt hiheti, hogy Etzioni azoktól tette fel ezt a kérdést, akiknek valóban tudniuk kellene, míg Bostrom nem tette fel. Valójában ennek az ellenkezője igaz: Bostrom tette kérdezze meg azokat, akiknek valóban tudniuk kellene, de Etzioni egyáltalán nem kérdezett senkit. Bostrom megkérdezte a 100 legtöbbet idézett AI-kutatót. A válaszadók több mint fele úgy véli, hogy jelentős (legalább 15 százalék) az esélye annak, hogy az emberi szintű gépi intelligencia emberiségre gyakorolt ​​hatása egyensúlyban legyen rossz vagy rendkívül rossz (egzisztenciális katasztrófa). Etzioni felmérése, ellentétben Bostrom felmérésével, nem tett fel kérdéseket az emberiséget fenyegető veszélyről.

az emberi faj pusztulásra van ítélve

Ehelyett egyszerűen csak feltesz egy kérdést mikor szuperintelligenciát fogunk elérni. Ahogy azt Bostrom adatai már előre jelezték volna, Etzioni válaszadóinak valamivel több mint fele (67,5 százaléka) több mint 25 éven keresztül zuhant a szuperintelligencia elérése érdekében – elvégre Bostrom válaszadóinak több mint fele 25 évnél régebbi dátumot adott meg, mindössze 50 százalékos valószínűséggel puszta emberi szintű intelligencia elérése. Egyikünk (Russell) több mint 25 évvel válaszolt Etzioni felmérésére, és maga Bostrom azt írja saját felméréseiről: Saját véleményem az, hogy a szakértői felmérésben közölt mediánszámok nem rendelkeznek elegendő valószínűségi tömeggel a későbbi érkezési időpontokban.

Most, miután elkészített egy felmérést, amelyben a válaszadók várhatóan több mint 25 évet választanak, Etzioni kicsapja a csapdáját: kijelenti, hogy 25 év túl van a belátható horizonton, és ebből arra következtet, hogy sem Russell, sem maga Bostrom nem hiszi, hogy a szuperintelligens mesterséges intelligencia veszélyt jelentene. az emberiségnek. Ez meglepetés lesz Russellnek és Bostromnak, és vélhetően sok más válaszadónak is a felmérésben. (Valóban, Etzioni címsora ugyanilyen könnyen lehetett volna, ha a szakértők 75 százaléka úgy gondolja, hogy a szuperintelligens mesterséges intelligencia elkerülhetetlen.) Figyelmen kívül kell hagynunk a katasztrofális kockázatokat pusztán azért, mert a legtöbb szakértő úgy gondolja, hogy több mint 25 év van hátra? Etzioni logikája szerint figyelmen kívül kell hagynunk az éghajlatváltozás katasztrofális kockázatait, és elítélnünk kell azokat, akik felhozzák őket.

Ellentétben Etzioni és mások véleményével a AI közösség , rámutatva a mesterséges intelligencia hosszú távú kockázataira nem egyenértékű annak állításával, hogy a szuperintelligens mesterséges intelligencia és a vele járó kockázatok küszöbön állnak. A kockázatokra rámutatók listáján olyan fényesek szerepelnek, mint Alan Turing, Norbert Wiener, I.J. Jó, és Marvin Minsky. Még Oren Etzioninak is van elismerte ezeket a kihívásokat . Tudomásunk szerint ezek egyike sem állította, hogy a szuperintelligens mesterséges intelligencia küszöbön állna. Ahogy fentebb említettük, Bostrom sem szólt bele Szuperintelligencia .

Etzioni ezután megismétli azt a kétes érvet, miszerint a végzet és a homály előrejelzései gyakran nem veszik figyelembe az MI lehetséges előnyeit az orvosi hibák megelőzésében, az autóbalesetek csökkentésében stb. Az érvelés még Bostromra sem vonatkozik, aki azt jósolja, hogy a mesterséges intelligencia irányításának sikere az emberiség kozmikus adottságának együttérző és ujjongó felhasználását fogja eredményezni. Az érvelés is nonszensz. Ez olyan, mintha azzal érvelnénk, hogy a nukleáris mérnökök, akik az atomerőművek összeomlásának lehetőségét elemzik, nem veszik figyelembe az olcsó villamos energia lehetséges előnyeit, és mivel az atomerőművek egy nap valóban olcsó villamos energiát termelhetnek, nem szabad megemlítenünk és a megelőzésen sem dolgoznunk. , az összeomlás lehetősége.

Moore törvénye kimondja, hogy egy chipen lévő tranzisztorok száma körülbelül _____ havonta megduplázódik.

Csernobillal kapcsolatos tapasztalataink azt sugallják, hogy nem bölcs dolog azt állítani, hogy egy erős technológia nem jár kockázatokkal. Lehet, hogy nem bölcs dolog azt állítani, hogy egy erőteljes technológia soha nem fog megvalósulni. 1933. szeptember 11-én Lord Rutherford, a világ talán legkiválóbb atomfizikusa úgy jellemezte, hogy az atomokból energiát nyernek ki, mint holdfényt. Kevesebb mint 24 órával később Szilárd Leó feltalálta a neutronok által kiváltott nukleáris láncreakciót; Az atomreaktorok és az atomfegyverek részletes tervei néhány évvel később következtek. Bizonyára jobb előre látni az emberi találékonyságot, mint alábecsülni, jobb elismerni a kockázatokat, mint tagadni azokat.

Számos prominens mesterséges intelligencia-szakértő felismerte annak lehetőségét, hogy az AI egzisztenciális kockázatot jelent. A médiában elterjedt téves állításokkal ellentétben ennek a kockázatnak nem kell a spontán rosszindulatú tudatból fakadnia. A kockázat inkább abból a kiszámíthatatlanságból és lehetséges visszafordíthatatlanságából fakad, hogy egy olyan optimalizálási folyamatot alkalmaznak, amely intelligensebb, mint az emberek, akik meghatározták a céljait. Ezt a problémát Wiener Norbert világosan megfogalmazta 1960-ban, és még mindig nem sikerült megoldanunk. Kérjük olvasóinkat, hogy támogassák az erre irányuló erőfeszítéseket.

Allan Dafoe a Yale Egyetem politológia adjunktusa.

Stuart Russell a Berkeley-i Kaliforniai Egyetem számítástechnika professzora.

khmer facebook hírek 2015

Oren Etzioni válasza, 2016. november 2.:

Örülök, hogy Professors Dafoe & Russell és úgy tűnik, három kritikus kérdésben egyetértek. Egyrészt tartózkodnunk kell az ad hominem támadásoktól. Itt elnézést kell kérnem: nem kellett volna a névtelen AAAI-tagot idéznem, aki Dr. Bostromot Donald Trumphoz hasonlította. Nem akartam a hangomat kölcsönözni ehhez az összehasonlításhoz; Őszintén bocsánatot kértem Bostromtól ezért a félrelépésért e-mailben, amelyet őszintén el is fogadott. Kettő: tudósként értékelnünk kell az AI kockázatára vonatkozó kijelentéseket adatok alapján. Ez volt a lényegem rövid cikk , és a cikk egyedi adatokat kínált ebben a témában. Harmadszor, abban is egyetértünk, hogy a média hamisan ábrázolta Bostrom munkájának következményeit – ez a téma aggodalomra ad okot, amelyet bizonyos mértékig eloszlatott a A Fehér Ház jelentése az AI-ról . Természetesen sok részletben és az érvek bonyolultságában különbözünk egymástól, de az idő eldönti.

elrejt

Tényleges Technológiák

Kategória

Nincs Kategorizálva

Technológia

Biotechnológia

Technikai Politika

Klímaváltozás

Ember És Technológia

Szilícium-Völgy

Számítástechnika

Mit News Magazin

Mesterséges Intelligencia

Tér

Okos Városok

Blockchain

Feature Story

Alumni Profil

Öregdiák Kapcsolat

Mit News Funkció

1865

Az Én Nézetem

77 Mass Ave

Ismerje Meg A Szerzőt

Profilok A Nagylelkűségben

Az Egyetemen Látható

Öregdiák Levelei

Hírek

Mit News Magazine

Választások 2020

Indexszel

A Kupola Alatt

Tűzoltótömlő

Végtelen Történetek

Pandémiás Technológiai Projekt

Az Elnöktől

Fedősztori

Képgaléria

Ajánlott