Alates deemonlikust ilmutusest kuni täieliku kaose tuleviku ajalooni – ma loodan, et tegin selgeks, et ma ei ole tehisintellekti osas pime kiirendaja. Tehnoloogia potentsiaal on põhimõtteliselt ettearvamatu. See muudab valdkonnas töötamise nii ohtlikuks kui ka oluliseks, ja ma arvan, et mure on üldiselt õigustatud. Siin on olulisi küsimusi, mida tasub tõstatada. Siin on olulisi vestlusi, mida tasub pidada. Kuid teie abielu lõhkuvad vestlusrobotid ja rassistlikud arvutid ei ole mõistlik kriitika, samuti pole andmekeskuste süütamine mõistlik alternatiiv valdkonna edusammudele. Tehisintellekti turvatöötajad ja neist vaimustatud kirjanikud on ausalt öeldes veidi kontrolli alt väljas. Safetyismi filosoofia? Samuti võib olla ohtlikum kui ükski teise valdkonna kõige eksistentsiaalsem probleem.
Byrne Hobart kirjutab uudiskirja The Diff, mis käsitleb muutusi finants- ja tehnikavaldkonnas. Tobias Huber on kirjanik ja tehnoloogia asutaja. Nende raamat tehnoloogilisest stagnatsioonist ja innovatsiooni olemusest on ilmumas koos Stripe Pressiga.
Safetyismi vastu
Elon Musk säutsus kord Twitteris, et tehisintellektiga kutsume välja deemoni. Arvestades mõningaid hüperboolseid vastuseid ChatGPT-le, tundub, et oleme Sam Altmani sõnul tõepoolest kutsunud deemoni või “jumala”. Mõned arvavad, et need vestlusrobotid või sarnased rakendused, mis on üles ehitatud alusmudelitele, nagu suurkeelsed mudelid (LLM-id), kuulutavad seda, mida nimetatakse AGI-ks (tehisintellektiks) – tehisintellekti deemon, mis suudab vallandada apokalüpsise.
Tehisintellekti viimsepäeva kõige ekstreemsemate ulmeliste spekulatsioonide hulgas on “Roko basilisk” ja “kirjaklambri maksimeerija” mõtteeksperimendid, mille eesmärk on illustreerida superintelligentse, isepaljuneva ja pidevalt ennast täiustava tuleviku AGI riske. võib muutuda kontrollimatuks ja arusaamatuks isegi selle loojate jaoks. Kuid need hüpoteetilised stsenaariumid põhinevad küsitavatel ja sageli väga antropomorfiseerivatel eeldustel, nagu näiteks see, et nendesse süsteemidesse ei saa ohutusmeetmeid sisse ehitada, et tehisintellekti ei saa ohjeldada, et tulevane AGI on allutatud loodusliku evolutsiooni valikusurvele või et üliintelligentne tehisintellekt muutub alati kurjaks.
Ja nende äärmuslike stsenaariumide sügavam probleem on see, et keskpikas perspektiivis on sisuliselt võimatu ennustada, rääkimata uute tehnoloogiate pikaajalisest mõjust. Viimase poole sajandi jooksul kukkusid isegi juhtivad AI-teadlased oma AGI ajakavade prognoosimisel täielikult läbi. Seega, selle asemel, et muretseda ulmeliste kirjaklambrite või Terminaatori stsenaariumide pärast, peaksime rohkem muretsema näiteks kõigi haiguste pärast, millele me ei suutnud ravi leida, või teaduslike läbimurrete pärast, mis ei realiseeru, sest me keelustasime enneaegselt tehisintellekti uurimis- ja arendustegevuse, tuginedes ebatõenäolisele stsenaariumile, kus tundlik tehisintellekt hävitab inimkonna.
Eelmisel aastal väitis Google’i insener ja tehisintellekti eetik, et Google’i vestlusbot saavutas mõistuse. Ja juhtivad tehisintellekti teadlased ja teised, sealhulgas Elon Musk, kirjutasid just hiljuti alla kirjale, milles kutsuti üles kehtestama tehisintellektiuuringutele moratooriumi – teisisõnu kulub vaid kuus kuud, et tehisintellekti edenemise kõverat tasandada (ilmselgelt Hiina CCP oleks väga toetav). Näib, et allakirjutanud ei karda mitte ainult virvendavaid küborgi eksoskelette, mis purustavad inimkoljusid – mille jäädvustas Terminaator 2 avastseen –, vaid ka töökohtade automatiseerimist ja etteaimatavalt võltsuudiseid, propagandat, desinformatsiooni ja muid “ohte demokraatiale”. Kuid üleskutse kehtestada tehisintellektile moratooriumi – mis ajab segi eksistentsiaalsed riskid murega töötuse pärast – ei määratle riske ja nende tõenäosust ning puuduvad kriteeriumid, millal ja kuidas keeld tühistada. Arvestades, et tehisintellekti rakenduste (nt autonoomse sõidu ja meditsiinilise diagnostika) eeskirjad on juba olemas, on ebaselge, miks on üldse vaja AI põhiuuringute ja arendustegevuse keelustamist.
Kuid justkui ajutisest tehisintellekti uurimise keelustamisest ei piisa, kutsus Eliezer Yudkowsky, tehisintellekti doomerismi juhtiv pooldaja – ja kes eeldab, et inimkond sureb peagi välja üliinimliku intelligentsi põhjustatud Armageddoni tõttu – kõik suured GPU klastrid, piirates arvutusvõimsust, mida igaüks tohib AI-süsteemide treenimisel kasutada, ja vajadusel isegi hävitada andmekeskusi õhurünnakuga. Ainus viis apokalüpsise ärahoidmiseks, vastavalt tehisintellekti ohutuse doomerismi äärmuslikule vormile, on see, et Ameerika jätab endale õiguse anda tuumaenergiale ennetav rünnak, et võita Hiina otsingumootori Baidu vestlusrobot Ernie. (See oleks kahekordselt irooniline, sest Hiina suur tulemüür osutub teedrajavaks jõupingutuseks teksti ulatuslikuks tsenseerimiseks – täpselt see, mida generatiivseid tehisintellekti ettevõtteid täna tegema kutsutakse.) Üks asi on luua lõpmatu arv ebatõenäolisi apokalüpsise stsenaariume. , kuid teine asi on propageerida tuumasõda, mis põhineb vestlusroti väljalaskmisel ja puhtalt spekulatiivsetel ulmelistel stsenaariumidel, mis hõlmavad Skynetit.
Nüüd võib küüniline vastus olla, et AI doomerism on lihtsalt AI idufirmade turundus: see on potentsiaalne Armageddoni vahend, mitte ülistatud lineaarne regressioon! Või võivad hüperboolsed kõned lihtsalt väljendada esilekerkivate turgu valitsevate operaatorite, nagu OpenAI, soovi monopoliseerida oma juhtivad positsioonid ja konkurentidel jõuda järele tehisintellektiuuringute veritseva serva piirile. Seega, kui tehisintellekti võimalused ei muutu kaitstavaks vallikraaviks, võib tehisintellekti ohutusprobleemidel põhinev regulatiivne püüdmine selliseks muutuda.
Kuid sellised hüsteerilised reaktsioonid uutele tehnoloogiatele pole midagi uut. Silicon Valleys on eksistentsiaalsete riskide või “x-riskide” kinnisidee, mis tänapäeval esineb sellistes veebifoorumites nagu LessWrong, pika traditsiooniga. Praeguse tehisintellekti ohutuslaine saame jälgida Asilomari rekombinantse DNA konverentsini, mis toimus 1975. aastal vastusena Herbert Boyeri ja teiste tehnoloogilistele läbimurretele geneetiliste rekombinatsioonide vallas. Geenitehnoloogia väljavaade Jumala-sarnastest võimetest elu ise luua või sellega manipuleerida kutsus esile sarnased üleskutsed määruste ja keeldude järele. Vaatamata nendele üleskutsetele reguleerida ja moratooriumi kehtestada, asutas Boyer aasta hiljem Genentechi – keelu asemel saime biotehnoloogiatööstuse.
Pole üllatav, et hiljutine AI-uuringute moratooriumi üleskutse järgib 2017. aasta Asilomar Beneficial AI konverentsil koostatud põhimõtete kogumit Asilomari tehisintellekti põhimõtteid. Seevastu vaid mõnikümmend aastat enne esimest Asilomari biotehnoloogia konverentsi seisid Manhattani projektis osalenud tuumafüüsikud, mis kavandasid esimese tuumapommi, spekulatiivse võimalusega, et aatomipomm võib hüpoteetilise termotuumasünteesi reaktsiooni tõttu atmosfääri “süttida”. Pärast mõningaid arvutusi ja mitteametlikke arutelusid liikusid nad plaanipäraselt edasi – ilma moratooriumide ja eetikanõukogude või ohutuskomiteedeta. Ja tuumateaduse keelu asemel saime tuumaenergia.
Kuigi mure uute tehnoloogiate ohutuse pärast võib mõnel juhul olla põhjendatud, on need ühiskonnas sügavalt juurdunud riskikartlikkuse sümptomid. Viimastel aastakümnetel oleme muutunud äärmiselt riskitalumatuks. See riskikartlikkus ei avaldu ainult tehisintellektis või geenitehnoloogias. Alates tuumaenergiast loobumisest ja teaduse bürokratiseerimisest kuni valemite ja üldiste taaskäivitamise, järge ja eellugude igavese kordumiseni on see kollektiivne riskitalumatus nakatanud ja halvanud ühiskonda ja kultuuri laiemalt (mõelge Marveli kinouniversumile või idufirmadele, mis on välja toodud kui “X”. Y jaoks”, kus X on midagi ainulaadset ja seda on võimatu korrata).
Võtke tuumaenergia. Viimastel aastakümnetel on irratsionaalne hirmuõhutamine põhjustanud inimkonnale kättesaadava puhtaima, ohutuma ja usaldusväärseima energiaallika hülgamise ja demoniseerimise. Vaatamata arvukatele tõenditele, mis teaduslikult tõestavad selle ohutust, loobusime igavesest energiaallikast, mis oleks võinud tsivilisatsiooni lõputult toita, et leida ebausaldusväärseid ja määrdunud aseaineid, samal ajal muretsedes katastroofiliste kliimamuutuste pärast. Praegu on seda raske ette kujutada, kuid tuumaenergia hõlmas kunagi lõputu progressi utoopilise lubaduse ja tuumatehnika oli kuni 1960. aastateni üks prestiižsemaid teadusvaldkondi. Tänapäeval, peamiselt Hiroshima, Fukushima ja popkultuuri tuumaholokausti kujutluste tõttu, on narratiiv siiski nihkunud “alkeemiast”, “transmutatsioonist” ja “uuendamisest” düstoopiliste “saastumise”, “mutatsiooni” kujundite juurde. ja “hävitamine”. Kuigi enamik Fukushima intsidendi surmajuhtumeid põhjustas evakueerimismeetmed – ja Jaapani tuumareaktorite sulgemise tõttu hukkus rohkem inimesi kui õnnetus ise –, hakkasid paljud lääneriigid vastusena kokkuvarisemisele takistama uute reaktorite ehitamist või järk-järgult kasutusest loobuma. tuumaenergia üldse. Selle tulemuseks oli väär olukord, kus Saksamaa, kes on obsessiivselt keskendunud rohelisele ja säästvale energiale, peab nüüd toetuma väga saastavale kivisöele kuni 40% oma elektrivajadusest. Irratsionaalse tuumahirmu kasv illustreerib ohutusismi põhiprobleemi: kinnisideeline püüdmine kõrvaldada kõik nähtavad riskid loob sageli nähtamatuid riske, mis on inimeste õitsengule palju olulisemad. Kujutage vaid ette, mis oleks juhtunud, kui me poleks tuumareaktoreid järk-järgult kaotanud – kas me peaksime nüüd kinnisideeks “neto-null” või “2°C sihtmärgid”?
Või vaatleme teist hiljutist ja veelgi vastuolulisemat näidet: funktsioonide bioloogilise suurenemise uuringud. Keskusesse on sattunud viroloog Zhengli Shi, kes juhib Wuhani viroloogiainstituudi tekkivate nakkushaiguste keskust, ja Peter Daszak, haiguste ökoloog ja EcoHealth Alliance’i viroloogia president, kes tegi sageli koostööd Wuhani viroloogiainstituudiga. Covid-19 labori lekke poleemikast. Mõlemad teadlased olid spetsialiseerunud viirusnakkuste uurimisele. Viiruse genoomide sekveneerimise, elusviiruste eraldamise ning geneetilise segamise ja sobitamise abil püüdsid nende uuringud paremini mõista viiruste evolutsiooni ja seda, kuidas nad saavad võime nakatada inimperemeesorganisme, et saaks välja töötada paremaid ravimeid ja vaktsiine nende vastu võitlemiseks. inimkond tulevaste pandeemiate eest. Teisisõnu, funktsioonide suurendamise uuringud, mis muutsid viirusi nende evolutsiooni mõistmiseks, olid mõeldud pandeemiate eksistentsiaalsete riskide leevendamiseks. Kui eeldada, et labori lekke teooria vastab tõele, põhjustas koroonaviiruste funktsioonide suurendamise uuring täpselt pandeemia, mida ta püüdis ära hoida.
Olenemata sellest, kas me arvame, et tehisintellekti apokalüpsis on peatselt käes või labori lekke hüpotees on õige või mitte, tekitab turvalisus nähtavate riskide maandamise või mahasurumisega sageli nähtamatuid või varjatud riske, mis on palju olulisemad või mõjuvamad kui riskid, mida sellega püütakse kõrvaldada. leevendada. Mõnes mõttes on see mõistlik: uue tehnoloogia loomine ja selle laialdane kasutuselevõtt eeldab kindlat tulevikuvisiooni. Kuid riskidele keskendumine tähendab kindlat nägemust minevikust ja stohhastilisemat mudelit sellest, mida tulevik võib endaga kaasa tuua. Arvestades aja tüütut harjumust liikuda ainult ühes suunas, ei jää meil muud üle, kui elada kellegi tulevikus – küsimus on selles, kas kellelgi on plaanid või kellelgi neuroos.
Meie kollektiivse riskikartlikkuse üks murettekitavamaid ilminguid esineb teaduses. Paljud uuringud on dokumenteerinud teadusuuringute riskitaluvuse vähenemist. Põhiliseks tõukejõuks on olnud tsitaatidel põhinevate mõõdikute domineerimine teadusuuringute hindamisel, rahastamisel ja edendamisel – protsess, mis on paralleelne teaduse enda üha suureneva bürokratiseerumisega (huvitaval kombel, mida mõõdetakse akadeemilise halduspersonali arvu suurenemisega, teadusuuringute algusega). see suundumus langeb kokku esimeste turvalisuse konverentsidega, mis peeti 1970. aastatel). Tsitaadid on saanud otsustavaks teguriks väljaannete, toetuste andmise ja ametiajal. Järelikult, kuna rahvarohked teadusvaldkonnad tõmbavad kõige rohkem tsitaate, saab kõrge riskiga uurimuslik teadus omakorda vähem tähelepanu ja rahastamist. Ja lisaks teadlaste riskikartlikkusele aeglustavad eetikakomiteed, vastastikused eksperdihinnangud ja komisjonid nüüd teaduse arengut. See teaduslik riskikartlikkus koos bürokratiseerumise kasvuga aitab selgitada, miks teaduse tootlikkus on viimastel aastakümnetel märkimisväärselt langenud. Teadlased lihtsalt ei taha oma karjääriga riskida, et uurida mõnda radikaalselt uudset ja riskantset ideed. Pole siis üllatav, et selle aasta alguses avaldatud ulatuslik uuring kinnitas järeldust, et teaduse areng aeglustub üldiselt mitmes suuremas valdkonnas ning et dokumendid ja patendid muutuvad aja jooksul vähem häirivaks. Näiteks kulus geenide redigeerimise tehnika CRISPR äratundmiseks rohkem kui 20 aastat. Väga pikka aega ei meelitanud CRISPR-i uuringud palju tsitaate ega peaaegu üldse rahastanud. Kui palju teaduslikke läbimurdeid oleks meil võinud olla, kui teadlased ei peaks kulutama suuremat osa oma ajast nende karjääri jaoks ohutute rahastamisettepanekute kirjutamisele?
Kultuuriliselt oleme kogenud riskikartlikkust ja turvalisust peaaegu kõigis oma eluvaldkondades. Oleme lõksus ebainspireerivate järgede, eellugude ja taaskäivituste igavesse kordumisse – eranditult on eelmisel aastal kümme kõige tulusamat filmi olnud kõik järjed või taaskäivitused. Masinõppe algoritmid, mis on koolitatud Netflixi teegis varem leiduvate asjade põhjal, loovad välja valede filmide stsenaariume, popmuusika on takerdunud lõputusse korduste ja nostalgia ahelasse ning kunstis ja arhitektuuris domineerib üldine vastavus – ja kas süstal filler, mis maksab paarsada dollarit, või äpifilter, mõjutaja ja nende järgijad koonduvad nn “Instagram Face’ile”, mis on keskmise apoteoos.
Ka hariduse osas ei võta me enam reaalseid riske – ketserlikud ideed “tühitakse” ja karjerism, mis ideaalis areneb MBA-st investeerimispangaks või konsultatsioonifirmaks või viimasel ajal suureks tehnoloogiaettevõtteks, ei jäta enam ruumi. eksperimenteerimine või kõrvalekalduvad teed. Ehkki võiksime tähelepanuta jätta tõsiasja, et Spiderman või Star Wars saavad uue taaskäivituse, kuna see on ebaoluline, kuid üldine kultuur, mis ei suuda inspireerida kangelaslikku riskivõttu ja millel puudub positiivne futuristlik visioon või sõnum, põhjustab kujutlusvõime ulatuslikke ebaõnnestumisi.
Olgu selleks tuumaenergia, tehisintellekt, biotehnoloogia või mõni muu arenev tehnoloogia, kõigil neil juhtudel on ühine see, et tehnoloogilist arengut takistades on turvalisusel äärmiselt kõrge tsivilisatsiooniline alternatiivkulu. Alates tulekahjust ja trükimasinast kuni antibiootikumide ja tuumareaktoriteni on igal tehnoloogial kahesugune olemus – need hõlmavad kompromisse. Maa kandevõime inimelude jaoks on laienenud tänu tehnoloogiatele, mis on tekitanud eksistentsiaalseid riske. Süsivesinikud tõukasid meie tsivilisatsiooni, kuid aitasid kaasa kliimamuutustele; tehislämmastiku sidumine muutis lõhkeainete ja mürkgaasi valmistamise odavamaks, kuid on vajalik ka praeguse elanikkonna toitmiseks; ja roheline revolutsioon tekitab põllumajanduses monokultuuririski, kuid toidab ka miljardeid. Kui iga areneva tehnoloogia jaoks oleks kehtinud moratoorium ja eetikakomitee, oleksime suure tõenäosusega tapnud kõik edusammud selle vastse staadiumis.
“X-riskide” juhtiv pooldaja, Oxfordi filosoof Nick Bostrom, avaldas hiljuti artikli, milles käsitletakse mitut kontrafaktuaalset ja spekulatiivset tulevikku, et visandada rida poliitilisi ettekirjutusi, et hoida ära tsivilisatsiooni hävingut, mis on tingitud kiirest tehnoloogilisest kiirendusest. Nende hulka kuuluvad “tehnoloogilise arengu piiramine”, “äärmiselt tõhus ennetav politseitöö”, “tõhus globaalne juhtimine” ja “täielik järelevalve”. Siin avastame turvalisuse tumeda allhoovuse – paljudel juhtudel kujutab turvalisus lihtsalt ülalt-alla kontrolli vahendit, mis suurendab tsentraliseerimist ja, nagu Bostrom soovitab, võib isegi tuua kaasa “globaalse valitsemise”. Turvalisus mitte ainult ei muuda kontrolli tehisinseneridelt ja programmeerijatelt eetikute ja poliitikakujundajate kambale, vaid tehnoloogiaarenduse tsentraliseerimine ohutuse nimel kahjustab ka kogu kõnealust süsteemi. On täiesti selge, et paljud määrused – isegi valdkondades, mis on palju vähem keerukad kui tehisintellekt või geenitehnoloogia – ei tööta tegelikult. Seega on väga ebatõenäoline, et eetikanõukogu või reguleerijate rühm lahendab bürokraatlikult näiteks tehisintellekti ja inimväärtuste vahelise nn „joondumisprobleemi“, mis on lõpmatult keerulisem kui näiteks soopoliitika reguleerimine. avalikest vannitubadest. Poliitilised vastused, nagu keelud või moratooriumid, tapavad suure tõenäosusega kõik edusammud ja põhjustavad täpselt paigalseisu, mis on palju ohtlikum kui oletatavad riskid, mida need määrused püüavad maandada.
Vastupidiselt on safetyism ise muutunud üheks kõige olulisemaks eksistentsiaalseks riskiks, millega inimkond silmitsi seisab. Seega oleks mõistlik võtta kuulda Piibli prohvetlikku hoiatust Tessalooniklastele 5:3: „Sest kui nad ütlevad: Rahu ja ohutus! siis tabab neid äkiline häving.”
Artikli autorid: Tobias Huber ja Byrne Hobart