Internet on maailma suurim prügila ja on kordades kahjulikum inimrassile kui plastiku probleem looduses. Kuid plastiku probleem ja selle kahjulikkus on juba aastaid tagasi väljunud kontrolli alt, sest viimased uuringud näitavad, et inimeste veri sisaldab mikroplastikuosi ja lapsed sünnivad plastiku osakesed organismis. Artiklis ma räägin suurimast ohust – AI prügilast internetis. Google otsingust leitavast informatsioonist…..
Räägime Googlest, sest interneti info tiirleb selle ümber ja selle sees
AI inforevolutsiooni ohud
Tehisintellekt (AI) ei suuda eristada fakte fiktsioonist. Samuti ei ole see loominguline ega suuda luua uudset sisu, vaid kordab, pakib ümber ja sõnastab ümber juba öeldu (aga võib-olla ka uuel viisil).
Olen kindel, et keegi ei nõustu viimasega, viidates võib-olla tõsiasjale, et AI suudab selgelt genereerida näiteks uusi laule ja sõnu. Olen sellega nõus, kuid see läheb teemast mööda. Tehisintellekt loob “uue” lauluteksti ainult eelmiste laulusõnade andmete põhjal ja kasutab seejärel seda teavet (selles olevaid induktiivselt katmata mustreid), et luua meie arvates uus laul (ja võib väga hea lugu tulla). Samas pole selles kunstilisust, loomingulisust. See on vaid olemasoleva struktuurne ümberkujundamine.
Muidugi võime vaielda selle üle, mil määral suudavad inimesed mõelda tõeliselt uudseid mõtteid ja kas inimeste õppimine võib põhineda üksnes või peamiselt miimikal. Kuid isegi kui me nõustuksime – vaidluse huvides – sellega, et kõik, mida me teame ja teeme, on pelgalt reprodutseerimine, on inimeste võime täpselt meeles pidada ja ta teeb vigu. Täidame lüngad ka sellega, mis on subjektiivselt (mitte objektiivselt) meie jaoks mõistlik (Rorschachi test). Isegi selle väga piiratud stsenaariumi korral, millega ma ei nõustu, loovad inimesed uudsust kaugemale sellest, mida AI suudab teha.
Nii suutmatus eristada fakte väljamõeldistest kui ka induktiivne sidumine olemasolevate andmemustritega on probleemid, mida saab programmiliselt leevendada, kuid mida saab ka manipuleerida.
Manipuleerimine ja propaganda
Kui Google oma Gemini tehisintellekti veebruaris käivitas, sai kohe selgeks, et tehisintellektil on ärganud päevakord. Muu hulgas surus tehisintellekt igasse mõeldavasse vastukajasse ärganud mitmekesisuse ideaale ja muu hulgas keeldus näitamast pilte valgetest inimestest (sealhulgas kui paluti luua pilte järgijatest).
Tehnikaguru ja Silicon Valley investor Marc Andreessen võttis selle X-is (endine Twitter) kokku : “Ma tean, et seda on raske uskuda, kuid Big Tech AI loob väljundi, mida ta teeb, sest see täidab täpselt oma loojate ideoloogilist, radikaalset ja kallutatud tegevuskava. Ilmselt väljund on 100% ette nähtud (AI info on tsenseeritud ja suunatud?). See töötab nii, nagu kavandatud.”
Nendel tehisintellektidel on tõepoolest kujundus, mis ületab põhikategooriatesse jagamise ja genereerimise mootorid. Vastused ei ole täiesti induktiivsed ega generatiivsed. Osaliselt on see vajalik selleks, et tehisintellekt oleks kasulik: rakendatakse filtreid ja reegleid, mis tagavad, et tehisintellekti genereeritud vastused on asjakohased, vastavad kasutaja ootustele ning on täpsed ja lugupidavad. Arvestades õiguslikku olukorda, peavad tehisintellekti loojad ka veenduma, et tehisintellekt ei rikuks näiteks intellektuaalomandi seadusi ega tegeleks vihakõnega. Tehisintellekt on loodud (suunatud) ka nii, et see ei läheks kurjaks(tidegaks) ega solva kasutajaid (mäletate Tayt ?).
Kuna aga selliseid filtreid rakendatakse ja tehisintellekti “käitumine” on juba suunatud, on seda lihtne veidi kaugemale viia. Lõppude lõpuks, millal on vastus liiga solvav versus vähem solvav, kuid lubatud diskursuse piires? See on peen ja keeruline rida, mis tuleb programmiliselt täpsustada.
See avab ka võimaluse juhtida loodud vastuseid pelgalt kvaliteedi tagamisest kaugemale. Kui filtrid on juba paigas, on tehisintellekti lihtne panna tegema kindlat tüüpi avaldusi või tõugata kasutajat kindlas suunas (valitud faktide, tõlgenduste ja maailmavaadete osas). Seda saab kasutada ka tehisintellektile tegevuskava andmiseks, nagu Andreessen soovitab, näiteks selle halastamatult äratamiseks.
Seega saab tehisintellekti kasutada tõhusa propagandavahendina, mida on tunnustanud nii neid loovad ettevõtted kui ka neid reguleerivad valitsused ja asutused.
Väärinformatsioon ja vead
Riigite juhid on pikka aega keeldunud tunnistamast, et nad saavad propagandast kasu ja kasutavad seda oma subjektide juhtimiseks ja kontrollimiseks. See on osaliselt tingitud sellest, et nad tahavad säilitada legitiimsuse spooni demokraatlike valitsustena, mis valitsevad inimeste arvamuste (mitte kujundamise) alusel. Propagandal on halb aura – see on kontrolli vahend.
Väidetavalt mõistavad aga riigivaenlased – nii kodu- kui välismaised propaganda jõudu ega kõhkle seda kasutamast kaose tekitamiseks meie muidu rikkumata demokraatlikus ühiskonnas. Valitsus peab meid sellisest manipuleerimisest päästma, väidavad nad. Muidugi, harva piirdub see pelgalt kaitsega. Nägime seda selgelt covidi pandeemia ajal, mil valitsus koos sotsiaalmeedia ettevõtetega keelustas arvamuste avaldamise, mis ei olnud ametlik joon (vt Murthy v. Missouri ).
Tehisintellekti on propagandaeesmärkidel sama lihtne manipuleerida kui sotsiaalmeedia algoritme, kuid lisaboonusena on see, et see ei ole ainult inimeste arvamus ja kasutajad kipuvad usaldama, et tehisintellekti raportid on tõesed.
Kui tehisintellektile saab anda korralduse mitte kommenteerida teatud asju, mida loojad (või reguleerijad) ei taha, et inimesed näeksid või õpiksid, on see tegelikult “mälu auk”. Seda tüüpi “soovimatu” teave ei levi, kuna inimesed ei puutu sellega kokku – näiteks näidatakse ainult asutajaisade erinevaid esitusi (nagu Google’i “Gemini)) või esitatakse näiteks ainult Keynesi makromajanduslikud tõed, et see näiks nagu mujal muud perspektiivi pole. Inimesed ei tea seda, mida nad ei tea.
Muidugi ei tähenda miski, et see, mida kasutajale esitatakse, on tõsi. Tegelikult ei suuda tehisintellekt ise fakte tõest eristada, vaid genereerib vastuseid ainult vastavalt suunale ja ainult selle põhjal, mida tehisintellekt on söötnud. See jätab palju ruumi tõe vääresitamiseks ja võib panna maailma otsest valet uskuma. Seetõttu saab tehisintellekti hõlpsasti kasutada kontrolli kehtestamiseks, olgu see siis riigi, tema valitsemise all olevate subjektide või isegi võõrvõimu üle.
“Tegelikult ei suuda tehisintellekt ise fakte tõest eristada ja see võib viia inimkonna täieliku hävimiseni.”
AI tõeline oht
Mis on siis tehisintellekti tegelik oht? AI ei saa areneda suurtest keelemudelitest tehisintellektiks, kuna induktiivses sõelumises läbi suurte (inimese) loodud teabe, mis tekitaks teadvuse, pole midagi. Ausalt öeldes pole me isegi aru saanud, mis on teadvus, nii et arvata, et me selle loome (või et see tuleb kuidagi välja algoritmidest, mis avastavad olemasolevatest tekstidest statistilisi keelekorrelatsioone), on üsna hüperboolne. Üldine tehisintellekt on endiselt hüpoteetiline.
Tehisintellektil on ka majanduslik oht. See ei muuda küll inimesi majanduslikult üleliigseks, kuid põhjustab tööpuudust. Tehisintellekt on tootlik kapital, millel on seega väärtus, kuivõrd see teenib tarbijaid, aidates kaasa nende soovide rahuldamisele. Väärkasutatud tehisintellekt on sama väärtuslik kui väärkasutatud tehas – see kipub kaotama oma väärtuse. See aga ei tähenda, et tehisintellekt ei mõjuta majandust. See on ja juba on, kuid see ei ole lühiajaliselt nii suur, kui mõned kardavad, ja tõenäoliselt on see pikas perspektiivis suurem, kui me arvata oskame.
Tegelik oht on AI mõju teabele. See on osaliselt tingitud sellest, et induktsioon on sobimatu teadmiste allikas – tõde ja fakt ei ole sageduse ega statistiliste tõenäosuste küsimus. Nicolaus Copernicuse ja Galileo Galilei tõendid ja teooriad lükkasid ebatõenäolise (vale) välja tehisintellekti poolt, kes oli koolitatud kõigi tolle aja (parimate ja eredaimate) geotsentrismi käsitlevate kirjutiste põhjal. Kui usaldame ainult ajaloolisi teooriaid ja faktide esitlusi, pole edusamme ega uute tõdede õppimist.
Sellest probleemist saab aga ilmselt vähemalt mingil määral üle nutika programmeerimisega (see tähendab induktsiooniprobleemi rakendusreegleid ja faktipõhiseid piiranguid). Suurem probleem on tehisintellekti esitletava rikutus : desinformatsioon, desinformatsioon ja väärinformatsioon, mida selle loojad ja administraatorid, aga ka valitsused ja surverühmad suunavad seda looma avaliku arvamuse või teadmiste kontrollimise või juhtimise vahendina.
See on tõeline oht, millele viitas nüüdseks kuulus Elon Muski, Steve Wozniaki jt avatud kiri : „ Kas peaksime laskma masinatel oma teabekanalid propaganda ja ebatõega üle ujutada? Kas peaksime automatiseerima kõik tööd? Kas me peaksime arendama mitteinimlikke mõistusi, mis võivad lõpuks arvulisemalt ületada, kavaldada, vananeda ja meid asendada? Kas peaksime riskima kontrolli kaotamisega oma tsivilisatsiooni üle?“
Välja arvatud majanduslikult kirjaoskamatu viide “kõikide töökohtade automatiseerimisele”, on hoiatus hästi vastu võetud. AI ei hakka meid vihkama ja inimkonda hävitama, nagu Terminaator. See ei muuda meid kõiki bioloogilisteks akudeks, nagu filmis The Matrix . Siiski annab see – eriti kui see on rikutud – meid valesti teavitanud ja eksitab, tekitab kaose ja võib muuta meie elu „üksikuks, tundetuks, õnnetuks, vaeseks, vastikuks, jõhkraks ja väga lühikeseks”.
“Kui usaldame ainult internetist leitud informatsiooni, ajaloolisi teooriaid ja faktide esitlusi, pole inimese arengul edusamme ega uute tõdede õppimist.“
Loe lisaks: