AI inforevolutsiooni ohud

Veiko Huuse

0 Shares
0
0

Internet on maailma suurim prügila ja on kordades kahjulikum inimrassile kui plastiku probleem looduses. Kuid plastiku probleem ja selle kahjulikkus on juba aastaid tagasi väljunud kontrolli alt, sest viimased uuringud näitavad, et inimeste veri sisaldab mikroplastikuosi ja lapsed sünnivad plastiku osakesed organismis. Artiklis ma räägin suurimast ohust – AI prügilast internetis. Google otsingust leitavast informatsioonist…..

Räägime Googlest, sest interneti info tiirleb selle ümber ja selle sees

AI inforevolutsiooni ohud

Tehisintellekt (AI) ei suuda eristada fakte fiktsioonist. Samuti ei ole see loominguline ega suuda luua uudset sisu, vaid kordab, pakib ümber ja sõnastab ümber juba öeldu (aga võib-olla ka uuel viisil).

Olen kindel, et keegi ei nõustu viimasega, viidates võib-olla tõsiasjale, et AI suudab selgelt genereerida näiteks uusi laule ja sõnu. Olen sellega nõus, kuid see läheb teemast mööda. Tehisintellekt loob “uue” lauluteksti ainult eelmiste laulusõnade andmete põhjal ja kasutab seejärel seda teavet (selles olevaid induktiivselt katmata mustreid), et luua meie arvates uus laul (ja võib väga hea lugu tulla). Samas pole selles kunstilisust, loomingulisust. See on vaid olemasoleva struktuurne ümberkujundamine.

Muidugi võime vaielda selle üle, mil määral suudavad inimesed mõelda tõeliselt uudseid mõtteid ja kas inimeste õppimine võib põhineda üksnes või peamiselt miimikal. Kuid isegi kui me nõustuksime – vaidluse huvides – sellega, et kõik, mida me teame ja teeme, on pelgalt reprodutseerimine, on inimeste võime täpselt meeles pidada ja ta teeb vigu. Täidame lüngad ka sellega, mis on subjektiivselt (mitte objektiivselt) meie jaoks mõistlik (Rorschachi test). Isegi selle väga piiratud stsenaariumi korral, millega ma ei nõustu, loovad inimesed uudsust kaugemale sellest, mida AI suudab teha.

Nii suutmatus eristada fakte väljamõeldistest kui ka induktiivne sidumine olemasolevate andmemustritega on probleemid, mida saab programmiliselt leevendada, kuid mida saab ka manipuleerida.

Manipuleerimine ja propaganda

Kui Google oma Gemini tehisintellekti veebruaris käivitas, sai kohe selgeks, et tehisintellektil on ärganud päevakord. Muu hulgas surus tehisintellekt  igasse mõeldavasse vastukajasse ärganud mitmekesisuse ideaale  ja muu hulgas keeldus näitamast pilte valgetest inimestest (sealhulgas kui paluti luua pilte järgijatest).

Tehnikaguru ja Silicon Valley investor Marc Andreessen  võttis selle X-is (endine Twitter) kokku  : “Ma tean, et seda on raske uskuda, kuid Big Tech AI loob väljundi, mida ta teeb, sest see täidab täpselt oma loojate ideoloogilist, radikaalset ja kallutatud tegevuskava. Ilmselt väljund on 100% ette nähtud (AI info on tsenseeritud ja suunatud?). See töötab nii, nagu kavandatud.”

Nendel tehisintellektidel on tõepoolest kujundus, mis ületab põhikategooriatesse jagamise ja genereerimise mootorid. Vastused ei ole täiesti induktiivsed ega generatiivsed. Osaliselt on see vajalik selleks, et tehisintellekt oleks kasulik: rakendatakse filtreid ja reegleid, mis tagavad, et tehisintellekti genereeritud vastused on asjakohased, vastavad kasutaja ootustele ning on täpsed ja lugupidavad. Arvestades õiguslikku olukorda, peavad tehisintellekti loojad ka veenduma, et tehisintellekt ei rikuks näiteks intellektuaalomandi seadusi ega tegeleks vihakõnega. Tehisintellekt on loodud (suunatud) ka nii, et see ei läheks kurjaks(tidegaks) ega solva kasutajaid (mäletate Tayt ?).

Kuna aga selliseid filtreid rakendatakse ja tehisintellekti “käitumine” on juba suunatud, on seda lihtne veidi kaugemale viia. Lõppude lõpuks, millal on vastus liiga solvav versus vähem solvav, kuid lubatud diskursuse piires? See on peen ja keeruline rida, mis tuleb programmiliselt täpsustada.

See avab ka võimaluse juhtida loodud vastuseid pelgalt kvaliteedi tagamisest kaugemale. Kui filtrid on juba paigas, on tehisintellekti lihtne panna tegema kindlat tüüpi avaldusi või tõugata kasutajat kindlas suunas (valitud faktide, tõlgenduste ja maailmavaadete osas). Seda saab kasutada ka tehisintellektile tegevuskava andmiseks, nagu Andreessen soovitab, näiteks selle halastamatult äratamiseks.

Seega saab tehisintellekti kasutada tõhusa propagandavahendina, mida on tunnustanud nii neid loovad ettevõtted kui ka neid reguleerivad valitsused ja asutused.

Väärinformatsioon ja vead

Riigite juhid on pikka aega keeldunud tunnistamast, et nad saavad propagandast kasu ja kasutavad seda oma subjektide juhtimiseks ja kontrollimiseks. See on osaliselt tingitud sellest, et nad tahavad säilitada legitiimsuse spooni demokraatlike valitsustena, mis valitsevad inimeste arvamuste (mitte kujundamise) alusel. Propagandal on halb aura – see on kontrolli vahend.

Väidetavalt mõistavad aga riigivaenlased – nii kodu- kui välismaised propaganda jõudu ega kõhkle seda kasutamast kaose tekitamiseks meie muidu rikkumata demokraatlikus ühiskonnas. Valitsus peab meid sellisest manipuleerimisest päästma, väidavad nad. Muidugi, harva piirdub see pelgalt kaitsega. Nägime seda selgelt covidi pandeemia ajal, mil valitsus koos sotsiaalmeedia ettevõtetega keelustas arvamuste avaldamise, mis ei olnud ametlik joon (vt  Murthy v. Missouri ).

Tehisintellekti on propagandaeesmärkidel sama lihtne manipuleerida kui sotsiaalmeedia algoritme, kuid lisaboonusena on see, et see ei ole ainult inimeste arvamus ja kasutajad kipuvad usaldama, et tehisintellekti raportid on tõesed.

Kui tehisintellektile saab anda korralduse mitte kommenteerida teatud asju, mida loojad (või reguleerijad) ei taha, et inimesed näeksid või õpiksid, on see tegelikult “mälu auk”. Seda tüüpi “soovimatu” teave ei levi, kuna inimesed ei puutu sellega kokku – näiteks näidatakse ainult asutajaisade erinevaid esitusi (nagu Google’i “Gemini)) või esitatakse näiteks ainult Keynesi makromajanduslikud tõed, et see näiks nagu mujal muud perspektiivi pole. Inimesed ei tea seda, mida nad ei tea.

Muidugi ei tähenda miski, et see, mida kasutajale esitatakse, on tõsi. Tegelikult ei suuda tehisintellekt ise fakte tõest eristada, vaid genereerib vastuseid ainult vastavalt suunale ja ainult selle põhjal, mida tehisintellekt on söötnud. See jätab palju ruumi tõe vääresitamiseks ja võib panna maailma otsest valet uskuma. Seetõttu saab tehisintellekti hõlpsasti kasutada kontrolli kehtestamiseks, olgu see siis riigi, tema valitsemise all olevate subjektide või isegi võõrvõimu üle.

“Tegelikult ei suuda tehisintellekt ise fakte tõest eristada ja see võib viia inimkonna täieliku hävimiseni.”

AI tõeline oht

Mis on siis tehisintellekti tegelik oht? AI ei saa areneda suurtest keelemudelitest tehisintellektiks, kuna induktiivses sõelumises läbi suurte (inimese) loodud teabe, mis tekitaks teadvuse, pole midagi. Ausalt öeldes pole me isegi aru saanud, mis on teadvus, nii et arvata, et me  selle loome (või et see tuleb kuidagi välja algoritmidest, mis avastavad olemasolevatest tekstidest statistilisi keelekorrelatsioone), on üsna hüperboolne. Üldine tehisintellekt on endiselt hüpoteetiline.

Tehisintellektil on ka majanduslik oht. See ei muuda küll inimesi majanduslikult üleliigseks, kuid põhjustab tööpuudust. Tehisintellekt on tootlik kapital, millel on seega väärtus, kuivõrd see teenib tarbijaid, aidates kaasa nende soovide rahuldamisele. Väärkasutatud tehisintellekt on sama väärtuslik kui väärkasutatud tehas – see kipub kaotama oma väärtuse. See aga ei tähenda, et tehisintellekt ei mõjuta majandust. See on ja juba on, kuid see ei ole lühiajaliselt nii suur, kui mõned kardavad, ja tõenäoliselt on see pikas perspektiivis suurem, kui me arvata oskame.

Tegelik oht on AI mõju teabele. See on osaliselt tingitud sellest, et induktsioon on sobimatu teadmiste allikas – tõde ja fakt ei ole sageduse ega statistiliste tõenäosuste küsimus. Nicolaus Copernicuse ja Galileo Galilei tõendid ja teooriad lükkasid ebatõenäolise (vale) välja tehisintellekti poolt, kes oli koolitatud kõigi tolle aja (parimate ja eredaimate) geotsentrismi käsitlevate kirjutiste põhjal. Kui usaldame ainult ajaloolisi teooriaid ja faktide esitlusi, pole edusamme ega uute tõdede õppimist.

Sellest probleemist saab aga ilmselt vähemalt mingil määral üle nutika programmeerimisega (see tähendab induktsiooniprobleemi rakendusreegleid ja faktipõhiseid piiranguid). Suurem probleem on  tehisintellekti esitletava rikutus  : desinformatsioon, desinformatsioon ja väärinformatsioon, mida selle loojad ja administraatorid, aga ka valitsused ja surverühmad suunavad seda looma avaliku arvamuse või teadmiste kontrollimise või juhtimise vahendina.

See on tõeline oht, millele viitas nüüdseks kuulus Elon Muski, Steve Wozniaki jt avatud kiri : „ Kas peaksime laskma masinatel oma teabekanalid propaganda ja ebatõega üle ujutada? Kas peaksime automatiseerima kõik tööd? Kas  me peaksime arendama mitteinimlikke mõistusi, mis võivad lõpuks arvulisemalt ületada, kavaldada, vananeda ja meid asendada? Kas  peaksime riskima kontrolli kaotamisega oma tsivilisatsiooni üle?

Välja arvatud majanduslikult kirjaoskamatu viide “kõikide töökohtade automatiseerimisele”, on hoiatus hästi vastu võetud. AI ei hakka meid vihkama ja inimkonda hävitama, nagu Terminaator. See ei muuda meid kõiki bioloogilisteks akudeks, nagu filmis  The Matrix . Siiski annab see – eriti kui see on rikutud – meid valesti teavitanud ja eksitab, tekitab kaose ja võib muuta meie elu „üksikuks, tundetuks, õnnetuks, vaeseks, vastikuks, jõhkraks ja väga lühikeseks”.

Kui usaldame ainult internetist leitud informatsiooni, ajaloolisi teooriaid ja faktide esitlusi, pole inimese arengul edusamme ega uute tõdede õppimist.

Loe lisaks:

0 Shares
You May Also Like

Tervishoiutöötajate rahvusvaheline hoiatusteade kõigile inimestele ja valitsustele kogu maailmas

Kuulus rahvusvaheline loosung: «Püsi kodus, päästa elusid» oli puhas vale. Vastupidi, sulgemine tappis mitte ainult paljusid inimesi, vaid hävitas ka füüsilise ja vaimse tervise, majanduse, hariduse ja muud eluaspektid. Näiteks on lockdown USA-s tapnud tuhandeid Alzheimeri tõvega patsiente, kes lisaks surid eemal oma perekondadest. Ühendkuningriigis tappis lockdown 21 000 inimest. Lockdown’i mõjud «on olnud absoluutselt kahjulikud. See ei päästnud inimelusid, mille kohta algselt teatati, et suudetakse päästa ... See on massihävitusrelv ja me näeme selle tervislikke ... sotsiaalseid ... majanduslikke mõjusid ... mis moodustavad tõelise teise laine» (prof Jean-François Toussaint, 24. september 2020). Selline inimeste vangistamine on inimsusevastane kuritegu, mida isegi natsid ei sooritanud!

Avalik teave üldhariduskooliga seotud inimestele

Oleme nüüdseks jõudnud olukorda, kus juba koolilapsi peetakse ohtlikuks nii neile endile, eakaaslastele kui ka neile, kes nimetavad end „täiskasvanuteks“. Märkimisväärne on siinkohal fakt, et laste ohtlikkuse nn riskifaktor rajaneb üksnes eeldusel, et nad võivad olla ohtlikud ning lähtuvalt sellest rakendatakse nende peal erinevaid „ohtlikkust ennetavaid“ meetmeid, olgu selleks siis lõputu testimine või hingamisvabaduse piiramine. Muidugi pole ükski ennetav meede saanud teaduslikku heakskiitu, vaid pigem vastupidi – häid teadusuuringuid nende usaldusväärsuse kohta napib, mis ütleb selgelt: need meetmed EI OLE põhjendatud.
Must Propaganda

Meedia – Kas tõesti inimelude hävitamise relv? Kes koolitab Meediasõdureid? Kuidas muuta meediaruum inimsõbralikuks?

Meedia omab suurt jõudu inimkonna mõjutamisel, peetakse kõige võimsamaks relvaks Maal. See artikkel ilmus esmakordselt 01.10.2022. Avaldan selle uuesti ja oluliselt täiendatud, sest maailmas toimub suur lähtestamine, inimene peab teadma, millega ja kuidas teda mõjutatakse.