Umjetna inteligencija, humanistika i budućnost
Razumijevanje utjecaja umjetne inteligencije (UI) u humanistici zahtijeva materijalističku analizu političko-ekonomskog i historijskog okvira u kojem se (svaka) tehnologija pojavljuje. Ovo pokazuje da je specifičnost tehnologije velikih jezičnih modela da generira tekst nalik ljudskom te da simulira ljudsku inteligenciju rezultat procesa automatizacije kognitivnog rada u uvjetima kapitalističke proizvodnje. I tu se smješta razlika umjetnog (generativnog) i umjetničkog (kreativnog): automatizacija kognitivnog rada je u svrhe uvećanja njegove produktivnosti i smanjenja troškova kapitalističke proizvodnje, dok se umjetnost misli, na tragu Šklovskog, kao ono što očuđava te izvodi percepciju iz automatizma. Književne i druge kreativne uporabe jezika su, utoliko, kognitivni alat koji vremenskim resursima raspolaže ekonomski neefikasno, proizvodeći „začudne“ odnosno nestandardne kognitivne efekte. Humanistiku stoga nije moguće posve podvesti pod kriterije „tržišta“. Njezina budućnost je u tome da ljude uči trudu da čitaju, pišu, misle i uvijek iznova stvaraju ono artificijelno.

Pokušao bih u ovom tekstu iznova, po tko zna koji puta, promisliti situaciju u kojoj se trenutno nalazi humanistička proizvodnja znanja.1Tekst je prilagođena i razrađena verzija izlaganja na konferenciji „Minds, Networks, Narratives“ organiziranoj povodom 90. obljetnice Odsjeka za anglistiku Filozofskog fakulteta Sveučilišta u Zagrebu i održanoj 8.-9.11.2024. A to promišljanje započet ću s karakterističnim, praktičnim problemima koje su mnoge i mnogi od nas koji se humanistikom bavimo u institucionalnom kontekstu već iskusili u učionicama. Fokusirat ću se, kao što sugerira naslov, na raspravu o tehnologiji koju iz navike zovemo umjetnom inteligencijom (UI) te ću pokušati raspraviti utjecaj koji ova tehnologija ima na epistemičke procedure i pedagoške ishode unutar onog tipa institucionalne prakse u humanistici koji se ponajprije odnosi na filološke studije, odnosno studije jezika i jezične proizvodnje, njegove društvene uloge i uporabivosti u raznim diskursima kao što su književnost, teorija, i slično.
Preciznije rečeno, pokušat ću ponuditi nacrt kritike „velikih jezičnih modela“ (VJM; Large Language Models), odnosno uporabe generativne UI kao kognitivnog alata, te ovaj nacrt na kraju kontrastirati s jednom kanonskom teorijskom opservacijom o kognitivnom potencijalu književnog diskursa i njegovim epistemičkim efektima. Ako u obzir uzmemo golemi društveni utjecaj, kao i tržišnu vrijednost, koje danas ima kompleks digitalnih tehnologija čiji su dio i veliki jezični modeli, te ako ih usporedimo s upadljivo manjim društvenim utjecajem i hipotetskom tržišnom vrijednosti onog što nazivamo književnošću, ili šire od toga – humanistikom, jasno je da će ova kritika UI biti „luzerska“, odnosno da će to biti kritika koja se uključuje u već izgubljenu bitku. No ipak. Umjesto da ovdje izvodim izlizani žanr „gutenberške elegije“ i lamentiram o kraju tiska, smrti književnosti, dominaciji digitalne tehnologije, pokušao bih ponuditi nešto drugačije. Rastežući netom prizvanu konceptualnu metaforu „kritika je rat“, predložio bih da u ovoj situaciji poraza idući potez ne bude defanzivni, već upravo suprotno, smiono napadački. Stoga, umjesto da se upustimo u sentimentalni zagovor vrijednosti književne humanistike u doba umjetne inteligencije te slijedom toga smjerno zaključimo da i u to doba, doba sofisticiranih digitalnih kognitivnih tehnologija kojima se svi divimo, književnost ipak ima još ponešto za ponuditi, predložio bih hipotezu da je književni diskurs, koji uključuje i kritički komentar, teoriju, i pisanje u širem smislu, u usporedbi s UI u mnogim područjima u kojima se ove prakse naizgled preklapaju neupitno superioran kognitivni alat.
Ovo je također tren u kojem bi bilo dobro da u raspravu uvedem iskustvo iz učionice spomenuto na početku teksta i da naglasim kako se ovakva orijentacija na kognitivnu tehnologiju, VJM-e, i generativnu UI razvila organski, kroz praksu nastave književnosti i humanističke teorije te iskustvo prikupljeno u kontekstu ove prakse. A to iskustvo je recentno, prisjetimo se samo da je najpoznatiji chatbot ChatGPT, u javnu sferu lansiran koncem 2022. godine. U mom slučaju, na Filozofskom fakultetu u Zagrebu, prvi se susret sa službeno predanim studentskim radom za koji je jasno bilo da ga je generirala UI dogodio ubrzo potom, u veljači 2023. godine. Drugim riječima, dogodio se odmah prvom prilikom koju su studenti imali da iskoriste UI za izradu pisanih radova.
Nekoliko semestara kasnije, pred ljeto 2024. godine, nakon što sam razvio i u više navrata unaprijedio naviku da upozoravam studente_ice na to da chatbotovi nisu dozvoljeni pri pisanju radova, ali još važnije, naviku da im pažnju skrećem na to da za naše svrhe generativna UI naprosto nije dobar alat, u jednom mi je od kolegija u kojima predajem, na prvoj godini studija, predano 8 radova koje su ili u potpunosti ili velikim dijelom generirali chatbotovi. To se dogodilo u kolegiju s oko 25 studenata, dakle radi se o jednoj trećini polaznika_ca. Ovaj je broj pouzdan s obzirom na to da su svi studenti i studentice koji su koristili UI to priznali nakon što sam ih izravno o tome upitao. Nakon razgovora s kolegama u Zagrebu te drugima koji predaju na sveučilištima u SAD-u, Njemačkoj i drugdje, saznao sam i da je moje iskustvo sa studentskim izbjegavanjem pisanja i spontanim pribjegavanjem generatorima teksta – pri čemu naglašavam da se radi o dvije potpuno različite prakse koje imaju i potpuno različite rezultate i posljedice – slično iskustvu drugih kolega. Ako sagledamo i činjenicu da sveučilišta diljem svijeta ubrzano uvode protokole detekcije (i sankcioniranja) radova koje je generirala UI, može se zaključiti da je to iskustvo u humanističkim studijskim programima u ovom trenutku više-manje univerzalno. Ovo potvrđuje i niz dosad o tome objavljenih tekstova, od akademskih do novinskih, kao što je npr. nedavni članak u američkom časopisu Time u kojem je o svojim borbama sa studentima, pisanjem i chatbotovima pisala jedna akademska radnica čiji je posao bio da u visokom obrazovanju predaje upravo pisanje. Naslov članka ujedno je i njegov sažetak: „Dala sam otkaz u nastavi zbog ChatGPT-ja“.2Livingstone, Victoria. “I Quit Teaching Because of ChatGPT.” Time, 30. rujan 2024., https://time.com/7026050/chatgpt-quit-teaching-ai-essay/. Pristup: 1.10.2024. Tako da mi se čini da se sa sigurnošću može ustvrditi, kada sve navedeno uzmemo u obzir, da je pojava generativne UI u kontekstu humanističkih znanosti označila još jedan kritični moment u neprekidnom nizu šire socio-ekonomski motiviranih kriza koje desetljećima određuju moderni institucionalni kontekst humanistike. (Dakako, treba spomenuti i brige vezane uz transformaciju tržišta rada u takozvanoj „jezičnoj industriji“ nakon pojave UI, tj. prevođenju sa stranih jezika, lekturi, uređivačkom radu odnosno redakturi teksta i slično, o čemu se kod nas nedavno javno govorilo i na FFZG na posebnom tematskom panelu na konferenciji povodom 90 godina Odsjeka za anglistiku, ali o čemu se već godinama govori u profesionalnim krugovima radnica_ka na takvim poslovima.) Taj kontekst uvelike doprinosi i pojavi karakterističnog pesimizma koji obilježava česte rasprave o budućnosti humanistike, u kojima se u akademskom polju i drugdje u javnoj sferi diljem svijeta govori i o padu interesa studenata i studentica za humanističke studije, društvenoj marginalizaciji humanističkog znanja, korporatizaciji sveučilišta, komodifikaciji znanja, i slično. Nije mi cilj upuštati se u detaljniju razradu ovih dobro poznatih problema, ali iskoristio bih priliku da naglasim da ih je nemoguće razumjeti ostanemo li u okviru humanističke ideološke dominante, odnosno ako o njima govorimo u maglovitom prostoru bestjelesnih vrijednosti i estetike, bez konceptualno jasne materijalističke analize političko-ekonomskog okvira u kojem se pojavljuju.
No vratimo se na užu temu. Želimo li pronaći neki orijentir u ovako anksioznom kontekstu, čini mi se da je važno da započnemo tako da steknemo jasno razumijevanje kognitivne tehnologije koju nazivamo umjetnom inteligencijom. Kada god se o njoj govori s kritičkom namjerom, pojavljuje se implicitno razumijevanje, gotovo intuitivno, da postoji neka radikalna nekompatibilnost između te vrste tehnologije i tradicionalnih protokola u humanističkoj proizvodnji znanja, odnosno da u okviru (fundamentalne) humanistike nema mnogo mjesta za UI. Bez jasnog odgovora na pitanje o tome od čega se sastoji ta nekompatibilnost razvija se nervozan strah i aktivira apokaliptičan imaginarij rata ljudi protiv robota koji tehnologiji pripisuje autonomiju i magična svojstva. Iz takve pozicije nemoguće je ponuditi konkretan i uvjerljiv odgovor na pitanje zašto naprosto ne bismo dopustili studentima da svoje radove generiraju uz pomoć chatbotova, kao i na ono zašto onda ne bismo također te radove i ocjenjivali uz pomoć istih chatbotova. Očigledno je da bi tako nešto bilo organizacijski i ekonomski racionalno, odnosno da bi takva odluka svakako svima uštedjela veliku količinu vremena, truda i frustracije. Pa onda zaista, zašto to ne napraviti?
Ponudit ću jedan mogući odgovor na ta pitanja, no prije toga su nam potrebna dva međukoraka: najprije tehnička definicija UI razvijene na temelju velikih jezičnih modela, pa zatim shvaćanje da tehnologiju, svaku tehnologiju, moramo promišljati historijski, odnosno da bi svrhu za koju je ta tehnologija osmišljena ili svrhu za koju može biti primijenjena trebalo misliti i razumjeti u odnosu na logiku društvenih odnosa u sklopu kojih ta tehnologija nastaje, a koja je na razne načine neizbježno upisana u samu formu te tehnologije.
Krenimo onda od prvog spomenutog međukoraka, odnosno od tehničke definicije. Ponudit ću ovdje dvije, od kojih sam prvu dobio izravno od ChatGPT-ja. Na pitanje „što su veliki jezični modeli“, postavljeno na engleskom jeziku, chatbot je započeo svoj odgovor sljedećom rečenicom koju ovdje prevodim na hrvatski:„Veliki jezični modeli su vrsta modela umjetne inteligencije koji je konstruiran kako bi na bazi ogromnih količina jezičnih podataka razumio i generirao tekst nalik ljudskom.“ No, ova je definicija netočna i ozbiljno iskrivljuje istinu, što postaje jasno pogledamo li kako velike jezične modele definira skupina američkih računalnih lingvistkinja u sada već slavnom, ili na jeziku komercijalnih medija – „kontroverznom“, znanstvenom članku iz 2021. godine. Lingvistkinje (Emily Bender, Timnit Gebru, Angelina McMillan-Major i Margaret Mitchell) u spomenutom članku opisuju kako funkcioniraju veliki jezični modeli te ih imenuju sintagmom „stohastičke papige“. U konkretnijem i razrađenijem opisu koji ovdje prevodim, autorice pišu kako termin veliki jezični modeli označava „sisteme koji su obučeni na zadacima predviđanja nizova: drugim riječima, predviđaju vjerojatnost pojavljivanja nekog tokena (znaka, riječi ili niza) s obzirom na kontekst koji mu prethodi ili (u dvosmjernom i maskiranom jezičnom modeliranju) na kontekst koji ga okružuje. Takvi sistemi nisu nadzirani i kada ih se pokrene, kao ulaznu informaciju [input] primaju tekst, a često kao izlazni rezultat [output] nude procjene ili predikcije nizova.“3Bender et al. „On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” FAccT ’21: Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency. 610-623, 2021, https://dl.acm.org/doi/pdf/10.1145/3442188.3445922, pristup: 1.10.2024., prevedeni citat na str. 611 U istom članku autorice ističu da je „jezični model sistem koji služi tome da nasumično spaja sekvence jezičnih formi koje je zapazio u golemoj količini podataka na kojima je obučen, i to na osnovu probabilističkih informacija o tome kako se one međusobno povezuju, no bez da u obzir uzme značenje: to je stohastička papiga.“4Isto, prevedeni citat na str. 617.
Možda i presudan uvid koji nudi ova formulacija jest onaj da UI generira tekst „bez da u obzir uzme značenje“ ili, barem, ono što ljudi podrazumijevaju kao značenje – društvenu simbolizaciju utjelovljenog iskustva svijeta u kojem žive. Tako da možemo reći da je „autorefleksija“, odnosno definicija VJM-a, koju nam je ponudio ChatGPT varljiva zbog toga što chatbot tvrdi da je „konstruiran da razumije“ tekst, ili jezik, iako se zapravo ništa od toga razumijevanja uopće ne treba ostvariti kako bi uspješno generirao diskurs nalik ljudskom. Ova mašina radi prema principu statističke vjerojatnosti koji je posve formalan i kvantitativan (te može kao takav biti ustanovljen isključivo a posteriori, dakle reproduktivan je i nema istinsku generativnu, kvalitativnu i kreativnu dimenziju). Značenje je doslovce nusprodukt koji se pojavljuje isključivo za korisnika u interakciji s mašinom, ali ne i za samu mašinu, njegov je stvarni output matematiziran, ništa doli „procjena ili predikcija nizova“, kao što navodi grupa lingvistkinja u spomenutom članku.
Ovo se u aktualnom javnom govoru o UI vrlo često previđa i korisnici pogrešno zamjenjuju interakciju sa zamršenom statističkom mašinom za interakciju s utjelovljenim umom koji u iskustvenom odnosu sa svijetom pokušava, u neku historijsku svrhu, proizvesti smisao. No kakav god smisao za korisnika proizvodi mašina, kakvo god značenje, ona ga proizvodi u formi koja je statistički najvjerojatnija, dakle reproducira ga formalno, poput papige, onakvog kakvo se već pojavilo. Ili drugim riječima – ovo je mašina za proizvodnju onog smisla koji susrećemo najčešće. Mašina koja proizvodi klišeje.
Ovo nije samo estetski sud, već društveno-politički problem. Kao što Bender et al. navode u članku koji sam citirao, u procesu razvoja velikih jezičnih modela na djelu je tendencija da „podaci na kojima [ih] se obučava i koji su usisani s Interneta sadržavaju hegemonijske svjetonazore, tendencija jezičnih modela da pojačavaju pristranost [bias] i ostale probleme s podacima na kojima su obučeni, kao i tendencija istraživača_ica i ostalih da pogrešno shvate poboljšanja u izvedbi ostvarena uz pomoć jezičnih modela kao stvarno razumijevanje prirodnog jezika“, pri čemu ovakvo stanje stvari „predstavlja rizik da se uporabom ovih tehnologija počini šteta u stvarnom svijetu.“5Isto, prevedeni citat na str. 616. (616) Skrenuo bih pažnju na termine „pristranost“ (bias) i „svjetonazor“ koji koriste Bender et al., a koji su zbog različitih razloga problematični. Prvi pojam – pristranost/bias – zbog svog formalizma sugerira neku vrstu jednostavne, dvodimenzionalne pogreške. Pristran je onaj tko suviše naginje na jednu stranu pa ako ga ispravimo, malo povučemo u suprotnu stranu, sve će biti dobro i pristranost nestaje u istini poravnate neutralnosti. Drugi pojam, svjetonazor, podrazumijeva zaokruženu, odvagnutu, promišljenu poziciju te s time također i karakterističan subjekt kojem takav svjetonazor pripada, a koji je konstituiran u svojoj sličnoj zaokruženosti i neproturječnosti. Naravno, svaka osjetljivija epistemologija i psihologija, prva osjetljiva na konstitutivnu društvenost i historijsku uvjetovanost znanja, a druga osjetljiva na konstitutivnu podijeljenost subjekta i njegovu razapetost između proturječnih silnica nad kojima nema potpunu kontrolu, ukazuje na to da stvari ne funkcioniraju tako jednostavno. Nasuprot pojmova kojima se služe Bender et al., mislim da bi puno bolji pojam – u stanju da zamijeni, a istovremeno i uključi i pristranost i svjetonazor – bila dobra stara ideologija. (Ideologija mišljena u Althusserovoj klasičnoj definiciji kao „’predstava’ imaginarnog odnosa pojedinaca spram njihovih stvarnih uvjeta egzistencije.“)6Althusser, Louis. “Ideologija i ideološki aparati Države (bilješke za istraživanje).” prev. Ozren Pupovac, Arkzin, 2018., str. 108 Stoga, ako iskoristimo ovaj pojam umjesto pojmova pristranost ili svjetonazor, i prisjetimo se da je izlazni rezultat ili output djelovanja neke generativne UI u osnovi reprodukcija jezičnih formi za koje je statistički najvjerojatnije da će se pojaviti (prema statističkom izračunu zasnovanom na nefiltriranom korpusu raznorodnih iskaza s „čitavog interneta“ na kojem je UI uz ljudsku intervenciju obučena da razdvaja ispravno i iskustveno prepoznatljivo od neispravnog i iskustveno neprepoznatljivog), ne bi bilo sasvim pogrešno reći da se radi o mašini za reprodukciju dominantne ideologije.
Drugi od najavljena dva međukoraka, nakon kritičke obrade tehničke definicije, sastoji se od poziva da se ova tehnologija misli historijski, odnosno da razumjeti čemu ona služi i kakve učinke proizvodi znači da je potrebno proučiti njenu genealogiju, analizirati društvenu motivaciju za njenu konstrukciju, kao i uporabni kontekst koji je za tehnologiju zamišljen u procesu njena razvoja. Ovo je presudno budući da je logika funkcioniranja neke tehnologije, njena forma, velikim dijelom određena (i omeđena) potrebama koje nastaju u društveno-povijesnim okolnostima unutar kojih je razvijena. Isti ovaj argument, poduprt temeljitim historiografskim radom i mnoštvom konkretnih detalja, nudi talijanski filozof znanosti Matteo Pasquinelli u knjizi izdanoj 2023. godine pod naslovom Oko gospodara: Društvena povijest umjetne inteligencije (The Eye of the Master: A Social History of Artificial Intelligence)7Pasquinelli, Matteo. The Eye of the Master: A Social History of Artificial Intelligence. Verso, 2023. U toj knjizi autor rekonstruira dugu povijest razvoja suvremene UI, od matematičkih algoritama korištenih za organizaciju kolektivnih praksi i rituala u davnoj prošlosti, preko matematičkih tehnika koje su olakšavale trgovinu u srednjem vijeku i ranom modernitetu, do računalnih strojeva industrijskog 19. stoljeća, pa sve do modeliranja ljudskog mozga i generativne UI u 20. i 21. stoljeću. Pasquianellijeva ključna teza jest da generativna UI, kao i svaka druga tehnologija, integrira i u svojoj strukturi odražava društvene odnose i forme organizacije rada karakteristične za društveno-povijesni kontekst u kojem je nastala.
Ovo naravno određuje i ono što se može nazvati – da se poslužimo izrazom poznatijim u psihologiji i teoriji dizajna – njenom „afordancom“, odnosno određuje svrhu za koju se tehnologija nadaje, za koju se nudi na korištenje s obzirom na to kako je oblikovana. Prema tome, tehnološka „afordanca“ tehnologije velikih jezičnih modela, specifičnosti njene sposobnosti „generiranja teksta nalik ljudskom“ i simulacije ljudske inteligencije, u osnovi su rezultat procesa automatizacije kognitivnog rada u uvjetima kapitalističke proizvodnje. Kao što pokazuje Pasquianelli, ova tehnologija razvijena je u današnjem obliku složene statističke mašine iz znanja prikupljenih i tehnika razvijenih kroz psihometrijske inicijative provođene u svrhe organizacije i podjele rada te kroz pokušaje kvantifikacije društvenih ponašanja u 20. stoljeću, pri čemu su ta znanja i tehnike korišteni za optimizaciju kapitalističke proizvodnje te upravljanje (discipliniranje i kontrolu nad) takozvanim „ljudskim resursima“.
Forma automatizacije kognitivnog rada koju zovemo umjetnom inteligencijom u svojoj strukturi zadržava određene aspekte i pristupe ovih ranijih tehnika. Ako to postavimo još konkretnije, to znači da je funkcioniranje velikih jezičnih modela ‒ odnosno vrste outputa koje su u stanju proizvesti i za koje su konstruirani ‒ utemeljeno na principima proizvodnje karakterističnima za kapital: a to su efikasnost, shvaćena kao funkcija vremena, standardizacija outputa i automatizacija rada. Ako promislimo što ove karakteristike mogu značiti za jezik i protokole proizvodnje smisla koje susrećemo u interakciji s generativnom UI te kakav trag one u njima ostavljaju, lako je uvidjeti da su dojam uhodane sterilnosti koji odaje jezična proizvodnja chatbotova, usmjerenost njihova jezika na denotativno značenje i referencijalnu jezičnu funkciju, linearni diskurs koji uklanja dvosmislenost, dijalektiku, kontradikciju i slično, fenomeni koji se ne pojavljuju zbog podrazvijenosti ove nove i fascinantne tehnologije, već fenomeni koji su imanentni njenoj strukturi.
Takva jezična proizvodnja, dakle, nije bug već je feature generativne UI te se radi o posljedici činjenice da je ova tehnologija konstruirana kao mašina za automatizaciju kognitivnog rada, odnosno za to da bi povećala njegovu produktivnost i smanjila troškove kapitalističke proizvodnje.
Dakle, možemo sada sumirati uvide o tome kakvi su kognitivni alati veliki jezični modeli: ovo su efikasni alati za automatizaciju kognitivnog rada koji u standardiziranoj jezičnoj formi emuliraju statistički modeliran proces ljudskog mišljenja. Usporedimo to konačno s najavljenom kanonskom teoretizacijom književnog, odnosno umjetničkog, jezika kao kognitivnog alata (ova bi se teoretizacija u širem smislu mogla shvatiti naprosto kao teoretizacija kreativne uporabe jezika). Viktor Šklovski, u svojem izuzetnom i iznimno utjecajnom eseju „Umjetnost kao postupak“, objavljenom oko 1917. godine, piše sljedeće:
<blockquote>„umjetnički je postupak – postupak ‘začudnosti’ stvari (ostranenie veščej) i postupak oteščale forme, koji povećava teškoću i dužinu percepcije jer je perceptivni proces u umjetnosti sâm sebi svrha i treba da bude produljen […]“8Šklovski, Viktor Borisovič. “Umjetnost kao postupak.” Uskrsnuće riječi, izbor i prijevod. Juraj Bedenicki, Stvarnost, 1969., str. 43</blockquote>
Šklovski dodaje i kako je „[ono umjetničko] stvoreno posebno za to da se percepcija izvede iz automatizma“ te da u njemu „ono ‘umjetno’ stvoreno jest takvo da se opažaj na njemu zaustavi i dostigne što veću snagu i trajnost.“9Isto, str. 49 Drugim riječima, Šklovski književni tekst (kreativnu uporabu jezika) shvaća kao kognitivni alat koji vremenom raspolaže ekonomski neefikasno, rasipa taj „resurs“, te pomaže da se proizvedu, uz input produljenog perceptivnog truda, „začudni“, odnosno nestandardni kognitivni efekti. Svaka takva uporaba, svako pisanje, prema protokolima komunikacije u javnoj sferi, zahtijeva i svoje čitanje, pa možemo ovome pridružiti i razne oblike interpretativnog angažmana s nekim (u potencijalu) kreativnim jezičnim outputom, od prevođenja do komentara i kritike, te ustvrditi da se taj dodatni angažman prakticira kako bi se tu istu neefikasnost pojačalo do ekstrema – kroz sekundarni rad na nekom jezičnom outputu, tekstu, kroz njegovo pomno čitanje i kritičko preispisivanje, u osnovi se osigurava da će se potrošiti što je više moguće, ili u najboljem slučaju dovoljno, vremena na razradu i kontemplaciju neobičnih kognitivnih efekata koje je primarni tekst izazvao (ili nije uspio izazvati).
Jasno je da se u slučaju umjetničkog ili kreativnog jezika kako ga shvaća Šklovski radi o kognitivnom alatu čija je svrha gotovo posve suprotna od one za koju smo ustanovili da je svrha generativne UI. (Kao što je jasno da je upravo zbog toga nemoguće posve opravdati postojanje npr. studija književnosti, a i šire shvaćenog humanističkog obrazovanja, prema kriterijima koje postavlja „tržište“, odnosno kapitalistička proizvodnja i akumulacija vrijednosti.) Tako da se postavljaju sljedeća pitanja: kakve su epistemičke, kakve kognitivne, kakve pedagoške, pa onda i šire društvene posljedice nekritičke uporabe tih mašina u nesrodnom kontekstu humanistike? Kakve su posljedice medijacije kompleksne interakcije pisca, čitatelja i teksta, čovjeka i jezika, kroz chatbotove, odnosno posljedice zamjene imperativa pisanja teksta njegovim generiranjem?
Bilo bi u ovom kontekstu pogrešno nasjesti na odgovor koji se naizgled sam nudi, promrmljati: „Strašne!“, i ponuditi banalnu dihotomiju „UI je loša, književnost je dobra“. Ili brzopleto pomisliti da iz gornje analize slijedi da generiranjem teksta reproduciramo čistu dominantnu ideologiju, dok njegovim pisanjem, nasuprot tome, nužno dobivamo blistavi dijamant teorijskog ili estetskog uvida koji zarezuje do kosti istine. Ako želimo biti iskreni i autorefleksivni, potrebno je priznati da ljudi uronjeni u svakodnevicu svojih društveno-povijesnih odnosa također najčešće funkcioniraju vrlo slično chatbotovima – kao mašine za reprodukciju dominantne ideologije u statistički čestim jezičnim formama.
Nasuprot tome, za stvaranje alternativnih formi i s time neuobičajenih, drugačijih, novih modusa odnošenja prema svijetu, kao što napominje Šklovski, potreban je trud – to je posao koji traje dugo, nije spontan niti prirodan. No ipak, nužan je da bismo, umjesto da ostanemo chatbotovi, mogli stremiti tome da postanemo ljudi. Iz ovoga slijedi jedan začudan pedagoški uvid: ako želimo ljude koji nisu chatbotovi, moramo ih učiti trudu da čitaju i da pišu, da misle ili, drugim riječima, da uvijek iznova žude za onim što je neprirodno.
Tekst je financiran sredstvima Fonda za poticanje pluralizma i raznovrsnosti elektroničkih medija Agencije za elektroničke medije za 2024. godinu.