Pitanje „Što nije u redu s ljudima?” često odražava duboku frustraciju ponašanjima i društvenim ishodima koje percipiramo kao iracionalne, štetne ili kontraproduktivne. Premješteno u domenu epistemologije – filozofskog proučavanja znanja – ovo pitanje evoluira u fundamentalniju istragu: „Zašto vjerujemo u ono u što vjerujemo, posebno kada su ta uvjerenja pogrešna, neutemeljena ili vode štetnim posljedicama?” Suvremeno doba predstavlja intrigantan paradoks: živimo u eri bez presedana u pristupu informacijama, alatima za njihovu obradu (poput umjetne inteligencije) i mogućnostima za učenje, no istovremeno svjedočimo alarmantnim simptomima intelektualne stagnacije, erozije kritičkog mišljenja, rastuće polarizacije i, kako neki kritičari tvrde, opadanja duboke kreativnosti unutar zapadne civilizacije. Tehnologija, koja posjeduje potencijal za osnaživanje ljudske misli, pod određenim okolnostima može postati katalizator intelektualne letargije, posebno kada se udruži s inherentnom ljudskom sklonošću prema kognitivnom komforu i izbjegavanju mentalne nelagode.
Suvremeno društvo nalazi se na složenom epistemiološkom raskrižju. Načini na koje oblikujemo uvjerenja, procjenjujemo dokaze, vjerujemo izvorima, dijelimo informacije i surađujemo s tehnologijom prolaze kroz dramatične transformacije. Ove promjene nisu potaknute samo brzim razvojem tehnologija poput interneta, društvenih medija i sveprisutne umjetne inteligencije (UI) (npr. Sarkissian, 2025.), već su duboko isprepletene s fundamentalnim aspektima ljudske prirode i prevladavajućim kulturnim vrijednostima koje često favoriziraju brzinu, učinkovitost i instantno zadovoljstvo nauštrb dubine, truda i tolerancije na frustraciju. Naše kognitivne arhitekture sa svojim inherentnim pristranostima, naša duboka socijalna dinamika vođena potrebom za pripadanjem i statusom te naše evolucijsko nasljeđe neprestano stupaju u interakciju s modernim, tehnološki zasićenim okruženjem. Algoritmi koji personaliziraju naš informacijski protok mogu nas, nenamjerno ili namjerno, zatvoriti u „epistemološke mjehure” – filtrirane stvarnosti koje primarno potvrđuju naša postojeća uvjerenja i nude nam „sintetizirani”, često površni sadržaj, lišen poticajnih kontradikcija i intelektualnih izazova (usp. Tucker i sur., 2018.). Komfor boravka unutar takvog mjehura, zaštićenog od kognitivne disonance i nelagode nesigurnosti, prijeti ugušiti intrinzičnu ljudsku znatiželju i erodirati sposobnost kritičkog razmišljanja – temelja istinske kreativnosti i inovacije. Ljudsko ponašanje, uključujući i ono epistemičko, uvijek je rezultat složene interakcije bioloških, psiholoških i sociokulturnih faktora (usp. StatPearls, n.d.).
Ovaj članak teži pružiti sveobuhvatan pregled ovih epistemičkih izazova, integrirajući spoznaje iz kognitivne psihologije, sociologije, evolucijske psihologije i filozofije s analizom specifičnih tehnoloških rizika. Istaknut ćemo kako inherentne kognitivne pristranosti sustavno iskrivljuju naše prosuđivanje (npr. Cherry, 2023.; Stangor i Walinga, n.d.). Istražit ćemo kako nas naša društvena priroda čini podložnima konformizmu i utjecaju statusnih hijerarhija, što oblikuje prihvaćanje znanja i može dovesti do epistemičke nepravde (vidi npr. Bidwell, 2024.; McGinn, 2025.). Analizirat ćemo kako tehnologija, posebice UI i internetske platforme, djeluje kao snažan katalizator i pojačivač ovih tendencija, uvodeći rizike poput degradacije znanja UI-ja kroz rekurzivnu obuku (npr. Shumailov i sur., 2023.; Gerstgrasser i sur., 2024.), fenomena pasivnog oslanjanja na UI poznatog kao „zaspati za volanom” (Dell’Acqua, 2023., neobjavljeni rukopis) i širenja dezinformacija (npr. Tucker i sur., 2018.). Razmotrit ćemo manifestacije ovih problema u suvremenim fenomenima poput političke polarizacije, klimatske neaktivnosti te argumente o kulturnoj atrofiji, intelektualnoj ovisnosti i gubitku društvene otpornosti. Ponudit ćemo sintetički pogled na potencijalne puteve prema naprijed, naglašavajući potrebu za odbacivanjem zavodljivog, ali opasnog „komfora zablude” i ponovnim prihvaćanjem intelektualnog izazova kao nužnog preduvjeta za epistemički i kulturni preporod. Razumijevanje „što nije u redu” s našim epistemičkim praksama zahtijeva višeslojnu analizu koja povezuje individualni um, društvene strukture, tehnološki kontekst i dominantne kulturne vrijednosti.
Značajan dio problema u ljudskom vjerovanju i odlučivanju ne proizlazi nužno iz zlobe, nedostatka inteligencije ili pukog neznanja, već iz same inherentne arhitekture našeg kognitivnog sustava. Ljudska kognicija, oblikovana evolucijom za brzo snalaženje u kompleksnom svijetu, podložna je sustavnim odstupanjima od normi logičkog zaključivanja i objektivne racionalnosti. Ovi obrasci pogrešaka poznati su kao kognitivne pristranosti (vidi i Sellier i sur., 2023.).
Priroda kognitivnih pristranosti
Kognitivne pristranosti definiraju se kao sustavni, ponavljajući obrasci devijacije od norme ili racionalnosti u prosuđivanju (Cherry, 2023.). One predstavljaju greške u mišljenju koje se javljaju kada pojedinci procesiraju i interpretiraju informacije iz okoline, što neizbježno utječe na njihove odluke, uvjerenja i zaključke. Velik dio njihove podmuklosti leži u činjenici da često djeluju izvan svjesne kontrole, kao automatski mehanizmi. Primarno, one su često nusprodukt pokušaja mozga da pojednostavi obradu goleme količine informacija s kojima se svakodnevno susrećemo. Kako bi efikasno navigirao svijetom, mozak se oslanja na mentalne prečace, poznate kao heuristike (Ultimaten, 2018.; NumberAnalytics Blog, 2023.). Ove kognitivne strategije, koje koristimo automatski i nesvjesno, omogućuju brze prosudbe i odluke. Iako su često iznenađujuće točne i adaptivne, posebno u situacijama koje zahtijevaju brzu reakciju (npr. detekcija potencijalne opasnosti), iste te heuristike postaju izvor sustavnih grešaka u kontekstima koji zahtijevaju pažljivo, deliberativno i analitičko razmišljanje. Osim heuristika, i drugi faktori značajno doprinose pristranostima: snažne emocije mogu duboko obojiti naše prosudbe; individualne motivacije, poput želje za očuvanjem pozitivne slike o sebi ili zaštitom identiteta grupe kojoj pripadamo, aktivno usmjeravaju naše razmišljanje; inherentna ograničenja u kapacitetu radne memorije i pažnje; društveni pritisci da se uskladimo s mišljenjem većine; pa čak i fiziološki faktori poput umora ili starenja. Njihov utjecaj je sveprisutan – od iskrivljene percepcije stvarnosti, loših odluka u osobnom i profesionalnom životu, do oblikovanja i održavanja tvrdokornih predrasuda temeljenih na stereotipima umjesto na dokazima (Melton i Cunningham, 2020.). Kognitivne pristranosti implicirane su u širokom spektru fenomena, od vjerovanja u teorije zavjere i produbljivanja političke polarizacije do pogrešnih kliničkih procjena u medicini i psihoterapiji (Melton i Cunningham, 2020.). One također značajno utječu na kvalitetu i stabilnost međuljudskih odnosa (Miller, 2023.). Upravo ta sklonost kognitivnoj lakoći i izbjegavanju mentalnog napora čini nas ranjivima na prihvaćanje pojednostavljenih, „sintetiziranih” poruka koje nam nude algoritmi ili drugi izvori, pružajući iluziju znanja bez potrebe za dubljim angažmanom.
Ključne pristranosti koje oblikuju vjerovanje
Iako je identificiran velik broj kognitivnih pristranosti (npr. Ultimaten, 2018.), neke imaju posebno snažan utjecaj na oblikovanje uvjerenja i donošenje odluka:
- Pristranost potvrđivanja (Confirmation Bias): Vjerojatno najraširenija i najutjecajnija, ova pristranost opisuje tendenciju aktivnog traženja, favoriziranja, interpretiranja i prisjećanja informacija na način koji potvrđuje naša već postojeća uvjerenja, hipoteze ili svjetonazore, dok se istovremeno sustavno zanemaruju, omalovažavaju ili racionaliziraju dokazi koji im proturječe. Ona predstavlja fundamentalnu prepreku objektivnosti i kritičkom mišljenju jer pojedinci efektivno stvaraju informacijski „mjehur” oko svojih uvjerenja, štiteći ih od izazova. Izrazito je vidljiva u kontekstu političke polarizacije, gdje vodi konzumaciji isključivo jednoumnih medijskih izvora (usp. Samadi i Fitzgerald, 2024.), ali jednako tako može narušiti međuljudske odnose kada se selektivno fokusiramo na mane partnera koje potvrđuju negativnu predrasudu.
- Pristranost negativnosti (Negativity Bias): Ljudski um pokazuje robusnu tendenciju da pridaje veću psihološku težinu i pažnju negativnim iskustvima, informacijama i stimulusima u usporedbi s pozitivnima jednake objektivne jačine (npr. Vaish i sur., 2008.). Smatra se da ovo ima duboke evolucijske korijene jer je obraćanje pažnje na prijetnje (negativni stimulusi) imalo veću vrijednost za preživljavanje od potrage za nagradama (pozitivni stimulusi). Negativne informacije često percipiramo kao informativno bogatije, signalizirajući potencijalnu opasnost ili potrebu za prilagodbom, te stoga zahtijevaju više pažnje i dublju kognitivnu obradu. Ova pristranost snažno utječe na procese učenja (negativno potkrepljenje često dovodi do bržeg i trajnijeg učenja), iskrivljuje prosudbe i odluke te može štetiti odnosima uzrokujući da se ljudi fiksiraju na manje konflikte zanemarujući pozitivne aspekte (usp. Miller, 2023.). Postoje dokazi da se ova pristranost javlja rano u razvoju.
- Pristranost usidrenja (Anchoring Bias): Opisuje tendenciju pretjeranog oslanjanja na prvi dio informacije („sidro”) na koji naiđemo prilikom donošenja odluka ili procjena. Jednom kada je sidro postavljeno, kasnije prosudbe i prilagodbe često su nedovoljne i ostaju preblizu početnoj vrijednosti, čak i ako je sidro bilo proizvoljno, irelevantno ili očito netočno. Ovo značajno utječe na pregovore, potrošačke odluke (procjena cijene u odnosu na početnu traženu cijenu), financijske investicije, kliničke dijagnoze (fiksiranje na početne simptome) i oblikovanje prvih dojmova u socijalnim interakcijama.
- Osnovna atribucijska pogreška (Fundamental Attribution Error) i Pristranost akter-promatrač (Actor-Observer Bias): Osnovna atribucijska pogreška odnosi se na sklonost da prenaglašavamo dispozicijske (osobne, karakterne) uzroke za ponašanje drugih ljudi, dok istovremeno podcjenjujemo utjecaj situacijskih faktora. Nasuprot tome, pristranost akter-promatrač ističe da smo skloniji vlastite postupke pripisivati vanjskim, situacijskim okolnostima. Zajedno, ove pristranosti vode pogrešnim prosudbama o karakteru drugih (pripisujući njihove akcije inherentnim osobinama umjesto okolnostima) i mogu poticati nedostatak samosvijesti o situacijskim utjecajima na vlastito ponašanje.
- Pristranost u službi sebstva (Self-Serving Bias): Tendencija pripisivanja vlastitih uspjeha osobnim, unutarnjim faktorima (npr. sposobnost, trud), dok se vlastiti neuspjesi pripisuju vanjskim, situacijskim faktorima (npr. loša sreća, težina zadatka, tuđe ometanje). Ova pristranost služi zaštiti i jačanju samopoštovanja. Međutim, ona ometa učenje iz grešaka jer izbjegavamo preuzimanje osobne odgovornosti za negativne ishode te može opteretiti međuljudske odnose dovodeći do prebacivanja krivnje i zamjeranja.
- Pristranost prema automatizaciji (Automation Bias): U kontekstu sveprisutne tehnologije, ova pristranost postaje izuzetno relevantna. Opisuje tendenciju ljudi da se pretjerano oslanjaju na odluke ili preporuke automatiziranih sustava (uključujući UI), često ih prihvaćajući nekritički i zanemarujući vlastitu prosudbu ili kontradiktorne informacije. Ljudi mogu pogrešno pretpostaviti da su automatizirani sustavi inherentno točniji ili objektivniji od ljudi, što dovodi do smanjenog nadzora i povećane vjerojatnosti prihvaćanja pogrešnih izlaza sustava. Ovo je ključni element fenomena „zaspati za volanom” (Dell’Acqua, 2023., neobjavljeni rukopis).
- Ostale relevantne pristranosti: Heuristika dostupnosti (precjenjivanje vjerojatnosti događaja koji su lakše dostupni u sjećanju, npr. zbog nedavnosti ili emocionalnog naboja), pristranost naknadne pameti (tendencija da se nakon događaja vjeruje da je bio predvidljiv, „znao sam cijelo vrijeme”), Dunning-Krugerov efekt (osobe niske kompetencije precjenjuju svoje sposobnosti, dok osobe visoke kompetencije imaju tendenciju podcjenjivati ih u odnosu na druge), halo-efekt (opći pozitivan ili negativan dojam o osobi utječe na procjenu njezinih specifičnih osobina), prokletstvo znanja (teškoća u zamišljanju kako je to ne znati nešto što mi znamo, što vodi pogrešnim pretpostavkama o znanju drugih, usp. Musolino, 2023.), funkcionalna fiksiranost (ograničavanje percepcije upotrebe predmeta samo na njegovu tradicionalnu funkciju, što ometa kreativno rješavanje problema).
Motivirano rezoniranje
Problem kognitivnih pristranosti dodatno je kompliciran fenomenom motiviranog rezoniranja. Ovo se odnosi na način na koji naše motivacije – želje, ciljevi, potrebe – utječu na kognitivne procese poput zaključivanja, donošenja odluka i oblikovanja uvjerenja (npr. Kunda, 1990., kako je opisano u Kraft i sur., 2015.). Dok razmišljanje može biti vođeno motivacijom za točnošću (engl. *accuracy motivation*) – ciljem da se dođe do objektivnog, nepristranog zaključka temeljenog na dokazima – ono je vrlo često vođeno „usmjerenim ciljevima” (engl. *directional goals*). Ovi ciljevi uključuju rezoniranje na način koji vodi željenim zaključcima, često onima koji štite naša postojeća uvjerenja, potvrđuju naš identitet (posebno socijalni ili politički), održavaju osjećaj pripadnosti grupi ili smanjuju kognitivnu disonancu (mentalnu nelagodu koja proizlazi iz držanja konfliktnih uvjerenja, stavova ili vrijednosti). Motivirano rezoniranje koristi različite kognitivne mehanizme za postizanje usmjerenih ciljeva. Snažno se oslanja na pristranost potvrđivanja, vodeći pojedince da selektivno traže i prihvaćaju dokaze koji podržavaju njihov preferirani zaključak. Također uključuje „motivirani skepticizam”, gdje pojedinci ulažu značajan kognitivni napor kako bi pronašli mane, protuargumente i razloge za odbacivanje informacija koje izazivaju njihova postojeća uvjerenja ili identitet, dok istovremeno nekritički prihvaćaju informacije koje su s njima u skladu. Ovo rezultira „efektom prethodnog stava” (engl. *prior attitude effect*), gdje se dokazi koji su kongruentni s postojećim uvjerenjima procjenjuju kao jači i uvjerljiviji od inkongruentnih dokaza. Pojedinci također mogu selektivno vjerovati ili ne vjerovati izvorima informacija temeljem njihove percipirane usklađenosti s vlastitim stavovima. Utjecaj motiviranog rezoniranja posebno je očit u kontekstu političke polarizacije i širenja dezinformacija. Smatra se primarnim psihološkim mehanizmom koji pokreće produbljivanje podjela između političkih grupa (Kraft i sur., 2015.). Pristaše određene strane, vođeni željom da zaštite svoj politički identitet, često iskreno usvajaju netočne informacije ili dezinformacije koje prikazuju njihovu stranku u povoljnom svjetlu, a suparničku u negativnom (usp. Niemelä i sur., 2022.; Peterson i Iyengar, 2021.). To čini pojedince izuzetno otpornima na ispravljanje dezinformacija koje su u skladu s njihovim stranačkim identitetom, čak i kada su suočeni s činjeničnim dokazima (Caldera i PytlikZillig, 2020.). Ova otpornost nije nužno posljedica nedostatka inteligencije ili znanja; neka istraživanja sugeriraju da politički sofisticiraniji pojedinci mogu biti čak vještiji u motiviranom rezoniranju, koristeći svoje kognitivne sposobnosti da efektivno racionaliziraju i obrane svoja postojeća stranačka uvjerenja (iako druga istraživanja ukazuju da analitičko razmišljanje ponekad može prevladati stranačke signale ili da nedostatak razmišljanja također doprinosi vjerovanju u lažne vijesti, usp. Pennycook i Rand, 2021.). Motivirano rezoniranje značajno doprinosi polarizaciji uvjerenja – fenomenu gdje grupe sa suprotstavljenim početnim stavovima, izložene istom mješovitom skupu dokaza, zapravo postaju još udaljenije u svojim stavovima umjesto da konvergiraju. To se događa jer svaka grupa selektivno interpretira dokaze kroz leću svojih postojećih uvjerenja, pronalazeći potvrdu za vlastitu stranu i razloge za odbacivanje suprotnih argumenata (usp. Jern i sur., 2022.; Kubin i von Sikorski, 2021.; Kappes i sur., 2022.). Afektivna polarizacija – stupanj negativnih emocija i nepovjerenja prema političkim protivnicima – dodatno potiče motivirano rezoniranje (Traugott, 2024.). Motivacija za održavanjem komfora vlastitih uvjerenja ili izbjegavanjem kognitivnog napora (kognitivna lijenost) također može doprinijeti nekritičkom prihvaćanju preporuka UI-ja (povezano sa ZZV-om, Dell’Acqua, 2023., neobjavljeni rukopis). Neki autori ipak pozivaju na oprez i bliže ispitivanje dokaza za tvrdnje o sveprisutnosti motiviranog rezoniranja (Ross, 2023.), dok drugi istražuju specifične veze s osobinama ličnosti poput narcizma (Pfattheicher i sur., 2024.).
Implikacije pristranog uma
Ove spoznaje imaju duboke implikacije za razumijevanje ljudskog znanja i ponašanja. Prvo, one fundamentalno izazivaju klasičnu predodžbu o ljudima kao primarno racionalnim akterima. Iako smo sposobni za logičko razmišljanje, naša je kognicija sustavno i predvidljivo iskrivljena mehanizmima dizajniranim za kognitivnu učinkovitost ili vođenim emocionalnim i motivacijskim potrebama. Ove pristranosti mogu se promatrati i kao „greške” (engl. *bugs*) i kao „značajke” (engl. *features*) kognitivnog sustava; heuristike su adaptivni prečaci koji omogućuju brzu obradu, ali postaju maladaptivni kada se neprimjereno primijene u kompleksnim modernim okruženjima koja zahtijevaju nijansirane, točne prosudbe (npr. evaluacija znanstvenih dokaza, složenih političkih argumenata ili interakcija sa sustavima UI-ja). Učinkovitost koju dobivamo dolazi po cijenu točnosti u mnogim kritičnim domenama. Drugo, duboka isprepletenost kognicije s emocijama i motivacijom naglašava da pristranosti nisu samo „hladne” greške u obradi informacija. Usmjereni ciljevi, često ukorijenjeni u potrebi za zaštitom samopoštovanja ili grupnog identiteta, aktivno oblikuju način na koji tražimo, interpretiramo i vrednujemo informacije. Nelagoda kognitivne disonance motivira nas da uskladimo svoja uvjerenja, čak i ako to zahtijeva iskrivljavanje percepcije stvarnosti. To naglašava koliko naši osjećaji i identiteti konstruiraju našu percepciju „činjenica”. Konačno, iako je svijest o kognitivnim pristranostima nužan prvi korak prema njihovom ublažavanju, ona često nije dovoljna sama po sebi. Nesvjesna priroda mnogih pristranosti i snažan pogon motiviranog rezoniranja, posebno kada su ugroženi temeljni identiteti ili kada tehnologija nudi prividno lakši put, čine ih teškima za suzbijanje samo snagom volje ili jednostavnom edukacijom. Čak i visokoobrazovani i informirani pojedinci pokazuju snažne pristranosti kada su motivirani za to. To sugerira da učinkovito ublažavanje vjerojatno zahtijeva kombinaciju individualnih napora (poput razvoja metakognitivnih vještina i poticanja intelektualne skromnosti) i strukturnih, proceduralnih ili tehnoloških pristupa (kao što su korištenje kontrolnih lista, strukturiranih okvira za odlučivanje, algoritamskih intervencija dizajniranih za neutralizaciju poznatih pristranosti), uz strategije koje adresiraju temeljne motivacije i prijetnje identitetu koje potiču pristranu obradu.
Ljudska bića inherentno su društvena (usp. iMotions, n.d.), a naše epistemičke prakse – način na koji oblikujemo uvjerenja, prihvaćamo norme i vrednujemo izvore – duboko su oblikovane grupnom dinamikom, društvenim normama te strukturama moći i statusa. Želja za pripadanjem, prihvaćanjem i komforom koji grupa pruža može snažno utjecati na naše spoznajne procese, ponekad nadjačavajući potragu za objektivnom istinom ili kritičkim preispitivanjem.
Moć grupe i konformizam
Kao društvena bića, imamo fundamentalnu potrebu za pripadanjem i uspostavljanjem veza s drugima. Ta potreba, uz strah od odbacivanja ili ostracizma, čini nas izuzetno podložnima društvenom pritisku (usp. BetterHelp editorial team, n.d.). Često prilagođavamo svoja uvjerenja, stavove i ponašanja kako bismo se uskladili s percipiranim normama ili očekivanjima grupe (konformizam). Također se često oslanjamo na ponašanje ili mišljenje većine kao na implicitni dokaz ispravnosti ili poželjnosti („društveni dokaz”). Društvene norme same po sebi nisu nužno negativne; one pružaju korisne smjernice za navigaciju kompleksnim socijalnim situacijama i uspostavljaju zajednički temelj za interakciju unutar kulture (The Decision Lab, n.d.). Međutim, isti mehanizmi konformizma mogu imati i značajnu tamnu stranu. Negativni pritisak vršnjaka, vođen željom za uklapanjem, može potaknuti pojedince, posebno adolescente, na štetna ili rizična ponašanja. Konformiranje iz straha od kazne ili socijalne isključenosti može navesti pojedince i grupe da podržavaju ili sudjeluju u štetnim praksama ili nepravednim sustavima, čak i kada se privatno ne slažu ili znaju da su pogrešni. To može dovesti do nekritičke poslušnosti autoritetu i gušenja disidentstva. Unutar grupa, snažan pritisak na konformizam može rezultirati fenomenom „grupnog mišljenja” (engl. *groupthink*), gdje želja za harmonijom i konsenzusom nadjačava racionalnu procjenu alternativa i kritičko vrednovanje informacija, dovodeći do iracionalnih ili katastrofalnih odluka. Nadalje, konformizam može gušiti individualnost, kreativnost i raznolikost mišljenja unutar društva. Fenomen „pluralističke ignorancije” dodatno ilustrira problem: pojedinci privatno odbacuju neku normu, ali pogrešno pretpostavljaju da je većina drugih prihvaća, pa se javno konformiraju, čime nenamjerno perpetuiraju normu koja zapravo nema istinsku podršku većine. Komfor pripadanja grupi tako često dolazi po cijenu individualne epistemičke autonomije i kritičkog prosuđivanja.
Društvena struktura, konflikt i znanje
Sociološke perspektive pružaju širi okvir za razumijevanje kako se ove grupne dinamike odvijaju unutar većih društvenih struktura obilježenih nejednakošću i konfliktom. Teorija konflikta, koja vuče korijene iz Marxova rada, promatra društvo ne kao harmoničan sustav, već kao arenu stalnog sukoba i napetosti između različitih društvenih grupa (definiranih klasom, rasom, rodom, etnicitetom itd.) koje se natječu za ograničene resurse poput bogatstva, moći i društvenog statusa (npr. Sociology Group, 2024.; usp. del Palacio, 2022.). Iz ove perspektive, nejednakost nije tek slučajna devijacija, već inherentna karakteristika sustava, aktivno održavana od strane dominantnih grupa koje koriste svoju moć da oblikuju institucije i norme u svoju korist. Ova borba za moć neizbježno utječe na proizvodnju i distribuciju znanja – tko definira što je 'istinito' ili 'važno' znanje, tko ima pristup obrazovanju i informacijama i čiji su interesi predstavljeni u dominantnim narativima. Teorija konflikta može se primijeniti na analizu nejednakosti u obrazovnim sustavima, gdje pristup kvalitetnom obrazovanju i kurikularni sadržaji mogu reflektirati i reproducirati postojeće klasne ili rasne podjele (usp. Howard Community College, n.d.). Društvena stratifikacija koncept je koji opisuje hijerarhijsko rangiranje pojedinaca i grupa u društvu temeljem faktora kao što su bogatstvo, prihod, obrazovanje, zanimanje, rasa, rod i moć. Ona ukazuje na postojanje sustavnih, ukorijenjenih obrazaca nejednakosti koji nadilaze individualne razlike, a društveni položaj često se prenosi s generacije na generaciju (Lumen Learning, n.d.). Simbolički interakcionizam, kao mikrosociološka perspektiva, fokusira se na to kako se značenja, simboli i interpretacije stvarnosti (uključujući predrasude i stereotipe) stvaraju, pregovaraju i održavaju kroz svakodnevne interakcije licem u lice (del Palacio, 2022.). Na primjer, rasne ili etničke predrasude nisu inherentne, već se uče i perpetuiraju kroz socijalizaciju i interakciju, oblikujući način na koji percipiramo i tretiramo druge. Ekstremna manifestacija ovih procesa može biti zločin iz mržnje (Mondal, n.d.).
Status, predrasude i epistemička nepravda
Osim materijalnih resursa i formalne moći, dimenzija statusa – nejednakost temeljena na razlikama u časti, ugledu, poštovanju i percipiranoj kompetenciji koje se pripisuju pojedincima i grupama – igra ključnu, često podcijenjenu ulogu u stvaranju i održavanju trajne društvene nejednakosti (usp. Ridgeway, 2014.). Želja da budemo cijenjeni i poštovani od strane drugih snažan je ljudski motivator. Nejednakost postaje posebno tvrdokorna (engl. *durable*) kada se materijalne razlike (u bogatstvu ili moći) povežu i konsolidiraju s postojećim kategoričkim razlikama među ljudima (kao što su rasa, rod, klasa, etnicitet). Taj proces konsolidacije dovodi do oblikovanja kulturnih statusnih uvjerenja – široko rasprostranjenih, često implicitnih pretpostavki unutar društva o tome koje su grupe generalno „bolje”, kompetentnije, vrednije ili zaslužnije od drugih (Ridgeway, 2014.). Ova uvjerenja često nastaju kada se primijeti korelacija između pripadnosti određenoj grupi i kontrole nad resursima, što dovodi do (često pogrešnog) zaključka da je sama grupa inherentno kompetentnija. Ključno je da ta statusna uvjerenja često internaliziraju i pripadnici grupa nižeg statusa, dajući time privid legitimiteta postojećoj hijerarhiji. Jednom uspostavljena, ova uvjerenja funkcioniraju kao neovisan mehanizam generiranja nejednakosti. Ona pristrano utječu na naše prosudbe u svakodnevnim interakcijama: nesvjesno procjenjujemo kompetentnost, liderski potencijal ili prikladnost pojedinaca za određene uloge na temelju njihove grupne pripadnosti. Oblikuju naše preferencije u druženju, često vodeći preferiranju interakcije s pripadnicima grupa višeg statusa, što dodatno učvršćuje mrežne prednosti dominantnih grupa. Pripadnici grupa visokog statusa mogu reagirati negativno ili čak neprijateljski prema pripadnicima grupa nižeg statusa koji se ponašaju na način koji „izaziva” očekivani statusni poredak, čime se suzbija disidentstvo i ograničava mobilnost. Kroz ove ponavljajuće mikroprocese u radnim okruženjima, školama i drugim institucijama, statusna uvjerenja sustavno usmjeravaju pripadnike grupa višeg statusa prema pozicijama moći i resursa, dok istovremeno ometaju napredovanje pripadnika grupa nižeg statusa. Ovo izravno vodi epistemičkoj nepravdi (npr. Bidwell, 2024.; McGinn, 2025.; Kay i sur., 2024.) – sustavnom nanošenju štete pojedincima u njihovom kapacitetu kao spoznavatelja, bilo kroz diskreditiranje njihovog svjedočanstva (testimonijalna nepravda) ili kroz nedostatak zajedničkih interpretativnih resursa za razumijevanje njihovih iskustava (hermeneutička nepravda). Predrasude (negativni stavovi) i diskriminacija (nepravedno postupanje) stoga nisu samo individualni moralni propusti, već su često duboko ukorijenjene u društveno konstruiranim statusnim uvjerenjima i institucionalnim praksama koje ih podržavaju.
Digitalne tehnologije, posebice internet, društveni mediji i umjetna inteligencija (vidi npr. primjer u Hosny i sur., 2024.), dramatično su preoblikovale informacijski krajolik. Iako nude goleme mogućnosti za pristup znanju i komunikaciju, one također djeluju kao snažni pojačivači postojećih ljudskih kognitivnih i socijalnih sklonosti prema komforu i potvrđivanju te uvode nove, jedinstvene epistemičke izazove.
Digitalni informacijski ekosustav i epistemološki mjehuri
Suočeni smo s fenomenom informacijske preopterećenosti, gdje je teško razlučiti relevantne i pouzdane informacije od šuma. Algoritmi koji upravljaju platformama društvenih medija i pretraživačima, često optimizirani za maksimalni angažman korisnika (zadržavanje pažnje), imaju tendenciju stvaranja personaliziranih informacijskih prostora poznatih kao „filter-mjehurići” ili „eho-komore” (usp. Tucker i sur., 2018.). Ovi algoritamski kurirani „epistemološki mjehuri” ograničavaju izloženost korisnika raznolikim, divergentnim ili izazovnim perspektivama. Jačajući pristranost potvrđivanja, oni nude korisnicima intelektualno komfornu, ali potencijalno vrlo usku i iskrivljenu sliku stvarnosti. Boravak unutar takvog mjehura otežava susret s idejama koje bi mogle potaknuti istinsku kreativnost, koja često proizlazi iz konflikta i sinteze različitih gledišta, ili potaknuti kritičko preispitivanje vlastitih uvjerenja.
„Sintetizirani sadržaj” i površnost
Sadržaj s kojim se susrećemo na internetu, bilo da je algoritamski filtriran ili generiran od strane umjetne inteligencije, može se opisati kao „sintetizirani sadržaj”. To podrazumijeva da je sadržaj često prilagođen, pojednostavljen, sažet ili optimiziran za brzu konzumaciju i viralnost, nauštrb dubine, nijansi ili kompleksnosti. Dok alati UI-ja poput velikih jezičnih modela (LLM) mogu biti izuzetno korisni za brzo dobivanje informacija ili pomoć u određenim zadacima, prekomjerno i nekritičko oslanjanje na lako dostupne, UI-generirane odgovore nosi rizik smanjenja sposobnosti za duboko, samostalno razmišljanje, kritičku analizu i originalno rješavanje problema (usp. kritike u Yale News, 2024.; Allen i sur., 2024.). Postoji opasnost da postanemo intelektualno ovisni o tehnologiji, gubeći vještine koje su temelj istinskog razumijevanja i inovacije.
Jedinstveni epistemički izazovi umjetne inteligencije
Razvoj i primjena sustava UI-ja donose specifične epistemičke rizike:
- Neravnomjerna razvijenost UI-ja („nazubljena granica”): Sposobnosti današnjih sustava UI-ja, posebno generativnog UI-ja, nisu uniformne za sve zadatke. Mogu briljirati u strukturiranim zadacima poput pisanja koda ili sažimanja teksta, ali pokazivati značajne slabosti u područjima koja zahtijevaju duboko razumijevanje konteksta, kauzalno zaključivanje, zdrav razum ili etičku prosudbu. Fabrizio Dell'Acqua ovo opisuje kao „nazubljenu tehnološku granicu” (engl. *jagged technological frontier*), naglašavajući da organizacije moraju strateški identificirati gdje UI može efektivno nadopuniti ljudske vještine, a gdje njezina primjena može biti rizična ili neprimjerena (Dell’Acqua i sur., 2023., HBS Working Paper). Ignoriranje ove neravnomjernosti može dovesti do pogrešnih odluka temeljenih na precijenjenim sposobnostima UI-ja.
- Problem rekurzivne obuke i kolaps modela: Sve veća dostupnost i korištenje sintetičkih podataka (podataka generiranih od strane UI-ja) za obuku novih modela UI-ja (Liang i sur., 2025.; vidi i Bitton i sur., 2025. za primjer u medicini) stvara rizik rekurzivne petlje ili „autofagije” (Shumailov i sur., 2023.; Alemohammad i sur., 2024.). U tom procesu, modeli uče iz podataka koje su generirali njihovi prethodnici, što može dovesti do fenomena poznatog kao „kolaps modela”. Kolaps modela označava progresivnu degradaciju performansi sustava UI-ja kroz generacije, manifestirajući se kao „zaboravljanje” izvorne distribucije podataka (posebno rijetkih, ali važnih slučajeva u „repovima” distribucije), smanjenje raznolikosti i kreativnosti generiranog sadržaja (homogenizacija) te opća nestabilnost modela (Shumailov i sur., 2023.; IBM Research, n.d.; Bafna i sur., 2024.). Statističke analize (Seddik i sur., 2024.) i metode poput analize semantičkih mreža (Gambetta i sur., 2024.) koriste se za karakterizaciju ovog fenomena. Iako novija istraživanja sugeriraju da pažljiva akumulacija stvarnih i sintetičkih podataka može ublažiti ili izbjeći najkatastrofalnije oblike kolapsa (Gerstgrasser i sur., 2024.), očuvanje raznolikosti i sprječavanje suptilne degradacije ostaju značajni izazovi (Thompson i sur., 2024.; Hu i sur., 2025.). Homogenizacija izlaza UI-ja može dugoročno osiromašiti informacijski ekosustav i potencijalno utjecati na ljudsku kreativnost koja se njime inspirira. Detekcija strojno generiranog teksta predlaže se kao jedna od strategija ublažavanja (Domínguez-Olmedo i sur., 2025.).
- Mehanizmi epistemičkog propadanja UI-ja: Unutar sustava UI-ja, čak i bez rekurzivne obuke, postoje intrinzični mehanizmi koji mogu narušiti epistemičku kvalitetu njihovih izlaza. To uključuje: gubitak utemeljenja (engl. *loss of grounding*), gdje modeli generiraju sintaktički ispravne, ali činjenično netočne ili besmislene izjave („halucinacije”), jer im nedostaje duboka veza s empirijskom stvarnošću (vidi npr. pregled u Arandjelović, 2025.); semantičko pomicanje (engl. *semantic drift*), gdje se značenje riječi i koncepata unutar modela postupno iskrivljuje tijekom procesa generiranja, posebno kod dugih tekstova, dovodeći do nekoherentnosti ili odstupanja od namjeravanog značenja (Hatipoğlu i sur., 2025.; Lewis i sur., 2020.; Zhang i Bansal, 2019.; Lu i sur., 2020.); te pojačavanje grešaka i pristranosti (engl. *bias amplification*), gdje sustavi UI-ja ne samo da reproduciraju, već i pojačavaju postojeće greške, stereotipe i socijalne pristranosti prisutne u podacima na kojima su obučeni (npr. u difuzijskim modelima za generiranje slika, Tang i sur., 2024.; općenito u UI-ju za zdravstvo, Chen i sur., 2023.; Leslie i sur., 2023.; vidi i Dell’Acqua i sur., 2020.).
- Fenomen „zaspati za volanom” (ZZV): Istraživanja suradnje čovjeka i UI-ja u stvarnim radnim okruženjima, poput onih koje je proveo Fabrizio Dell’Acqua s HR menadžerima koji koriste UI u regrutiranju, ukazuju na značajan rizik razvoja pasivnosti i pretjeranog oslanjanja na tehnologiju (Dell’Acqua, 2023., neobjavljeni rukopis). Ovaj ZZV fenomen, nazvan analogijom s vozačima koji postaju nepažljivi uz sustave pomoći u vožnji, manifestira se kroz nekoliko ključnih elemenata:
- Popuštanje ljudskog nadzora: Kako se korisnici navikavaju na alat UI-ja, počinju mu sve više vjerovati i delegirati mu odluke, često uz implicitnu pretpostavku njegove nepogrešivosti. Kritička procjena preporuka UI-ja slabi, a ljudski nadzor postaje površan ili izostaje.
- Gubitak ili atrofija vještina: Kontinuirano oslanjanje na UI za obavljanje određenih kognitivnih zadataka (npr. procjena životopisa, generiranje ideja) može dovesti do slabljenja ili potpunog gubitka relevantnih ljudskih vještina. Korisnici postaju manje sposobni samostalno obaviti zadatak, što rezultira lošijim performansama kada UI nije dostupan ili kada napravi grešku koju pasivni korisnik ne prepoznaje.
- Pristranost prema automatizaciji (engl. *Automation Bias*): Ljudi pokazuju tendenciju da više vjeruju izlazima automatiziranih sustava nego vlastitoj prosudbi ili informacijama iz drugih izvora. To može biti posljedica kognitivne lijenosti (lakše je prihvatiti preporuku nego samostalno analizirati), percipiranog autoriteta tehnologije ili nedostatka samopouzdanja u vlastite sposobnosti. Ova pristranost dovodi do toga da korisnici prihvaćaju čak i očito pogrešne ili besmislene rezultate UI-ja (npr. preporuke temeljene na pristranim podacima ili generirane „halucinacije”).
- Posljedice za znanje i pravdu: Kumulativni učinak ovih problema – kolapsa modela, epistemičkog propadanja unutar UI-ja i ZZV fenomena kod ljudi – rezultira općim padom kvalitete i pouzdanosti informacija u tehnološki posredovanom okruženju. Rizik „inflacije istine” (gdje ponovljene, algoritamski generirane neistine postaju uvjerljivije) raste. Najozbiljnije, ovi tehnički i psihološki mehanizmi sustavno doprinose generiranju i perpetuiranju algoritamske epistemičke nepravde (Bidwell, 2024.; McGinn, 2025.; Kay i sur., 2024.). To uključuje različite oblike štete nanesene pojedincima i grupama u njihovom svojstvu spoznavatelja: nepravedno diskreditiranje njihovih svjedočanstava ili ekspertize (pojačana testimonijalna nepravda), korištenje UI-ja za manipulativno širenje laži koje ih diskreditiraju (manipulativna testimonijalna nepravda), brisanje ili iskrivljavanje njihovih iskustava zbog nedostatka odgovarajućih interpretativnih okvira u UI-ju (hermeneutička ignorancija/brisanje) te stvaranje nejednakog pristupa relevantnim informacijama (hermeneutička pristupna nepravda).
Internetsko okruženje i društveni mediji
- Internetska dezinhibicija i deindividuacija: Anonimnost ili percipirana distanca u internetskim interakcijama smanjuju osjećaj osobne odgovornosti i društvene inhibicije, olakšavajući agresivno ponašanje, širenje govora mržnje i dezinformacija (usp. Wang i sur., 2022.; Lowry i sur., n.d.). Gubitak individualnog identiteta u internetskoj gužvi može pojačati konformizam percipiranim (često negativnim) grupnim normama (SIDE model).
- Elektroničko zlostavljanje (Cyberbullying): Ostaje značajan problem s ozbiljnim posljedicama za mentalno zdravlje, posebno među mladima (npr. Patchin, 2024.; Kwan i sur., 2023.; Zsila i sur., 2021.). Često je povezan s problematičnom upotrebom društvenih medija i psihološkim faktorima poput niske empatije i mehanizama moralnog otpuštanja (engl. *moral disengagement*) koji počiniteljima omogućuju da opravdaju svoje postupke (npr. Machackova i Pfetsch, 2024.; Wang i sur., 2022.; vidi i Kombol i sur., 2024.; Zhang, 2016.; Kowalski i sur., 2017.).
- Širenje dezinformacija i misinformacija: Digitalno okruženje, sa svojom brzinom, dosegom i mogućnostima algoritamskog ciljanja, predstavlja izuzetno plodno tlo za širenje lažnih ili obmanjujućih informacija. Kombinacija ljudskih kognitivnih slabosti (pristranosti, motivirano rezoniranje), plemenskih instinkata (nepovjerenje prema 'drugima') i tehnoloških pojačivača (viralnost, anonimnost, *deepfakes* – usp. Chadha i sur., 2024.) stvara toksičnu smjesu koja potkopava povjerenje i otežava oblikovanje informiranog javnog mnijenja (vidi i Niemelä i sur., 2022.; Tucker i sur., 2018.; Liu i Cheng, 2024.). Iako se UI razvija i kao potencijalni alat za detekciju i suzbijanje dezinformacija, ona istovremeno predstavlja i moćan alat za njihovo sofisticiranije kreiranje i širenje (Bogg i sur., 2025.).
Ovi isprepleteni kognitivni, socijalni i tehnološki faktori manifestiraju se u nizu gorućih suvremenih problema, gdje se kultura komfora, izbjegavanje intelektualne nelagode ili pasivno oslanjanje na tehnologiju pokazuju kao značajne prepreke individualnom i kolektivnom napretku te društvenoj otpornosti:
- Politička polarizacija kao epistemička kriza: Produbljivanje ideoloških i, što je još opasnije, afektivnih (emocionalnih) podjela između političkih grupa nije samo pitanje različitih mišljenja, već često predstavlja boravak u fundamentalno odvojenim epistemičkim mjehurima ili „stvarnostima” (vidi i Clark i sur., 2019.; Brandt i sur., 2024.a; Brandt i sur., 2024.b). Racionalni dijalog i potraga za zajedničkim razumijevanjem zamjenjuju se plemenskom lojalnošću, afektivnim neprijateljstvom prema „drugoj strani” i sklonošću ekstremnim stavovima kao jedinom načinu da se probije kroz informacijsku buku. Ovaj proces snažno je potaknut kognitivnim pristranostima (posebno potvrđivanja) i motiviranim rezoniranjem radi zaštite grupnog identiteta (Kraft i sur., 2015.), a dodatno ga olakšava fragmentirano medijsko okruženje koje često nagrađuje senzacionalizam i potvrđivanje postojećih uvjerenja (usp. Tucker i sur., 2018.). Posljedica je paraliza u rješavanju kompleksnih zajedničkih problema i erozija temelja demokratskog društva (usp. Niemelä i sur., 2022.; Lee, 2024.).
- Erozija povjerenja: Kontinuirana izloženost dezinformacijama, percepcija pristranosti u medijima, svijest o potencijalnoj nepouzdanosti sustava UI-ja (halucinacije, skrivene pristranosti) i duboka politička polarizacija kumulativno potkopavaju povjerenje javnosti – ne samo u tradicionalne izvore informacija poput medija i znanosti, već i u institucije općenito, pa čak i u sugrađane. Poteškoće u razlikovanju autentičnog od sintetičkog, istinitog od lažnog, mogu dovesti do općeg cinizma, apatije ili stanja „epistemičke paralize”, gdje pojedinci odustaju od pokušaja oblikovanja informiranih stavova. Fenomeni poput „efekta replikanta” (engl. *Replicant Effect*) (smanjeno povjerenje u sadržaj za koji se sumnja da ga je generirao UI, Schröder, 2019.; Schröder, n.d.) dodatno kompliciraju izgradnju povjerenja u tehnološki posredovanoj komunikaciji, stvarajući „AI-MC dilemu” (Schröder, n.d.). Povjerenje je posebno krhko i kritično u područjima visokog rizika, kao što je primjena UI-ja u medicini (McCradden i sur., 2021.).
- Izazovi razumijevanja i djelovanja na kompleksne probleme (npr. klimatske promjene): Neadekvatan kolektivni odgovor na egzistencijalne prijetnje poput klimatske krize paradigmatski ilustrira interakciju različitih epistemičkih i psiholoških prepreka. Ljudska kognicija teško obrađuje dugoročne, apstraktne i statističke rizike; skloni smo motiviranom poricanju ili umanjivanju problema kako bismo izbjegli psihološku nelagodu (kognitivnu disonancu, egzistencijalnu tjeskobu) ili potrebu za promjenom komfornog načina života (usp. Norgaard, 2011.; Gifford, 2011.). Međutim, svođenje problema isključivo na intrinzične „psihološke barijere” pojedinaca bilo bi redukcionistički i pogrešno (kritika u Hornsey i Fielding, 2019.). Ključnu ulogu igraju moćni ekonomski i politički interesi koji aktivno rade na održavanju statusa quo temeljenog na fosilnim gorivima, širenju sumnje u znanstveni konsenzus i opstrukciji politika za mitigaciju. Dominantne društvene norme konzumerizma i individualizma te inherentne poteškoće u rješavanju globalnih problema kolektivne akcije koji zahtijevaju sadašnje žrtve za buduće koristi dodatno kompliciraju situaciju (usp. Penn, 2003.; Sarkodie i Strezov, 2019.). Društvo fokusirano na kratkoročni komfor gubi sposobnost dugoročnog planiranja i otpornosti (rezilijentnosti) potrebne za suočavanje s krizama. Klimatska kriza također izravno utječe na mentalno zdravlje („eko-anksioznost”, trauma), što može dodatno otežati adaptivne odgovore (npr. Galway i sur., 2021.).
- Degradacija vještina i kulturna atrofija?: Fenomen „zaspati za volanom” (Dell’Acqua, 2023., neobjavljeni rukopis) ukazuje na konkretan rizik degradacije specifičnih profesionalnih vještina uslijed pretjeranog oslanjanja na UI. Marketinški stručnjaci koji samo koriste AI generatore ideja mogu izgubiti vlastitu kreativnu iskru; menadžeri koji slijepo vjeruju alatima UI-ja za selekciju kandidata gube sposobnost kritičke procjene ljudskih potencijala (Dell’Acqua i sur., 2024.). Na široj razini, postoji argumentirana zabrinutost da kultura koja favorizira instantno zadovoljstvo, površnu viralnost i algoritamski optimiziranu konzumaciju sadržaja može dovesti do marginalizacije i atrofije dubljih, zahtjevnijih oblika kulturnog i intelektualnog angažmana. Književnost koja zahtijeva strpljenje, filozofija koja postavlja teška pitanja, umjetnost koja izaziva percepciju – sve to može biti potisnuto kao „nepraktično” ili „neefikasno” u usporedbi s lako probavljivim, „sintetiziranim” sadržajem. Prekomjerno oslanjanje na UI za rješavanje problema ili čak generiranje kreativnog sadržaja moglo bi dugoročno oslabiti temeljne ljudske sposobnosti samostalnog, kritičkog i originalnog mišljenja (usp. Yale News, 2024.; Allen i sur., 2024.).
- Pojačavanje sustavnih pristranosti: Nekritička primjena sustava UI-ja, posebno u kombinaciji sa ZZV fenomenom, predstavlja ozbiljan rizik za pojačavanje postojećih društvenih nejednakosti. Modeli UI-ja obučeni na povijesnim podacima koji reflektiraju društvene pristranosti (npr. u zapošljavanju, kreditiranju, kaznenom pravosuđu) ne samo da će te pristranosti reproducirati, već ih mogu i amplificirati (Dell’Acqua i sur., 2020.; Chen i sur., 2023.; Leslie i sur., 2023.; Tang i sur., 2024.). Ako ljudi koji nadziru te sustave „spavaju za volanom”, propuštaju priliku identificirati i ispraviti pristrane ishode, čime se diskriminacija automatizira i naizgled legitimizira pod krinkom tehnološke objektivnosti.
- Slabljenje organizacijske i društvene otpornosti: Timovi i organizacije koje postanu previše ovisne o UI-ju za ključne funkcije, a čiji članovi izgube vlastite vještine i kritičnost (ZZV), postaju ranjiviji. Mogu se teško nositi s neočekivanim situacijama koje izlaze izvan domene obuke UI-ja, s tehnološkim kvarovima ili prekidima sustava ili s potrebom za brzom prilagodbom na nove okolnosti. Gubitak distribuirane ekspertize i sposobnosti samostalnog rješavanja problema smanjuje ukupnu otpornost organizacije. Na široj društvenoj razini, pretjerano oslanjanje na tehnološka rješenja bez njegovanja ljudske otpornosti i kritičkog mišljenja može nas učiniti krhkijima pred kompleksnim krizama.
- Evolucijski odjeci: Naša evolucijska sklonost traženju obrazaca, brzom donošenju odluka (heuristike) i oblikovanju snažnih grupnih identiteta (plemensko ponašanje) (vidi Buss, 1997.; Van Vugt i sur., 2007.) u modernom, tehnološki posredovanom svijetu može biti maladaptivna. Lako nas privlače jednostavni narativi, podložni smo manipulaciji kroz grupne identitete, a naša sklonost kognitivnoj lakoći može nas učiniti prijemčivima za pasivno prihvaćanje algoritamskih preporuka ili sadržaja unutar naših mjehura. Neusklađenost drevnih adaptacija sa zahtjevima suvremenog informacijskog okruženja ostaje ključni izvor epistemičkih problema (Penn, 2003.).
Rasprava o epistemičkim problemima i „komforu zablude” neizbježno nas vodi temeljnim filozofskim pitanjima o prirodi znanja, morala, ljudske agencije i odgovornosti:
- Definiranje epistemičkog „pogrešnog”: Vrijednost istine naspram komfora: Što točno čini boravak u epistemološkom mjehuru, pasivno prihvaćanje sintetiziranog sadržaja ili odbijanje suočavanja s neugodnim istinama epistemički ili čak moralno problematičnim? Je li potraga za istinom intrinzična vrijednost koja nadilazi osobni komfor ili društvenu harmoniju? Filozofija morala, uključujući rasprave o prirodi dobra i zla (usp. Calder, 2022.; Ingram i Cauchi, n.d.; McKenna i Coates, 2021.), pruža koncepte za procjenu težine epistemičkih propusta. Koncepti poput epistemičke vrline (npr. otvorenost uma, intelektualna poniznost, hrabrost) i epistemičke mane (npr. zatvorenost uma, dogmatizam, intelektualna lijenost) postaju relevantni. Epistemička nepravda dodatno naglašava konkretne štete koje proizlaze iz loših epistemičkih praksi.
- Slobodna volja, determinizam i odgovornost u doba algoritama: U kojoj mjeri smo individualno i kolektivno odgovorni za svoja uvjerenja i epistemičko ponašanje u svijetu kojim sve više upravljaju algoritmi i moćne tehnologije? Ako su naša uvjerenja snažno oblikovana nesvjesnim pristranostima, sofisticiranim tehnikama personalizacije, društvenim pritiscima i strukturnim faktorima, gdje leži temelj za pripisivanje pohvale, krivnje ili zahtjeva za promjenom? Jesmo li slobodni izabrati nelagodu kritičkog propitivanja nasuprot komforu potvrđivanja? Filozofska debata o slobodnoj volji nasuprot determinizmu (npr. O'Connor i Franklin, 2024.) dobiva novu dimenziju u kontekstu ljudsko-UI interakcije i algoritamskog utjecaja. Naši pogledi na ljudsku prirodu – jesmo li inherentno racionalni, vođeni strastima (usp. Cohon, 2018.) ili dio determinističke prirode (usp. Youpa, 2024.; Huenemann, n.d.) – fundamentalno oblikuju naš pristup pitanju epistemičke odgovornosti.
- Moralna epistemologija i vrijednost intelektualnog napora: Kako uopće spoznajemo što su ispravne ili pogrešne epistemičke prakse? Jesu li epistemičke norme utemeljene u razumu, intuiciji, društvenom dogovoru ili posljedicama koje proizvode? Trebamo li cijeniti intelektualni napor i borbu s kompleksnošću kao vrijednost po sebi, čak i ako ne vodi uvijek trenutnom zadovoljstvu ili jasnom odgovoru? Širi svjetonazori, poput antropocentrizma koji daje privilegirani status ljudskim interesima, mogu nesvjesno opravdavati epistemičku lijenost ili ignoranciju prema problemima koji ne utječu izravno na nas (što propituje environmentalna etika, vidi Brennan i Norva, 2021.). Povijesni primjeri velikih intelektualnih i kulturnih pomaka (npr. znanstvena revolucija, prosvjetiteljstvo) sugeriraju da je napredak često povezan upravo sa spremnošću na odbacivanje komfornih, ali pogrešnih uvjerenja i prihvaćanjem rigoroznog propitivanja i intelektualne nelagode.
Suočavanje sa složenim epistemološkim problemima suvremenog društva, uključujući i one pojačane kulturom komfora i tehnološkom pasivnošću, zahtijeva svjestan, višeslojni napor usmjeren na izgradnju individualne i kolektivne intelektualne otpornosti:
Individualna razina: Njegovanje intelektualne budnosti i skromnosti
- Jačanje kritičkog mišljenja i metakognicije: Razvijanje sposobnosti analize argumenata, prepoznavanja logičkih pogrešaka, evaluacije izvora i, ključno, promišljanja o vlastitim procesima razmišljanja kako bi se identificirale i korigirale vlastite pristranosti.
- Poticanje epistemičke poniznosti: Kultiviranje svijesti o ograničenjima vlastitog znanja, priznavanje mogućnosti pogreške i otvorenosti za učenje iz tuđih perspektiva i novih dokaza. Ovo je protuotrov dogmatizmu i intelektualnoj aroganciji.
- Razvijanje tolerancije na frustraciju i neizvjesnost: Prihvaćanje da učenje i rješavanje kompleksnih problema često uključuju napor, frustraciju i suočavanje s neizvjesnošću. Izgradnja mentalne izdržljivosti za ustrajanje unatoč teškoćama ključna je za kreativnost i inovaciju.
- Usvajanje kritičke medijske i UI pismenosti: Edukacija o načinu funkcioniranja medija, algoritama društvenih mreža i sustava UI-ja, uključujući njihove potencijalne pristranosti, ograničenja (poput „nazubljene granice”) i rizike (poput ZZV fenomena) (vidi i Brand i sur., 2024.).
- Prakticiranje refleksije i odvajanja: Svjesno izdvajanje vremena za dublje promišljanje, čitanje zahtjevnijih tekstova, vođenje dnevnika ili prakticiranje „digitalnih subota” – perioda namjernog odvajanja od stalnog protoka informacija radi poticanja unutarnje refleksije.
Društvena i grupna razina: Izgradnja kulture propitivanja i izazova
- Promicanje konstruktivnog dijaloga: Stvaranje prostora i poticanje normi za uljudan, ali kritički dijalog koji prelazi ideološke i grupne podjele, s fokusom na razumijevanje argumenata, a ne samo na afektivnu reakciju.
- Izazivanje normi pasivnosti i straha od neuspjeha: Kulturno vrednovanje intelektualne znatiželje, eksperimentiranja i učenja iz pogrešaka, umjesto isključivog fokusiranja na uspjeh i izbjegavanje rizika.
- Stvaranje inkluzivnijih zajednica: Poticanje okruženja (u obrazovanju, na radnom mjestu, u javnom diskursu) koja aktivno traže i cijene raznolikost mišljenja i perspektiva.
- Aktivno uključivanje marginaliziranih perspektiva: Sustavno uključivanje glasova i znanja grupa koje su povijesno bile isključene ili diskreditirane kao ključni mehanizam za razbijanje dominantnih, potencijalno pristranih narativa i borbu protiv epistemičke nepravde (usp. Bidwell i Müller, 2025.).
- Podrška humanističkim pothvatima i kritičkoj misli: Javno i privatno vrednovanje, financiranje i promicanje umjetnosti, filozofije, društvenih i humanističkih znanosti koje postavljaju fundamentalna pitanja, izazivaju pretpostavke i njeguju kritičko mišljenje, čak i ako se čine „nepraktičnima” u kratkoročnom smislu.
Tehnološka i strukturna razina: Redizajn za suradnju, izazov i nadzor
Za UI i ljudsko-UI suradnju:
- Dizajn za aktivni angažman (protiv ZZV-a): Razvoj sustava UI-ja koji potiču, a ne obeshrabruju, ljudski nadzor i kritičku procjenu. To može uključivati sučelja koja jasno prikazuju nesigurnost modela, zahtijevaju ljudsku potvrdu za ključne odluke ili čak povremeno namjerno prezentiraju „izazovne” preporuke kako bi održali korisnikovu budnost.
- Uravnotežena autonomija i jasne uloge: Strateška raspodjela zadataka temeljena na stvarnim sposobnostima UI-ja („nazubljena granica”), gdje ljudi zadržavaju kontrolu nad etički osjetljivim i strateški važnim odlukama (preporuka iz Dell’Acqua, 2023., neobjavljeni rukopis; Dell’Acqua i sur., 2023., HBS Working Paper). Težnja modelu „kentaur” suradnje (Dell’Acqua i sur., 2024.).
- Kontinuirana obuka za suradnju s UI-jem: Edukacija korisnika ne samo o tome kako koristiti UI, već i kako kritički procjenjivati njegove izlaze, prepoznavati potencijalne greške i pristranosti te razumjeti njegova ograničenja (preporuka iz Dell’Acqua, 2023., neobjavljeni rukopis).
- Etički nadzor i algoritamski aktivizam: Implementacija robusnih sustava ljudske kontrole i revizije za odluke UI-ja visokog rizika. Proaktivni napori za identificiranje i ispravljanje pristranosti u podacima i algoritmima (Dell’Acqua i sur., 2020.).
- Pažljivo upravljanje podacima: Nastavak istraživanja i primjena najboljih praksi za upravljanje podacima za obuku UI-ja kako bi se minimizirao rizik kolapsa modela i osigurala kvaliteta i raznolikost (Gerstgrasser i sur., 2024.; Balog, 2020.; Thompson i sur., 2024.).
- Transparentnost i objašnjivost UI-ja: Povećanje transparentnosti u radu modela UI-ja kako bi korisnici i regulatori mogli bolje razumjeti kako donose odluke (Hohman i sur., 2024.; Singh i sur., 2024.).
- Tehnička rješenja za specifične probleme: Nastavak razvoja metoda za ublažavanje halucinacija (Arandjelović, 2025.), semantičkog drifta (Hatipoğlu i sur., 2025.), pristranosti (Tang i sur., 2024.) itd. te praćenje performansi u produkciji (Phelps, 2024.).
Za platforme i algoritme preporuka:
Razmatranje redizajna algoritama s ciljem izlaganja korisnika širem spektru informacija i perspektiva, umjesto isključivog jačanja postojećih preferencija. Implementacija mehanizama koji potiču na provjeru činjenica i kritičko razmatranje. Zahtijevanje veće transparentnosti u načinu na koji algoritmi rangiraju i preporučuju sadržaj.
Obrazovanje za neizvjesnost i kritičnost:
Reforma obrazovnih sustava kako bi se eksplicitno podučavale vještine kritičkog mišljenja, medijske pismenosti, etičkog rezoniranja i suočavanja s kompleksnošću i neizvjesnošću. Implementacija pedagogija koje vrednuju postavljanje pitanja, istraživanje različitih perspektiva i učenje kroz konstruktivni neuspjeh.
Regulacija i politika:
Adresiranje sustavnih nejednakosti koje stvaraju podjele. Promicanje politika koje podržavaju neovisne, kvalitetne medije i znanstveno istraživanje. Razmatranje regulatornih okvira za UI i digitalne platforme koji štite od najgorih oblika manipulacije, diskriminacije i širenja dezinformacija. Izazivanje moćnih interesnih skupina koje aktivno opstruiraju protok točnih informacija ili promiču neodržive prakse.
Epistemiološki problemi suvremenog društva nisu tek apstraktne akademske brige; oni imaju duboke i stvarne posljedice za individualno blagostanje, društvenu koheziju, funkcioniranje demokracije i našu sposobnost da se kolektivno suočimo s globalnim izazovima. Ovi problemi proizlaze iz kompleksne interakcije naše inherentne kognitivne arhitekture, dubokih socijalnih potreba, evolucijskog nasljeđa i moćnih, sveprisutnih tehnologija. Analiza ukazuje da značajan dio suvremenih epistemičkih poteškoća može biti povezan sa zavodljivom, ali opasnom sklonošću prema intelektualnom i emocionalnom komforu – izbjegavanju kognitivne disonance, nelagode nesigurnosti, napora kritičkog mišljenja i izazova koji dolaze s istinskim učenjem i rastom.
Fenomen „zaspati za volanom” u interakciji s umjetnom inteligencijom (Dell’Acqua, 2023., neobjavljeni rukopis) služi kao paradigmatsko upozorenje za širi društveni kontekst. Pasivno prepuštanje tehnologiji da misli umjesto nas, nekritičko prihvaćanje algoritamski filtriranih informacija unutar naših epistemičkih mjehura te izbjegavanje intelektualnih izazova u ime komfora mogu dovesti do erozije ključnih ljudskih sposobnosti – kritičkog prosuđivanja, kreativnosti, samostalnog rješavanja problema i etičke odgovornosti. Posljedice uključuju ne samo individualni gubitak vještina, već i pojačavanje društvenih pristranosti, smanjenje kolektivne otpornosti i potencijalnu kulturnu stagnaciju.
Izlazak iz ovog „mjehura samozadovoljstva” nije lagan i zahtijeva svjestan, kontinuiran napor na svim razinama. Moramo rehabilitirati vrijednost intelektualne nelagode, sumnje i napora kao nužnih preduvjeta za spoznaju i napredak. To podrazumijeva njegovanje individualnih vrlina poput kritičnosti i intelektualne skromnosti, izgradnju društvenih i obrazovnih okruženja koja potiču propitivanje i toleranciju na neuspjeh te promišljen i etički utemeljen dizajn i primjenu tehnologija. Cilj nije odbaciti tehnologiju, već osigurati da ona ostane alat koji osnažuje, a ne umanjuje, ljudsku agenciju i prosudbu – da ostanemo budni i aktivni „za volanom” vlastitog mišljenja i kolektivne sudbine. Izazov je velik, ali alternativa – prepuštanje komforu zablude – nosi daleko veće rizike za budućnost informiranog, kreativnog i otpornog društva.
Napomena: Ovaj popis uključuje reference iz oba dostavljena popisa koje su citirane u gornjem tekstu, kao i reference iz nacrta o radu F. Dell'Acque. Formatiranje slijedi APA 7 standard koliko je to moguće na temelju dostupnih podataka.
- Alemohammad, S., Casco-Rodriguez, J., Luzi, L., Zand, M., Babaei, A., LeJeune, D., Siahkoohi, A., Baraniuk, R. G., & Robinson, D. P. (2024). Collapse or Thrive? Perils and Promises of Synthetic Data in a Self-Generating World. arXiv. https://doi.org/10.48550/arXiv.2410.16713
- Alghamdi, A., Chen, Z., & Wang, Z. (2024). Enhancing Adversarial Resistance in LLMs with Recursion. arXiv. https://doi.org/10.48550/arXiv.2412.06181
- Allen, B., Lu, X., Park, D., Ciampaglia, G. L., & Ahn, Y.-Y. (2024). Large language models reduce public knowledge sharing on online Q&A platforms. PNAS Nexus, 3(9), pgae400. https://doi.org/10.1093/pnasnexus/pgae400
- Arandjelović, R. (2025). Hallucination Mitigation for Retrieval-Augmented Large Language Models: A Review. Mathematics, 13(5), 856. https://doi.org/10.3390/math13050856
- Bafna, N., Chen, T., Chen, X., Liang, J., Balakrishnan, S., & Steinhardt, J. (2024). Strong Model Collapse. arXiv. https://doi.org/10.48550/arXiv.2410.04840
- Balog, K. (2020). Sanitizing Synthetic Training Data Generation for Question Answering over Knowledge Graphs. Preuzeto s https://krisztianbalog.com/files/ictir2020-synthetic.pdf
- BetterHelp editorial team. (n.d.). Social pressure and its impacts. BetterHelp. Preuzeto s https://www.betterhelp.com/advice/general/how-does-social-pressure-impact-our-choices/
- Bidirectional Human-AI Alignment Workshop @ ICLR 2025. (n.d.). Preuzeto s https://openreview.net/pdf?id=HcTiacDN8N
- Bidwell, N. (2024). Epistemic Injustice in Generative AI. arXiv. https://doi.org/10.48550/arXiv.2408.11441
- Bidwell, N., & Müller, V. C. (2025). Individuals and (Synthetic) Data Points: Using Value-Sensitive Design to Foster Ethical Deliberations on Epistemic Transitions. Science and Engineering Ethics, 31(4), 27. https://doi.org/10.1007/s11948-025-00542-4
- Bitton, E., Morgan, A., Bey, A. B., & Shamir, R. (2025). Large language models generating synthetic clinical datasets: a feasibility and comparative analysis with real-world perioperative data. Frontiers in Artificial Intelligence, 8, 1533508. https://doi.org/10.3389/frai.2025.1533508
- Bogg, T., Huang, Y., & Estévez, M. A. G. (2025). The Seven Roles of Artificial Intelligence: Potential and Pitfalls in Combating Misinformation. [Preprint]. ResearchGate. https://doi.org/10.13140/RG.2.2.10332.56965
- Brand, J., Fotopoulou, A., Gouseti, A., & Laurillard, D. (2024). Critical and creative pedagogies for artificial intelligence and data literacy: an epistemic data justice approach for academic practice. Research in Learning Technology, 32. https://doi.org/10.25304/rlt.v32.3296
- Brandt, M. J., Kuppens, T., Spears, R., & Workshop P. (2024a). Unraveling polarization: Insights into individual and collective processes. PNAS Nexus, 3(10), pgae426. https://doi.org/10.1093/pnasnexus/pgae426
- Brandt, M. J., Kuppens, T., Spears, R., & Workshop P. (2024b). Unraveling polarization: Insights into individual and collective processes [PDF]. PNAS Nexus. Preuzeto s https://academic.oup.com/pnasnexus/article-pdf/doi/10.1093/pnasnexus/pgae426/59961525/pgae426.pdf
- Brennan, A., & Norva, Y. S. L. (2021). Environmental Ethics. U E. N. Zalta (Ur.), The Stanford Encyclopedia of Philosophy (jesen 2021.). Metaphysics Research Lab, Stanford University. Preuzeto s https://plato.stanford.edu/archives/fall2021/entries/ethics-environmental/
- Buss, D. M. (1997). Human aggression in evolutionary psychological perspective. Clinical Psychology Review, 17(6), 605–619. https://doi.org/10.1016/s0272-7358(97)00031-2
- Buss, D. M., & Duntley, J. D. (2006). The Evolution of Aggression. Psychology Press. (Informacija iz ResearchGate unosa)
- Calder, T. (2022). The Concept of Evil. U E. N. Zalta (Ur.), The Stanford Encyclopedia of Philosophy (zima 2022.). Metaphysics Research Lab, Stanford University. Preuzeto s https://plato.stanford.edu/archives/win2022/entries/concept-evil/
- Caldera, A. E., & PytlikZillig, L. M. (2020). The Impact of Political Sophistication and Motivated Reasoning on Misinformation. [Preprint/Conference paper]. ResearchGate. https://doi.org/10.13140/RG.2.2.34855.70560
- Chadha, K., Sharma, M., & Sharma, S. (2024). Understanding the Impact of AI-Generated Deepfakes on Public Opinion, Political Discourse, and Personal Security in Social Media. IT Professional, 26(4), 56-61. https://doi.org/10.1109/MITP.2024.3437703
- Chen, R. J., Wang, J. J., Williamson, D. F. K., Chen, T. Y., Lipkova, J., Lu, M. Y., Shady, M., Williams, M., Mahmood, F., & Noor, F. (2023). Toward fairness in artificial intelligence for medical image analysis: identification and mitigation of potential biases in the roadmap from data collection to model deployment. Radiology: Artificial Intelligence, 5(4), e220153. https://doi.org/10.1148/ryai.220153
- Cherry, K. (2023, November 1). Cognitive bias: What it is, signs, how to overcome it. Verywell Mind. Preuzeto s https://www.verywellmind.com/what-is-a-cognitive-bias-2794963
- Clark, C. J., Liu, B. S., Winegard, B. M., & Ditto, P. H. (2019). Tribalism Is Human Nature. Current Directions in Psychological Science, 28(6), 587–592. https://doi.org/10.1177/0963721419862289
- Cohon, R. (2018). Hume's Moral Philosophy. U E. N. Zalta (Ur.), The Stanford Encyclopedia of Philosophy (zima 2018.). Metaphysics Research Lab, Stanford University. Preuzeto s https://plato.stanford.edu/archives/win2018/entries/hume-moral/
- Dell’Acqua, F. (2023). Falling asleep at the wheel: Human/AI collaboration in a field experiment on HR recruiters [Unpublished manuscript]. Harvard Business School.
- Dell’Acqua, F., Ayoubi, C., Lifshitz, H., Sadun, R., Mollick, E., Mollick, L., & Lakhani, K. R. (2023). Generative AI & teamwork: Field experimental evidence (Working Paper). Harvard Business School.
- Dell’Acqua, F., Boudreau, K., Rasouli, Z., Awada, M. A., & Lakhani, K. R. (2024). Cyborgs, centaurs and self automators: Human-GenAI fused, directed, and abdicated knowledge co-creation processes and their implications for skilling (SSRN Working Paper No. 4921696). https://doi.org/10.2139/ssrn.4921696
- Dell’Acqua, F., & Cowgill, B. (2020). Algorithmic fairness rhetoric. AEA Randomized Controlled Trials. https://doi.org/10.1257/rct.1234
- Dell’Acqua, F., Cowgill, B., Deng, S., Hsu, D. J., Verma, N., & Chaintreau, A. (2020). Biased programmers? Or biased data? A field experiment in operationalizing AI ethics. Proceedings of the 21st ACM Conference on Economics and Computation, 679–681. https://doi.org/10.1145/1122445.1122456
- Dell’Acqua, F., Kogut, B., & Perkowski, P. (2023). Super Mario meets AI: Experimental effects of automation and skills on team performance and coordination. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.4573321
- Dell’Acqua, F., McFowland III, E., Mollick, E., Lifshitz-Assaf, H., Kellogg, K. C., Rajendran, S., Krayer, L., Candelon, F., & Lakhani, K. R. (2023). Navigating the jagged technological frontier: Field experimental evidence of the effects of AI on knowledge worker productivity and quality (Harvard Business School Working Paper No. 24-013). Harvard Business School.
- del Palacio, J. R. (2022, December 22). 2.2: Sociological Theoretical Perspectives. Social Sci LibreTexts. Preuzeto s https://socialsci.libretexts.org/Bookshelves/Social_Justice_Studies/Race_and_Ethnic_Relations_in_the_U.S.%3A_An_Intersectional_Approach/02%3A_Sociological_Theories_and_Patterns_of_Intergroup_Relations/2.02%3A_Sociological_Theoretical_Perspectives
- Domínguez-Olmedo, R., Fernández-Martínez, F., & Arco-Calderón, C. L. (2025). Machine-generated text detection prevents language model collapse. arXiv. https://doi.org/10.48550/arXiv.2502.15654
- Duan, M., Tan, Y., Zhao, G., & Liu, T. (2024). Dealing with Synthetic Data Contamination in Online Continual Learning. arXiv. https://doi.org/10.48550/arXiv.2411.13852
- Duntley, J. D., & Buss, D. M. (2005). The evolutionary psychology of violence. Psicothema, 17(4), 570-575.
- Ferguson, C. J. (n.d.). Evolution, Biology, and Aggression. U Oxford Research Encyclopedia of Psychology. Oxford University Press. https://doi.org/10.1093/acrefore/9780190236557.013.738
- Frumkin, H., Bratman, G. N., Breslow, S. J., Cochran, B., Kahn Jr, P. H., Lawler, J. J., Levin, P. S., Tandon, P. S., Varanasi, U., Wolf, K. L., & Wood, S. A. (2024). Refocusing on nature: the role of nature reintegration in environmental, mental, and societal wellbeing. The Lancet Planetary Health, 8(4), e264-e275. https://doi.org/10.1016/S2542-5196(24)00032-8
- Galway, L. P., Beery, T., Jones-Casey, K., & Tasala, K. (2021). Mapping the syndemic of climate change, disproportionate impacts, and mental health: a narrative review. International Journal of Environmental Research and Public Health, 18(12), 6469. https://doi.org/10.3390/ijerph18126469
- Gambetta, E., Singh, A., Santoro, N., & Goldstein, M. (2024). Characterizing Model Collapse in Large Language Models Using Semantic Networks and Next-Token Probability. arXiv. https://doi.org/10.48550/arXiv.2410.12341
- Gerstgrasser, M., Sleight, J., & Rundo, F. (2024). Is Model Collapse Inevitable? Breaking the Curse of Recursion by Accumulating Real and Synthetic Data. arXiv. https://doi.org/10.48550/arXiv.2404.01413
- Ghose, T. (2011, August 23). Understanding the 10 most destructive human behaviors. Live Science. Preuzeto s https://www.livescience.com/14152-destructive-human-behaviors-bad-habits.html
- Gifford, R. (2011). The dragons of inaction: Psychological barriers that limit climate change mitigation and adaptation. American Psychologist, 66(4), 290–302. https://doi.org/10.1037/a0023566
- Hatipoğlu, N., Erdem, E., & Erdem, A. (2025). Context-Preserving Gradient Modulation for Large Language Models: A Novel Approach to Semantic Consistency in Long-Form Text Generation. arXiv. https://doi.org/10.48550/arXiv.2502.03643
- Hohman, F., Rajani, N., Patel, S., Chen, M., & Kumar, V. (2024). AI Transparency in the Age of LLMs: A Human-Centered Research Roadmap. Harvard Data Science Review, 6(3). https://doi.org/10.1162/99608f92.aelql9qy
- Hornsey, M. J., & Fielding, K. S. (2019). The perils of explaining climate inaction in terms of psychological barriers. Nature Climate Change, 9(12), 898–901. https://doi.org/10.1038/s41558-019-0630-9
- Hosny, K. M., Mohammed, A., & Samee, N. A. (2024). Updated Primer on Generative Artificial Intelligence and Large Language Models in Medical Imaging for Medical Professionals. Cureus, 16(3), e55454. https://doi.org/10.7759/cureus.55454
- Howard Community College. (n.d.). Sociological Perspectives on Education. U Introduction to Sociology. Pressbooks @ Howard Community College. Preuzeto s https://pressbooks.howardcc.edu/soci101/chapter/16-2-sociological-perspectives-on-education/
- Hu, Z., Fu, X., Guo, P., & Xiong, H. (2025). Combatting Dimensional Collapse in LLM Pre-Training Data via Diversified File Selection. arXiv. https://doi.org/10.48550/arXiv.2504.20644
- Huenemann, C. (n.d.). Nietzsche's Ethics. U Internet Encyclopedia of Philosophy. Preuzeto s https://iep.utm.edu/nietzsches-ethics/
- IBM Research. (n.d.). What is Model Collapse? IBM Think Topics. Preuzeto 3. svibnja 2025. s https://www.ibm.com/think/topics/model-collapse
- iMotions. (n.d.). Understanding Social Behavior: Key Concepts Explained. iMotions. Preuzeto s https://imotions.com/blog/learning/research-fundamentals/what-is-social-behavior/
- Ingram, D., & Cauchi, S. (n.d.). Good and evil. EBSCO Research Starters. Preuzeto s https://www.ebsco.com/research-starters/religion-and-philosophy/good-and-evil
- Jern, A., Chang, K. M. K., & Kemp, C. (2022). Opinion polarization in human communities can emerge as a natural consequence of beliefs being interrelated. PLoS ONE, 17(9), e0272998. https://doi.org/10.1371/journal.pone.0272998
- Kappes, A., Harvey, A. H., Lohrenz, T., Montague, P. R., & Sharot, T. (2022). Cognitive–motivational mechanisms of political polarization in social-communicative contexts. Proceedings of the National Academy of Sciences, 119(32), e2201273119. https://doi.org/10.1073/pnas.2201273119
- Kay, M., Smart, A., Bragg, J., Bhandari, N., Subramonyam, H., Singh, K., & Spiel, K. (2024). Epistemic Injustice in AI-Generated Histories: Evaluating Cultural Bias, Hallucinations, and Community Sovereignty. CHI Conference on Human Factors in Computing Systems. Preuzeto s https://escholarship.org/uc/item/92z102k6
- Kombol, M., Lauri Korajlija, A., & Grubić, M. (2024). Adolescents on Social Media: Aggression and Cyberbullying. Behavioral Sciences, 14(1), 53. https://doi.org/10.3390/bs14010053
- Kowalski, R. M., Giumetti, G. W., Schroeder, A. N., & Lattanner, M. R. (2017). The Multi-Faceted Issue of Cyberbullying. Journal of Integrated Social Sciences, 7(1), 45-55.
- Kraft, P. W., Lodge, M., & Taber, C. S. (2015). Why People “Don’t Trust the Evidence”: Motivated Reasoning and Scientific Beliefs. The ANNALS of the American Academy of Political and Social Science, 658(1), 121–133. https://doi.org/10.1177/0002716214554758
- Kubin, E., & von Sikorski, C. (2021). The polarized mind in context: Interpersonal and intrapersonal dynamics of affective polarization. American Psychologist, 76(8), 1275–1287. https://doi.org/10.1037/amp0000900
- Kunda, Z. (1990). The case for motivated reasoning. Psychological Bulletin, 108(3), 480–498. https://doi.org/10.1037/0033-2909.108.3.480
- Kwan, C. M., Lee, T. H., Gan, W. C., & Bong, J. E. (2023). Cyberbullying, Social Media Addiction and Associations with Depression, Anxiety, and Stress among Medical Students in Malaysia. International Journal of Environmental Research and Public Health, 20(5), 3870. https://doi.org/10.3390/ijerph20053870
- Lee, S. (2024). The Politics of Ethics: Can Honesty Cross Over Political Polarization? Journal of Intelligence, 6(1), 23. https://doi.org/10.3390/jintelligence6010023
- Leslie, D., Burr, C., Aitken, M., Cowls, J., Katell, M., & Briggs, M. (2023). Practical, epistemic and normative implications of algorithmic bias in healthcare artificial intelligence: a qualitative study of multidisciplinary expert perspectives. Journal of Medical Ethics, 49(11), 751-759. https://doi.org/10.1136/jme-2022-108850
- Lewis, M., Lu, J., Hopkins, A., & Stenetorp, P. (2020). Know When To Stop: A Study of Semantic Drift in Text Generation. Meta AI Research. Preuzeto s https://ai.meta.com/research/publications/know-when-to-stop-a-study-of-semantic-drift-in-text-generation/
- Liang, C., Chen, C.-A., Yang, C.-C., & Wu, A. (2025). Examining the Expanding Role of Synthetic Data Throughout the AI Development Pipeline. arXiv. https://doi.org/10.48550/arXiv.2501.18493
- Liu, H., & Cheng, Q. (2024). Processing of misinformation as motivational and cognitive biases. Frontiers in Psychology, 15, 1430953. https://doi.org/10.3389/fpsyg.2024.1430953
- Lowry, P. B., Cao, J., & Everhart, A. (n.d.). Effects of social vigilantism and anonymity on online confrontations of prejudice. [Doktorska disertacija, Kansas State University]. K-REx Repository.
- Lu, J., Lewis, M., & Stenetorp, P. (2020). Know When To Stop: A Study of Semantic Drift in Text Generation. U Proceedings of the 2nd Workshop on Deep Learning for Low-Resource Natural Language Processing (str. 101-106). Association for Computational Linguistics. Preuzeto s http://proceedings.mlr.press/v119/lu20c/lu20c.pdf
- Lumen Learning. (n.d.). Social Stratification and Inequality. U Introduction to Sociology. LOUIS Pressbooks. Preuzeto s https://louis.pressbooks.pub/introsociology/chapter/social-stratification/
- Machackova, H., & Pfetsch, J. (2024). Unmasking the Cyberbully: Understanding the Psychological and Social Dynamics behind Online Abuse. [Preprint/Conference paper]. ResearchGate. https://doi.org/10.13140/RG.2.2.16602.72649
- McCradden, M. D., Joshi, S., Anderson, J. A., & Goldenberg, A. (2021). Trust and medical AI: the challenges we face and the expertise needed to overcome them. Journal of the American Medical Informatics Association, 28(6), 1346–1350. https://doi.org/10.1093/jamia/ocaa330
- McGinn, D. (2025). A taxonomy of epistemic injustice in the context of AI and the case for generative hermeneutical erasure. arXiv. https://doi.org/10.48550/arXiv.2504.07531
- McKenna, M., & Coates, D. J. (2021). The Problem of Evil. U E. N. Zalta (Ur.), The Stanford Encyclopedia of Philosophy (zima 2021.). Metaphysics Research Lab, Stanford University. Preuzeto s https://plato.stanford.edu/archives/win2021/entries/evil/
- Meadow, A. M., Ferguson, D. B., Guido, Z., Horangic, A., Owen, G., & Wall, T. (2015). Moving toward the deliberate coproduction of climate science knowledge. Weather, Climate, and Society, 7(2), 179–191. https://doi.org/10.1175/WCAS-D-14-00050.1
- Melton, T. H., & Cunningham, C. A. (2020). Clinicians' Cognitive and Affective Biases and the Practice of Psychotherapy. Psychotherapy, 57(4), 450–464. https://doi.org/10.1176/appi.psychotherapy.20200025
- Miller, R. (2023, 12. rujna). How cognitive biases impact our relationships. Psychology Today. Preuzeto s https://www.psychologytoday.com/us/blog/here-there-and-everywhere/202309/how-cognitive-biases-impact-our-relationships
- Mondal, P. (n.d.). Hate Crimes: An Overview. Easy Sociology. Preuzeto s https://easysociology.com/sociology-of-crime-deviance/hate-crimes-an-overview/
- Musolino, J. (2023). Political polarization: a curse of knowledge? Cognitive Research: Principles and Implications, 8(1), 48. https://doi.org/10.1186/s41235-023-00501-3
- Niemelä, M. A., Schoonvelde, M., & Vliegenthart, R. (2022). Disinformation, Politically Motivated Reasoning, and Knowledge Resistance. European Review, 30(5), 599-612. https://doi.org/10.1017/S106279872200009X
- Norgaard, K. M. (2011). Living in Denial: Climate Change, Emotions, and Everyday Life. MIT Press.
- NumberAnalytics Blog. (2023, 25. listopada). Understanding Cognitive Bias: Unveiling the Science Behind Decision-Making. NumberAnalytics. Preuzeto s https://www.numberanalytics.com/blog/understanding-cognitive-bias-science-decision-making
- O'Connor, T., & Franklin, C. (2024). Free Will. U E. N. Zalta & U. Nodelman (Ur.), The Stanford Encyclopedia of Philosophy (proljeće 2024.). Metaphysics Research Lab, Stanford University. Preuzeto s https://plato.stanford.edu/archives/spr2024/entries/freewill/
- Patchin, J. W. (2024). Cyberbullying on Social Media: Definitions, Prevalence, and Impact Challenges. Journal of Cybersecurity, 10(1), tyae026. https://doi.org/10.1093/cybersecurity/tyae026
- Penn, D. J. (2003). The Evolutionary Roots of Our Environmental Problems: Toward a Darwinian Ecology. The Quarterly Review of Biology, 78(3), 275–301. https://doi.org/10.1086/377051
- Pennycook, G., & Rand, D. G. (2021). The psychology of fake news. Trends in Cognitive Sciences, 25(5), 388–402. https://doi.org/10.1016/j.tics.2021.02.007
- Peterson, E., & Iyengar, S. (2021). Partisan Gaps in Political Information and Information-Seeking Behavior: Motivated Reasoning or Cheerleading? American Journal of Political Science, 65(1), 187–202. https://doi.org/10.1111/ajps.12536
- Pfattheicher, S., Keller, J., Rentzsch, K., & Schindler, S. (2024). The role of narcissism and motivated reasoning on misinformation propagation. Frontiers in Communication, 9, 1472631. https://doi.org/10.3389/fcomm.2024.1472631
- Phelps, D. (2024, 16. veljače). Generative AI observability: Issues and solutions. BCS, The Chartered Institute for IT. Preuzeto s https://www.bcs.org/articles-opinion-and-research/generative-ai-observability-issues-and-solutions/
- Ridgeway, C. L. (2014). Why Status Matters for Inequality. American Sociological Review, 79(1), 1–16. https://doi.org/10.1177/0003122413515997
- Ross, L. S. (2023). The skeptical import of motivated reasoning: a closer look at the evidence. Inquiry, 1–24. https://doi.org/10.1080/13546783.2023.2276975
- Samadi, M., & Fitzgerald, C. J. (2024). Critical Thinking in the Age of Political Polarization: Navigating Cognitive Biases, Social Identity, and Affiliation. [Preprint]. ResearchGate. https://doi.org/10.13140/RG.2.2.19768.52481
- Sarkissian, A. (2025, 12. veljače). AI Revolution: From Apple's News to Industry's New Frontier. Arcot Group. Preuzeto s https://www.arcotgroup.com/ai-revolution-apple-iphone-automation-advances-reliability-challenges-2024/
- Sarkodie, S. A., & Strezov, V. (2019). Environmental crisis and human well-being: A review. Reviews on Environmental Health, 34(1), 51-61. https://doi.org/10.1515/reveh-2018-0071
- Schröder, T. (2019). AI-Mediated Communication: How the Perception that Profile Text was Written by AI Affects Trustworthiness. [Preprint]. ResearchGate. https://doi.org/10.13140/RG.2.2.32823.57767
- Schröder, T. (n.d.). The AI-mediated communication dilemma: epistemic trust, social media, and the challenge of generative artificial intelligence. PhilArchive. Preuzeto 3. svibnja 2025. s https://philarchive.org/archive/SAHTAC
- Seddik, M. E., Al-Mohammad, A., Singh, J., & Bou-Ammar, H. (2024). How Bad is Training on Synthetic Data? A Statistical Analysis of Language Model Collapse. arXiv. https://doi.org/10.48550/arXiv.2404.05090
- Sellier, A.-L., Choshen-Hillel, S., & D’Angelo, C. (2023). Editorial: Highlights in psychology: cognitive bias. Frontiers in Psychology, 14, 1243866. https://doi.org/10.3389/fpsyg.2023.1243866
- Shackelford, T. K., & Buss, D. M. (2000). Human Aggression in Evolutionary Psychological Perspective. Psychological Inquiry, 11(4), 290-297.
- Shumailov, I., Shumaylov, Z., Zhao, Y., Gal, Y., Papernot, N., & Anderson, R. (2023). The Curse of Recursion: Training on Generated Data Makes Models Forget. arXiv. https://doi.org/10.48550/arXiv.2305.17493
- Singh, H., Chahal, D., & Saini, K. (2024). Opening the Black Box of Artificial Neural Networks. International Research Journal of Modernization in Engineering Technology and Science, 6(12), 1713-1721. Preuzeto s https://figshare.swinburne.edu.au/articles/journal_contribution/Opening_the_Black_Box_of_Artificial_Neural_Networks/25177451
- Sociology Group. (2024, 1. veljače). Conflict Theory in Sociology: The Easiest Student Guide with Real Examples. Sociology Group: Your Guide to Sociology. Preuzeto s https://sociology.org/studying-conflict-theory-sociology/
- Stangor, C., & Walinga, J. (n.d.). Chapter 1. An Introduction to Sociology. U Introduction to Sociology – 1st Canadian Edition. BC Open Textbooks. Preuzeto s https://opentextbc.ca/introductiontosociology/chapter/chapter1-an-introduction-to-sociology/
- StatPearls. (n.d.). Human Behavior in a Social Environment. NCBI Bookshelf. Preuzeto s https://www.ncbi.nlm.nih.gov/books/NBK574501/
- Surendran, P. (2012). Human behavior, environmental problem and social wellness. International Journal of Development and Sustainability, 1(3), 205-212.
- Tang, P., Zhao, Z., & Zhang, A. (2024). BIAS AMPLIFICATION IN DIFFUSION MODELS: ETHICAL RISKS AND MITIGATION APPROACHES. [Preprint]. ResearchGate. https://doi.org/10.13140/RG.2.2.14986.24001
- The Decision Lab. (n.d.). Social Norms. The Decision Lab. Preuzeto s https://thedecisionlab.com/biases/social-norms
- Thompson, B., Cohen, J., Biderman, S., & Reynolds, L. (2024). On the Diversity of Synthetic Data and its Impact on Training Large Language Models. arXiv. https://doi.org/10.48550/arXiv.2410.15226
- Traugott, M. W. (2024). Motivated Reasoning through the Lens of Affective Political Polarization. [Conference paper]. WAPOR Conference. Preuzeto s https://wapor.org/wp-content/uploads/Traugott-Motivated-Reasoning-through-the-Lens-of-Affective-Political-Polarization.pdf
- Tucker, J. A., Guess, A., Barbera, P., Vaccari, C., Siegel, A., Sanovich, S., Stukal, D., & Nyhan, B. (2018). Social Media, Political Polarization, and Political Disinformation: A Review of the Scientific Literature. Hewlett Foundation. Preuzeto s https://www.hewlett.org/wp-content/uploads/2018/03/Social-Media-Political-Polarization-and-Political-Disinformation-Literature-Review.pdf
- Ultimaten, P. (2018, 28. rujna). 12 common biases that affect how we make everyday decisions. Psychology Today. Preuzeto s https://www.psychologytoday.com/us/blog/thoughts-on-thinking/201809/12-common-biases-that-affect-how-we-make-everyday-decisions
- Vaish, A., Grossmann, T., & Woodward, A. (2008). Not all emotions are created equal: the negativity bias in social-emotional development. Psychological Bulletin, 134(3), 383–403. https://doi.org/10.1037/0033-2909.134.3.383
- Van Vugt, M., De Cremer, D., & Janssen, D. P. (2007). Gender differences in competition and cooperation: The mediating role of communal and agentic characteristics. Journal of Personality and Social Psychology, 93(5), 858–875. (Napomena: Ovo je referenca 48 iz liste za Text 2; točna veza s hipotezom muškog ratnika zahtijeva dublju analizu sadržaja).
- Wang, X., Yang, L., Qiao, R., & Wang, P. (2022). Bystanders Join in Cyberbullying on Social Networking Sites: The Deindividuation and Moral Disengagement Perspectives. Information Systems Research, 34(1), 344–365. https://doi.org/10.1287/isre.2022.1161
- Wang, C., & Russakovsky, O. (2022). On the Impact of Partial Data Observation on Bias Amplification in Learning Models. arXiv. https://doi.org/10.48550/arXiv.2201.11706
- Yale News. (2024, 7. ožujka). Doing more, but learning less: The risks of AI in research. Preuzeto s https://news.yale.edu/2024/03/07/doing-more-learning-less-risks-ai-research
- Youpa, A. (2024). Spinoza’s Psychological Theory. U E. N. Zalta & U. Nodelman (Ur.), The Stanford Encyclopedia of Philosophy (proljeće 2024.). Metaphysics Research Lab, Stanford University. Preuzeto s https://plato.stanford.edu/archives/spr2024/entries/spinoza-psychological/
- Zhang, J. (2016). Why Do Adults Engage in Cyberbullying on Social Media? An Application of the Theory of Planned Behavior. Journal of Educational Computing Research, 54(7), 962-986. https://doi.org/10.1177/0735633116646846
- Zhang, Y., & Bansal, M. (2019). Addressing Semantic Drift in Question Generation for Semi-Supervised Question Answering. U Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP) (str. 2601–2611). Association for Computational Linguistics. https://doi.org/10.18653/v1/D19-1253
- Zsila, Á., & Reyes, M. E. S. (2024). Understanding Adolescent Cyberbullies: Exploring Social Media Addiction and Psychological Factors. [Preprint]. ResearchGate. https://doi.org/10.13140/RG.2.2.18937.24162
- Zsila, Á., Reyes, M. E. S., Orosz, G., & Demetrovics, Z. (2021). Understanding Adolescent Cyberbullies: Exploring Social Media Addiction and Psychological Factors. Behavioral Sciences, 11(2), 20. https://doi.org/10.3390/bs11020020