TL;DR — A számok, amelyek nem hazudnak
- Az internet forgalmának 51%-a bot — a hirdetések felét nem ember „látja”
- Az új weboldalak 74,2%-a AI-generált tartalmat tartalmaz (Ahrefs, 2025)
- A Google keresések 69%-a kattintás nélküli — a klasszikus keresési szándék mérése vakon repül
- Az AI Overview (AI-összefoglaló) megjelenése 30-61%-kal csökkenti a kattintásokat (5 független kutatócég)
- Az Amazon AI-vélemények 74%-a ötcsillagos, 93%-a „hitelesített vásárlás” — de senki nem vette meg a terméket
- A model collapse (modellösszeomlás) az orvosi domainben 2 generáció után klinikailag használhatatlan eredményeket ad
- Az emberi tartalom készlete 2026-ra elfogy az AI-tanítás számára (Epoch AI)
- A bizalomvesztés meredek: a Gallup médiabizalom 40%-ról 28%-ra esett 5 év alatt
- A „workslop” szervezetenként évi $9,1 millió termelékenységvesztést okoz
„Ha a mérőeszközeid a régi világ feltételezéseire épülnek — mit mérnek valójában?”
Mi az a „slop”, és miért számít?
A „slop” szó 2025-ben a Merriam-Webster év szava lett. Eredetileg moslékot, löttyöt jelent — azt az ételmaradékot, amit a disznóknak adnak. Ma az interneten ugyanezt jelenti: tömeges, alacsony minőségű, gépi tartalom, amit senki nem kért, de mindenhol ott van.
Gondolj bele: megnyitod a YouTube-ot, és a felében furcsa, szinte embertelen videókat látsz. Rákeresel valamire a Google-ben, és az első találatok mintha nem is emberek írták volna. Olvasol egy termékvéleményt az Amazonon, és valami nem stimmel — túl szép, túl tökéletes, mintha egy gép írta volna.
Nos, nem „mintha”. Valóban gép írta.
Ez a dokumentum azt mutatja meg — számokkal, mérésekkel, kutatásokkal —, hogy ez mennyire valós jelenség, mennyire mély a hatása, és hová vezet, ha nem csinálunk semmit. 23 empirikus mérést tartalmaz, és mindegyik mögött van egy közös szál, amit piackutatók azonnal felismernek: a hagyományos mérési eszközök érvényessége fogy el a szemünk előtt.
A fogyasztói vélemények 3-5%-a gépi, és ez az arány nő. A clickstream panelek (kattintásfolyam-mérő rendszerek) már nem képesek megkülönböztetni emberi és bot viselkedést abban az 51%-ban, ami gépi forgalom. A fókuszcsoportok résztvevői „informálódnak” a konzultáció előtt — gépi tartalmakból. A brand tracking (márkakövetés) kérdőíves rendszerek nem veszik figyelembe, hogy a válaszadó véleményét részben AI-összefoglaló formálta, nem a termékélmény.
Aki piackutatással foglalkozik, annak most egyetlen kérdés számít: ha a mérőeszközeid a régi világ feltételezéseire épülnek, mit mérnek valójában?
A zero-click arány, az AI Overview terjedése, a review-kontamináció és a kompetencia-illúzió együttesen egy metodológiai vákuumot teremtenek. Nincs validált eszköztár arra, hogy elkülönítsd a valódi fogyasztói szándékot a gépi zajtól. Aki ezt az eszköztárat elsőként építi fel — az organikus vélemény és a gépi kontamináció közötti szignifikáns különbség megbízható mérését —, az nem egy szolgáltatást ad el, hanem a piackutatás következő generációját definiálja.
I. Mennyi AI-tartalom van az interneten?
A nagy kép: már több a gép, mint az ember
Képzeld el az internetet úgy, mint egy hatalmas piacteret, ahol emberek beszélgetnek, cikkeket írnak, véleményeket osztanak meg. Most képzeld el, hogy erre a piactérre egyre több robot érkezik, akik szintén beszélnek, írnak, véleményeznek — de nem valódi tapasztalatból, hanem mintákból, amiket korábbi szövegekből tanultak.
2025-re a robotok többségbe kerültek. Az internet forgalmának 51%-a gépi — és ez nem túlzás, nem jóslat, hanem mérés. Ha ma megnyitsz egy weboldalt, nagyobb eséllyel olvasol gépi tartalmat, mint emberit.
Az AI-tartalom aránya az interneten összességében ~5%-ról (2020) 48%-ra (2025. május) nőtt. Ez közel tízszeres emelkedés öt év alatt.
Az új weboldalak: tízből hét gépi
Az Ahrefs 2025 áprilisában végzett felmérése szerint tízből hét új weboldal tartalmát mesterséges intelligencia írta. Nem segítette — írta. Emberek nélkül, ellenőrzés nélkül, valódi tapasztalat nélkül. A pontos szám: 74,2%.
Mit jelent ez a gyakorlatban? Amikor holnap rákeresel egy kérdésre, és az első három találat egy friss weboldal, a statisztikai valószínűsége annak, hogy mindhárom AI-generált, meghaladja a 40%-ot.
A Google keresés: egyre kevésbé segít
Amikor rákeresel valamire a Google-ben, a legjobb 20 találat közül majdnem minden ötödiket AI írta (17,31% — csúcsban 19,56%). De ennél is fontosabb, ami a háttérben történik.
A zero-click (kattintás nélküli) keresések aránya évről évre nő — a Google keresések 69%-a nem vezet semmilyen weboldalra. A felhasználó választ kap anélkül, hogy bármilyen oldalt meglátogatna. A klasszikus search intent (keresési szándék) mérés — amire a teljes SEO ipar épül — vakon repül.
Amikor a Google megjelenít egy AI Overview-t (AI-összefoglalót) a keresési oldalon, a helyzet még drasztikusabb. Öt egymástól független kutatócég mérte a hatást:
| Kutatócég | Adatmennyiség | Kattintáscsökkenés |
|---|---|---|
| Seer Interactive | 25,1 millió megjelenés, 3119 kifejezés | -61% |
| Ahrefs | 300 000 kulcsszó | -58% |
| GrowthRC | 200 000+ kulcsszó | -32% |
| seoClarity | 12 millió kulcsszó | -24 százalékpont |
| BrightEdge | Fortune 100 cégek | -30% |
A Google AI-összefoglalója a keresések 15-60%-ában jelenik meg (a mérési módszertantól függően), de az informatív kérdéseknél — „hogyan működik?”, „mi az a…?” — ez az arány eléri a 88%-ot (seoClarity). Vagyis: éppen azoknál a kérdéseknél, amelyeknél az ember tájékozódni akar, a Google szinte mindig AI-összefoglalóval válaszol, nem eredeti forrásokkal.
Eközben a felhasználók egyénenként 20%-kal kevesebb keresést indítanak évente (Datos, Q2 2025). Összességében a weboldalak — újságok, blogok, webáruházak — drámaian kevesebb látogatót kapnak, miközben az AI átveszi a válaszadás szerepét.
A Google piaci részesedése is az évtized legnagyobb csökkenését mutatja: 91,47%-ról 89,57%-ra esett (StatCounter, 2025). Ez kicsinek tűnik — de a Google piacán ez milliárdos bevételkiesést jelent.
Miért számít ez az AI slop szempontjából?
A Google AI-összefoglalói maguk is az internetről gyűjtik az információt. Ha az internet tartalma egyre inkább AI-generált (74,2% az új weboldalaknál), akkor a Google AI válaszai AI-tartalmak alapján fogalmaznak — és az emberek ezt a választ fogadják el anélkül, hogy az eredeti forrást megnéznék.
A nem validált tartalom tehát egy újabb szűrőn átmenve, még hitelesebb csomagolásban jut el az olvasóhoz. Ez nem egyszerű „hamis hír” — ez rendszerszintű kontamináció, ahol a szűrő maga is fertőzött.
Platformonként: hol áll a helyzet?
| Platform | Mi történik? | A szám |
|---|---|---|
| YouTube | Minden 3-5. ajánlott videó AI által generált „brainrot” tartalom | 21-33% |
| YouTube | 278 csatorna CSAK AI-slopot gyárt — 63 milliárd megtekintés | $117M/év hirdetési bevétel |
| X (Twitter) | Az összes fiók akár kétharmada lehet bot; csúcsidőben a forgalom háromnegyede automatizált | 64% bot |
| Körülbelül 95 millió hamis fiók (minden tizedik). A nagy influencerek követőinek negyede gép | 9,5% hamis | |
| Egyetlen év alatt 5,4 milliárd hamis fiókot töröltek — ez a valódi felhasználók kétszerese | 5,4 Mrd törölve |
Mi jelent a „brainrot”? A brainrot szó szerint „agyrohadás”. Olyan tartalmakat jelöl, amelyeknek nincs értelmük, de a közösségi média algoritmusa mégis ajánlja őket, mert az emberek kattintanak rájuk. Például AI által generált furcsa animációk, vagy robotok által felolvasott Reddit-sztorik háttérjátékkal. A YouTube CEO 2026-os prioritásnak nevezte a brainrot és slop elleni küzdelmet — ami már önmagában jelzi a probléma mértékét.
II. A vélemények piaca: hogyan omlik össze a bizalom?
Az Amazon-példa: a hamis ötcsillag
Képzeld el, hogy vásárolni akarsz egy fejhallgatót az Amazonon. Ránézel a véleményekre: 4,7 csillag, 2000 értékelés, a legtöbb ötcsillagos. Meggyőző, igaz?
De most nézd meg közelebbről, mit mutatnak a számok (Pangram Labs, 2025. július):
- Az AI által írt vélemények 74%-a ötcsillagos — az emberiek között ez csak 59%
- Az AI-vélemények 93%-a „Hitelesített vásárlás” címkét visel, ami elvileg azt jelenti, hogy valóban megvette a terméket — de nem vette meg, mert a véleményt gép írta
- A szépségápolási termékek között minden huszadik vélemény AI által generált
Miért fontos ezt megérteni? Egy valódi vélemény mögött valós tapasztalat áll: valaki tényleg megvette a fejhallgatót, viselte egy hétig, kipróbálta futás közben, és leírta, hogy nyomja a fülét. Egy AI-vélemény mögött nincs tapasztalat — a gép korábbi vélemények mintázataiból állította össze a szöveget. Úgy hangzik, mintha valaki kipróbálta volna, de senki nem próbálta ki. Ez nem egyszerűen „hamis” vélemény — ez egy nem validált állítás, ami valósnak tűnik, de soha nem lett összemérve a valósággal.
És van egy további, alattomos réteg: a Harvard HBS kutatása (Zhai és Ching, 2026. január) kimutatta, hogy az Amazon saját AI-összefoglalói szisztematikusan felülreprezentálják a hamis véleményeket — vagyis az Amazon saját eszköze gyorsítja az Akerlof-spirált. A platform, amely a bizalmat kellene, hogy garantálja, maga is a kontamináció része.
A „citromok piaca” — Akerlof élőben
Van egy Nobel-díjas közgazdasági elmélet, ami pontosan leírja, hogy mi történik ilyenkor. George Akerlof 1970-ben írta le a „citromok piaca” (market for lemons) modelljét, és a használtautó-piacra gondolt, de ma az egész internetre igaz.
Az analógia: képzeld el, hogy használt autót akarsz venni. Vannak jó autók (ezeket nevezzük „őszibarackoknak”) és rossz autók (ezeket „citromoknak”). Az eladó tudja, milyen az autó, de a vevő nem — ez az információs aszimmetria (information asymmetry). Mivel a vevő nem tud különbséget tenni, a piacon az „átlagos” minőségért hajlandó fizetni. De ezért az árért csak a rossz autók eladói hajlandók eladni — mert a jó autó többet ér. Lassan a jó autók eltűnnek a piacról.
Most cseréld ki az autókat internetes tartalomra:
- Jó autó = valódi emberi tapasztalat, hiteles vélemény, alapos cikk
- Rossz autó = AI által generált vélemény, sablonos cikk, gépi tartalom
- A vevő = te, aki olvasod
Ha nem tudod megkülönböztetni a valódit a hamistól, az történik, amit Akerlof megjósolt: a jó tartalom kiszorul. Ha valaki órákat tölt egy alapos termékértékelés megírásával, de mellette ott van ezer AI-generált ötcsillagos vélemény, akkor senki nem fogja megkülönböztetni az övét. Feladja. A piacon csak „citromok” maradnak.
Easley és Kleinberg kutatók kiszámolták a pontos küszöböt:
Ha a jó termékek aránya egy piacon kétharmad alá csökken, csak egyetlen egyensúly létezik: az, amelyben kizárólag rossz termékek maradnak. A vevők ezt előre tudják, és a piac megáll.
Aki kifejezetten az Akerlof-modellt alkalmazza AI-piacokra: Zhai és Yang (HBS, 2025) a „Platform Design with Lemons” tanulmányukban, és Chhillar és társai (arXiv, 2026. január) a „When Life Gives You AI, Will You Turn It Into A Market for Lemons?” című írásukban — ez utóbbi az első kísérleti keretrendszer. Fő megállapításuk: a felhasználók alulkorrigálnak a citromokra, és magas citronsűrűségnél még a közzétételi mechanizmusok is csődöt mondanak.
A tudomány is érintett
A tudomány világa ugyanígy megrendült:
- Az ICLR nevű nagy mesterségesintelligencia-konferencián a bírálatok (amikkel a kutatók eldöntik, melyik tanulmány jó) 21%-át AI írta — tehát nem tesztel, nem kérdőjelez meg, hanem mintázatokat ismétel korábbi bírálatokból anélkül, hogy megértené a tartalmat
- A tudományos csalás duplázódási ideje 18 hónap — vagyis másfél évente kétszer annyi hamis tudományos cikk jelenik meg, mint korábban
- Az AI chatbotok érvényes tanulmányok 18%-át tévesen visszavontnak jelölték, miközben visszavont tanulmányokat igaznak közöltek — mert nem a tartalom igazságát vizsgálták, hanem szövegmintázatok alapján „tippeltek”
- A Wiley/Hindawi 8000+ cikket vont vissza 2023-ban és 19 folyóiratot zárt be (2024. június), 35-40 millió dolláros bevételkiesés. A Wiley saját szűrője a beérkező kéziratok 10-13%-át jelöli papírmalomnak (paper mill — gyártósori hamis cikkeket előállító szervezet)
- A visszavonások száma 2023-ban meghaladta a 10 000-et — új rekord. Az AI-hoz köthető visszavonások: 2022 előtt összesen kevesebb mint 20, 2023-ban egyedül 663
III. Fel tudod ismerni, ha gép írta? (Nem.)
Az emberek: érmefeldobás szintjén
Egy 2025-ös nagymintás kutatás (iProov) megkérte az embereket, hogy különböztessék meg a valódi és a gépi tartalmat. Az eredmény:
- Az összes résztvevő közül mindössze 0,1% — vagyis ezerből egy ember — tudta helyesen azonosítani az összes valódi és hamis tartalmat
- A hamis videókat (deepfake) az emberek csak az esetek negyedében ismerték fel helyesen — ez rosszabb, mint ha pénzfeldobással döntenénk
„A fegyverként használható szintetikus média elleni egyik fő védelmünk továbbra is az, hogy a célszemély vizuálisan felismeri a gépi tartalmat. A szintetikus tartalom valósághűségének növekedésével ez a védelem egyre hatástalanabb.”
Gondolj bele, mit jelent ez a gyakorlatban: ha egy deepfake videó készül rólad, a barátaid, a kollégáid, a családod 75%-os eséllyel el fogja hinni, hogy az valóban te vagy. A vizuális felismerés mint védelem — amire intuitíven számítunk — gyakorlatilag nem létezik.
A gépek sem tudják megbízhatóan
Azt gondolnánk, hogy ha az ember nem tudja felismerni, majd a gép felismeri. De a helyzet ennél bonyolultabb:
| Szöveg típusa | Detektálási pontosság |
|---|---|
| Érintetlen, nyers AI-szöveg | 86-98% |
| Átírt, szerkesztett szöveg | 60-70% |
| Egyszerű trükk („írj úgy, mint egy tinédzser”) | <10% |
Forrás: UCLA, Times Higher Education, több audit (2025-2026)
A 86-98%-os pontosság impresszíven hangzik — amíg nem gondolunk bele, hogy ez csak nyers, érintetlen AI-szövegre igaz. A valós világban senki nem publikálja az AI kimenetet változtatás nélkül (vagy ha igen, az a legkevésbé veszélyes eset). Amint valaki átír, szerkeszt, emberi elemeket kever bele — a detektálás 60-70%-ra esik. Egy egyszerű utasítás az AI-nak — „írj úgy, mintha egy tinédzser lennél” — 10% alá nyomja a felismerési arányt. Ez egy fegyverkezési verseny, amelyben a támadó mindig előnyben van.
Az igazságtalanság: aki nem anyanyelvi, azt bünteti a rendszer
Van egy különösen kellemetlen mellékhatás. Az AI-felismerő eszközök hajlamosak arra, hogy ember által írt szöveget is AI-nak jelöljenek — különösen, ha a szerző nem anyanyelvi beszélő:
- A GPTZero a nem anyanyelvi angol szerzők szövegét az esetek negyedében tévesen gépi szövegnek jelöli
- A Turnitin 10-15%-ban, a ZeroGPT 15-20%-ban téved ilyen esetekben
Ez azt jelenti, hogy egy magyar, kínai vagy spanyol diák, aki angolul ír egy dolgozatot, négyszer nagyobb eséllyel kap igazságtalan „csalás” bélyeget, mint egy anyanyelvi társa. A detektorok tehát nem egyszerűen pontatlanok — rendszerszintűen diszkriminálnak. Az eszköz, amelyet a hitelesség védelmére fejlesztettek, maga is igazságtalanságot termel.
IV. A nagy visszacsatolási hurok: amikor a rendszer saját magát emészti fel
Ezt kell igazán megérteni
Ez a dokumentum legfontosabb része. Itt nem egyszerű problémáról van szó, hanem egy önerősítő spirálról — egy visszacsatolási hurokról, amelyből nagyon nehéz kilépni.
A lényeg egyszerű, de a következményei drámaiak:
-
Az AI-rendszereket (mint a ChatGPT, Claude, Gemini) emberi szövegekből tanítják. Könyvekből, cikkekből, weboldalakból, Wikipédiából — abból, amit emberek írtak évtizedek alatt.
-
Ezek az AI-rendszerek most hatalmas mennyiségű szöveget generálnak, ami visszakerül az internetre.
-
A következő generációs AI-rendszereket ebből az internetből tanítják — ami most már tele van AI-generált szöveggel.
-
Tehát az AI a saját outputjából tanul — ami olyan, mintha egy fénymásoló a saját másolatait másolná újra és újra.
Model collapse: amikor a másolat másolatot másol
2024-ben a Nature tudományos folyóiratban — a világ legtekintélyesebb tudományos lapjában — megjelent egy döbbenetes kutatás. Shumailov és társai megmutatták, mi történik, ha egy AI-modell a saját korábbi kimeneteivel tanítja magát:
1. A ritka gondolatok eltűnnek először. Képzeld el úgy, mint egy osztályt, ahol mindenki egy könyvet olvas, és utána fejből újrameséli. Az első ember még emlékszik a különleges részletekre, a furcsa fordulatokra. A tizedik embernél már csak a főszereplő és az alapsztori maradt meg. A huszadiknál már csak annyi, hogy „volt egyszer egy ember, aki csinált valamit”.
Az AI-nál ugyanez történik: a szokatlan, eredeti, kisebbségi nézőpontok — vagyis pont azok, amelyek a legértékesebbek — elsőként tűnnek el. Ami marad, az az átlag, a közhely, a biztonságos középút.
2. Minden generáció butább lesz — mert nem valós adatokon tanul. Dohmatob és társai (ICLR, 2025) kimutatták, hogy az AI-modellek teljesítménye minden egyes generációval romlik, ha a saját korábbi szövegeikből tanulnak. Ez nem fokozatos csökkenés — egy ponton hirtelen összeomlik. Ezt nevezik „erős model collapse”-nak (strong model collapse). És ami különösen aggasztó: Dohmatob kimutatta, hogy már 0,1% szintetikus adat is okoz összeomlást — vagyis nem kell az egész adatkészletet lecserélni, elég, ha egy ezreléke gépi eredetű.
3. A tanuláshoz szükséges emberi szöveg MOST fogy el. Az Epoch AI kutatóintézet 2023-ban kiszámolta: ha a jelenlegi ütemben folytatjuk az AI-modellek tanítását, 2026-ra elfogy a nyilvánosan elérhető, emberek által írt minőségi szöveg. 2026-ot írunk. Ma van 2026. március 7.
A model collapse nem jövő idő. A tanítási adatforrás kimerülése most zajlik — és ez nem elvont állítás. Ez a szöveg, amit most olvasol, szintén az internet tartalmának része lesz. Valószínű, hogy egy jövőbeli AI-modell tanítóanyagába kerül. Ha a modell ebből tanul — egy olyan szövegből, amit részben AI írt, részben ember szerkesztett —, akkor a következő generáció már nem eredeti emberi gondolatokból tanul, hanem egy ember-gép hibridből, amely korábbi gépi és emberi szövegekre reflektál. A határ az emberi és a gépi szöveg között már most elmosódott. A visszacsatolási hurok tehát nem egy jövőbeli lehetőség. Benne vagyunk.
A model collapse adatai — a számok ijesztően alacsonyak
A model collapse nem elméleti lehetőség — laborban mérték, és a generációszámok meglepően kicsik:
| Kutatás | Modell/terület | Teljes összeomlás (csak szintetikus adat) | Valós adattal keverve |
|---|---|---|---|
| Shumailov (2024, Nature) | Nyelvi modell (OPT-125m) | 9 generáció (+56% hiba) | 9 gen, 10% valós adat (+9% hiba) |
| Shumailov (2024) | Képfelismerés (VAE/MNIST) | 20 generáció (számjegy-identitás elvész) | — |
| Alemohammad (2024, ICLR) | Arcgenerálás (StyleGAN) | 3-5 generáció (diverzitás összeomlik) | Friss adat minden gen-nél stabil |
| Alemohammad (2024) | CIFAR-10 képek | 5 generáció (észrevehető MADness) | 2250 valós minta megelőzi |
| Briesch (2023) | LLM (nulláról tanítva) | 39 generáció (nulla diverzitás) | Bővülő adat: 22% veszteség 50 gen-nél |
| Dohmatob (2025, ICLR) | Lineáris regresszió | Már 0,1% szintetikus adat is okoz összeomlást | Skálázási törvények deformálódnak |
| Liu és társai (2026) | Klinikai dokumentáció | 2 generáció (klinikailag használhatatlan) | Minőségszűréssel mérsékelhető |
A legijesztőbb szám: az orvosi domainben mindössze 2 rekurzív generáció után a gépi tartalom klinikailag használhatatlanná válik (Liu és társai, 2026, medRxiv, 800 000+ szintetikus adatpont). A hamis-megnyugtató diagnózisok aránya a háromszorosára, 40%-ra ugrik. A ritka kóros leletek (pneumothorax, mellkasi folyadékgyülem) eltűnnek a szintetikus outputból. A kimenetek középkorú férfi fenotípus felé torzulnak — vagyis a rendszer a leggyakoribb mintázatot reprodukálja, és a szokatlan esetek láthatatlanná válnak.
Hány „generáción” vagyunk túl a valóságban? A GPT család eddig 5-7 nagyobb generációt élt meg (GPT-1-től GPT-5-ig). De a valós világ nem a laboratóriumi „teljes csere” forgatókönyv — hanem fokozatos és kumulatív szennyezés. Az ökoszisztéma-szintű hasonlósági elemzés (arXiv, 2025) extrapolációja szerint a modellek közötti kimenet-hasonlóság 90%-os telítettséget ~2035-re éri el — ez az a pont, ahol az ökoszisztéma-szintű összeomlás várható.
A keresés is összeomlik
Van egy friss kutatás (Yu, Kim és Kim, 2026, ACM konferencia), amely egy újfajta problémát ír le: a Retrieval Collapse (keresési összeomlás).
Mi ez? A Google és más keresőmotorok úgy működnek, hogy begyűjtik az interneten lévő tartalmakat, és a legjobbakat mutatják meg neked. De ha az internet tartalma egyre inkább AI-generált, akkor a keresőmotor AI-tartalmak alapján rangsorol AI-tartalmakat. Olyan ez, mintha egy bíró csak a korábbi téves ítéleteket olvasná, és azok alapján ítélkezne.
Itt is ugyanaz az alapvető probléma: az AI-generált weboldalak nem valós tapasztalatból, mérésből vagy szakértelemből születtek. Egy termékleírás, amit AI írt, nem azon alapul, hogy valaki kipróbálta a terméket. Egy útikalauz, amit AI írt, nem azon alapul, hogy valaki járt ott. Egy orvosi tanács, amit AI írt, nem azon alapul, hogy valaki megvizsgálta a beteget. A Google mégis ezeket a tartalmakat rangsorolja — mert nem tudja megkülönböztetni a valós tapasztalaton alapuló szöveget attól, ami csak statisztikailag valószínű mintázatokat ismétel.
Az orvostudományban ez már életet veszélyeztet
He és társai (2026) kimutatták, hogy az AI orvosi dokumentumokat is elkezd feltölteni gépi tartalommal — és itt nem az a probléma, hogy a tartalom „szintetikus”, hanem hogy soha nem lett validálva valós betegadatokon.
Mit jelent ez a gyakorlatban? Képzeld el így:
- Egy orvosi AI-rendszer szöveget generál egy beteg dokumentációjába — mondjuk egy diagnózist vagy egy kezelési tervet
- Ez a szöveg nem tényleges vizsgálati eredményekből született, hanem korábbi szövegek mintázataiból
- Statisztikailag „valószínűnek tűnik” — tehát nem tűnik nyilvánvalóan hamisnak
- De a szignifikancia szintje alacsony: vagyis az, hogy mennyire megbízható, nem lett ellenőrizve
- A következő AI-rendszert ezekből a dokumentumokból tanítják — és az már „tényként” kezeli, amit az előző rendszer csak „valószínűsített”
A kulcskülönbség: egy emberi orvos, aki diagnózist ír, valós vizsgálati eredményekre támaszkodik — vérképre, röntgenre, fizikális vizsgálatra. Egy AI, amely szöveget generál, korábbi szövegekre támaszkodik. Ha ezek a korábbi szövegek részben szintén gépi eredetűek és nem lettek validálva, akkor a diagnózis nem a beteg állapotán alapul, hanem szövegminták statisztikai átlagán — ami egészen más dolog.
A model collapse itt már nem elvont informatikai probléma, hanem konkrét életveszély: az orvos a gépi rendszerre támaszkodik, a gépi rendszer korábbi gépi szövegekre, és senki nem ellenőrizte, hogy a lánc bármely pontján volt-e valódi betegadat a háttérben.
V. Milyen gazdasági hatásai vannak már most?
A munkahelyeken: „workslop” — a gépi moslék, ami mindenhol ott van
A BetterUp kutatócég 2025-ben felmérte, hogyan hat az AI-tartalom a munkahelyekre. Az eredmény elgondolkodtató:
- A munkahelyeken az AI-vel készített tartalom 40%-a „workslop” — olyan gépi szöveg, amit a küldő nem olvasott el, nem ellenőrzött, és úgy továbbított a kollégáinak. A probléma ugyanaz, mint mindenhol máshol: a szöveg nem a küldő valós tudásán, tapasztalatán vagy gondolkodásán alapul — hanem egy gép mintázatfelismerésén, amit senki nem vetett össze a tényleges helyzettel
- Ez szervezetenként évi $9,1 millió dollar termelékenységvesztést okoz
- Amikor valaki gépi moslékot kap a kollégájától, többségük bosszús (54%), frusztrált (46%) vagy összezavart (38%)
- Az ilyen tartalmat küldő kollégát kevésbé kompetensnek, kreatívnak és megbízhatónak tartják — a „workslop” tehát szakmai hírnevet rombol
Ez nem egyszerűen produktivitási kérdés. A workslop aláássa a szervezeti bizalmat. Ha tudod, hogy a kollégád nem olvasta el azt, amit küldött — mert a gép írta, és ő csak rányomott a „küldés”-re —, akkor a következő üzenetét is gyanúval olvasod. A bizalomvesztés itt nem absztrakt piaci jelenség: a saját csapatodon belül történik.
A hirdetési piac: az AI-slopra költött pénz kidobott pénz
A hirdetők számára döntő adat: a minőségi weboldalakon megjelenő hirdetések 91%-kal magasabb arányban vezetnek tényleges vásárláshoz, mint az AI-sloppal teli oldalakon (IAS, 2025).
De a Google-keresések átalakulása miatt 37%-kal kevesebb kattintás érkezik a valódi weboldalakra. Egyes nagy kiadók (például a MailOnline) bizonyos témákban 90%-os forgalomcsökkenést tapasztaltak.
Eközben több mint ezer híroldal üzemel szinte kizárólag robotokkal (NewsGuard, 2025). Ezek a weboldalak úgy néznek ki, mint valódi újságok, de semmilyen emberi szerkesztő vagy újságíró nem dolgozik rajtuk. A hirdetők pénze — akik nem tudják megkülönböztetni a minőségi oldalt a robot-oldaltól — ebbe a fekete lyukba folyik.
A kreatív piacok: az Akerlof-spirál élőben
A Floridai Egyetem 2026 márciusában publikált egy kutatást, ami pontosan leírja, mi történik:
„A kezdők AI-tartalmakkal árasztják el a kreatív piacokat. Ez elriasztja a fogyasztókat, és megnehezíti a profi alkotóknak, hogy kitűnjenek. Az átmeneti korszak — amiben most vagyunk — a pusztító fázis.”
Az Akerlof-modell élőben játszódik le: a „citromok” (AI-slop) elárasztják a piacot, az „őszibarackok” (minőségi emberi tartalom) készítői feladják, mert nem tudják megmutatni, hogy az övék jobb.
Három piac, amely már átlépte az Akerlof-küszöböt
Stock fotó: Az Adobe Stock AI-tartalma 2,5%-ról (2023. május) 47,85%-ra (2025. április) nőtt — 19-szeres emelkedés két év alatt. Több mint 300 millió AI-kép feltöltve. A Getty Images bevétele -4,5% (2024). A Shutterstock előfizetői 22%-kal csökkentek a 2022-es csúcshoz képest. A Getty-Shutterstock kényszeregyesülés (3,7 milliárd dollár, 2025. január) tankönyvi Akerlof-válasz: a minőségi piac védekezik az összeomlás ellen. A Shutterstock ma már 104 millió dollárt keres azzal, hogy adatot ad el AI-cégeknek — vagyis elhagyta a saját üzleti modelljét. Amikor egy fotóplatform többet keres az adataival, mint a fotóival, az Akerlof bizonyítéka.
Tudományos kiadás: A Wiley/Hindawi 8000+ cikket vont vissza 2023-ban és 19 folyóiratot zárt be (2024. június), 35-40 millió dolláros bevételkiesés. A visszavonások száma 2023-ban meghaladta a 10 000-et (új rekord). Az AI-hoz köthető visszavonások: 2022 előtt összesen <20, 2023-ban egyedül 663.
Szabadúszó írás/fordítás: Az írási álláshirdetések 33%-kal csökkentek a ChatGPT megjelenése óta (Bloomberry, 2023). A helyettesíthető készségek iránti kereslet 20-50%-kal esett (Demirci és társai, JEBO, 2025. július). Kritikus Akerlof-jel: a legmagasabb minőségű, legdrágább szabadúszókat érintette leginkább — pontosan az a dinamika, amit Akerlof megjósolt. A Fiverr aktív vásárlói további 12 694-gyel csökkentek. A legértékesebb munkát végzők szorulnak ki először, mert az ő munkájuk a legdrágább, és a megrendelő nem tudja megkülönböztetni az AI-generált szöveget a profi copywriter munkájától.
VI. A nagy visszacsatolási spirál — az egész rendszer összefügg
Most tegyük össze az egész képet. Ez nem öt különálló probléma — ez egyetlen önerősítő spirál, ahol minden elem erősíti a többit.
A spirálnak két visszacsatolási pontja van:
1. Tartalmi visszacsatolás: Az AI-tartalom elárasztja az internetet → az emberek nem bíznak a tartalomban → kevesebb minőségi tartalom készül → még több AI-tartalom kell → még inkább elárasztja az internetet
2. Tanulási visszacsatolás: Az AI a saját outputjából tanul → minden generáció rosszabb lesz → rosszabb tartalom kerül az internetre → a következő generáció ebből tanul → még rosszabb lesz
Mindkét hurokban ugyanaz a mélyprobléma: a validáció hiánya. Az eredeti emberi tartalom mögött valós tapasztalat állt — valaki tényleg kipróbált egy terméket, tényleg megvizsgált egy beteget, tényleg elvégezte a kísérletet. Az AI-generált tartalom mögött nincs ilyen alap. Statisztikailag „valószínű” — de soha nem lett összemérve a valósággal. És ahogy ez a nem validált tartalom visszakerül a rendszerbe, minden következő réteg egyre távolabb kerül attól, amit „igaznak” nevezhetnénk.
VII. Mi jön ezután? — Hat lehetséges forgatókönyv
1. forgatókönyv: A marketing összeomlik (már elkezdődött)
Mi történik: Az online hirdetés egyre kevesebb valódi embert ér el.
- Az internet forgalmának 51%-a bot — a hirdetések felét nem ember „látja”
- A Google keresések 69%-a kattintás nélküli
- Ahol AI Overview megjelenik, ott a kattintások 30-61%-kal esnek
- A Google piaci részesedése az évtized legnagyobb csökkenését mutatja: 91,47%-ról 89,57%-ra (StatCounter, 2025)
- Az emberek egyénenként 20%-kal kevesebb keresést indítanak évente
A láncolat, amit már mérni lehet: Kattintások csökkennek → cégek kevesebbet költenek hirdetésre → tartalomkészítők (újságírók, bloggerek) kevesebb hirdetési pénzt kapnak → kevesebb minőségi tartalom készül → még több AI-slop tölti be a helyet.
Konkrét mérések a kaszkádból:
- A Google HCU (Helpful Content Update) frissítése 671 utazási kiadó közül 32%-nál az organikus forgalom 90%+-át törölte — egy tollvonással
- A LinkedIn B2B nem-brand organikus forgalom 60%-kal esett az AI keresők miatt
- Az Instagram organikus elérése már csak 4% (éves szinten -18%)
Kire hat? Marketingesek, reklámszakemberek (világszerte 5-10 millió munkahely), online tartalomkészítők, hirdetési ügynökségek, és kis- és közepes vállalkozások, amelyek az online marketingtől függnek — és a KKV-knak nincs B-tervük: mindössze 35%-uknak van egyáltalán Google Business Profile-a (BrightLocal).
2. forgatókönyv: Az értékesítés bizalmi válsága
Mi történik: Ha a vásárlók nem bíznak a termékértékelésekben, egyre nehezebb lesz bármit eladni az interneten. Vennél-e egy 200 ezer forintos telefont, ha tudnád, hogy a vélemények negyede gép írta, és nem tudod, melyik? A legtöbb ember ilyenkor nem vesz semmit — vagy visszatér a fizikai boltba, ahol megtapinthatja a terméket.
Láncolat: Csökkenő online vásárlás → webáruházak forgalma esik → csomagszállítók kevesebb munkát kapnak → raktárak leépítenek → helyi gazdaság szenved.
Valós jel: Az Amazonon az AI által írt vélemények 93%-a „Hitelesített vásárlás” — vagyis a legnagyobb bizalmi jelzés már hamisítva van. Amikor a bizalmi jelzés értéktelenné válik, a piac megáll. Akerlof ezt az „adverse selection” (kontraszelekció) fogalmával írja le: a piac saját magát szelektálja ki a létezésből.
3. forgatókönyv: A tudás válsága — nem tudod, miben bízz
Mi történik: Ha a tudományos cikkek egy részét AI írta, a bírálatok ötödét AI végezte, és az orvosi adatbázisokba nem validált gépi tartalom szivárog, akkor a szaktudás hitelessége megkérdőjeleződik.
A tudomány ereje mindig azon állt, hogy valaki tényleg megmérte, megfigyelte, kísérlettel igazolta azt, amit állít. Ha a rendszerbe olyan tartalom kerül, ami úgy néz ki, mint egy tudományos eredmény, de nincs mögötte valós mérés — csak korábbi szövegek statisztikai mintázata —, akkor a tudomány alapja, a megismételhetőség és az ellenőrizhetőség, szűnik meg.
Láncolat: Nem bízhatsz a tudományos eredményekben → nem bízhatsz az orvosi tanácsokban → nem bízhatsz a politikai döntések mögötti adatokban → bizalmatlanság az intézmények iránt → társadalmi szétesés.
Már látjuk a jeleket: Obschonka és Levesque (2026) kimutatta, hogy az AI módszertant használó tudományos kutatásokat szignifikánsan kevésbé hitelesnek tartják, mint a hagyományosakat — még akkor is, ha a kutatás maga jó. Vagyis az AI-gyanú maga már elegendő ahhoz, hogy aláássa a hitelt.
4. forgatókönyv: A gazdasági kaszkád — amikor az ökoszisztéma összeomlik
Konkrét példa: Ha egy közepes méretű webáruház elveszíti a forgalma 30%-át (mert a vásárlók nem bíznak a véleményekben és a Google egyre kevesebb látogatót küld), akkor:
- Kevesebb csomagot ad fel → a futárszolgálat kevesebb sofőrt foglalkoztat
- Kevesebb terméket rendel → a beszállító kevesebb munkást vesz fel
- Kevesebb irodai dolgozóra van szüksége → az irodaház környéki kantinok forgalma csökken
- Ha bezár → az épület tulajdonosa bevételt veszít → az ingatlankezelő cég is veszít
Pontosan ezt az oksági láncolatot figyeltük meg a 2008-as pénzügyi válságnál, a nyomtatott sajtó összeomlásánál, és most az online bizalmi rendszer eróziójánál. A mechanizmus ugyanaz: egy rendszer stabilitása nem a legerősebb elemétől függ, hanem a leggyengébbtől. És a leggyengébb elem most a bizalom.
5. forgatókönyv: A kompetencia-piac összeomlása — amikor mindenki szakértőnek tűnik
Mi történik: Az AI-eszközök (GitHub Copilot, ChatGPT, Claude) lehetővé teszik, hogy valaki minimális valós tudással meggyőzően kompetensnek tűnjön. Kódot ír, rendszertervet készít, prezentációt épít — és a kimenete felszínen profinak hat. Ugyanaz az információs aszimmetria, mint az Amazon véleményeknél — csak most nem termékekről van szó, hanem emberek kompetenciájáról.
A Dunning-Kruger hatás szteroidokon. A Dunning-Kruger hatás azt jelenti, hogy aki keveset tud egy területről, az hajlamos túlbecsülni a saját tudását — mert nincs elég tudása ahhoz, hogy felismerje, mit nem tud. Az AI-eszközök ezt a hatást drámaian felerősítik:
- A felhasználó promptot ír → az AI meggyőző outputot ad → a felhasználó azt mondja: „Én csináltam”
- Az output valóban működik — egy bizonyos szintig. Egy egyszerű weboldal feláll. Egy kód lefut. Egy prezentáció szép lesz
- A felhasználóban megerősödik az érzés: „Fejlesztő vagyok.” „Architect vagyok.” „Meg tudom oldani.”
- Az AI az omnipotencia (mindenhatóság) illúzióját adja — és ez a narcisztikus visszacsatolási hurok egyre erősebb lesz, ahogy az eszközök egyre jobbak
A probléma ott kezdődik, amikor a feladat meghaladja az AI kontextusablakát (context window — az a szövegmennyiség, amelyet egyszerre képes feldolgozni), vagy amikor a rendszernek terhelés alatt, élesben, edge case-ek (szélsőséges esetek) mellett kellene működnie. Ilyenkor derül ki, hogy a „szakértő” nem érti, mit épített — mert nem ő építette, hanem csak utasított.
A késleltetett detonáció. A kompetencia-hamisítás nem azonnal robban. A kritikus jellemzője: a kár hónapokkal vagy évekkel később jelentkezik.
- Valaki AI-val felépít egy rendszert. Működik, a megbízó elégedett, a projekt lezárul
- Hat hónappal később a rendszernek skáláznia kellene — de az architektúra nem arra lett tervezve, mert a „fejlesztő” nem értette a terheléselosztást. Csak kiadta a promptot, az AI adott valamit, és az jónak tűnt
- Egy évvel később egy biztonsági rés nyílik, mert az AI-generált kódban volt egy mintázat, amit a fejlesztő nem ismert fel sebezhetőségként — mert nincs olyan mélységű tudása, ami ehhez kellett volna
- Addigra a „szakértő” már rég másik projekten dolgozik. A kárt valaki más fedezi fel — ha egyáltalán felfedezi
Ugyanez az orvosi analógiával: az AI-diagnózis ma jónak tűnik, de senki nem ellenőrizte valós betegadaton. A hiba csak akkor derül ki, amikor a beteg állapota romlik.
A tudáspiramis összeomlása. Minden szakmában van egy tanulási piramis. A senior azért tud rendszert debuggolni (hibakeresés), mert junior korában ő maga írt hibás kódot, és megtanulta, miért hibás. Az architect azért lát előre három évet, mert senior korában végigélt három rendszer-összeomlást.
Az AI-eszközök most lehetővé teszik, hogy valaki átugorja a junior és részben a senior szintet:
- Architect szint (44%): Egyre kevesebb, nincs utánpótlás
- Senior szint (hiány): Egyre kevesebb, mert a juniorok nem járták meg az utat
- Junior szint (üres): „Minek tanuljak, ha az AI megcsinálja?”
- AI-felhasználó: A piramis alja — prompt-alapú „kompetencia”
A következmények három fázisban:
- Ma: A meglévő senior és architect szakemberek még kompenzálják a hiányt — ők tudják, mikor hazudik az AI, mert van referenciájuk
- 5 éven belül: Ezek a szakemberek nyugdíjba mennek vagy kiégnek, és nincs ki lépjen a helyükre — mert a mostani juniorok nem járták meg az utat
- 10 éven belül: A komplex rendszereket senki nem fogja érteni: sem az AI (mert a kontextusablaka véges), sem az ember (mert nem tanulta meg). A rendszerek működni fognak — amíg működnek. Amikor eltörnek, senki nem fogja tudni megjavítani
Az Akerlof-modell a munkaerőpiacon: Ugyanaz a mechanizmus, mint a termékpiacon. A megbízó nem tudja megkülönböztetni az AI-kompetens „szakértőt” a valódi szakértőtől. A valódi szakértő drágább (mert 15 év tapasztalata van) — de a kimenete felszínen ugyanúgy néz ki. A megbízó a legolcsóbbat választja. A valódi szakértő kiszorul. Aki marad, az mind AI-kompetens. Amikor a rendszer összeomlik, nincs kit hívni — mert a valódi szakértők már rég más területen dolgoznak.
Egy AI-kompetens fejlesztő felépít egy rendszert 2 hónap alatt, 3 millió forintért. Egy valódi architect felépítené 4 hónap alatt, 8 millió forintért — de az övé 5 évig stabilan futna. A különbség csak akkor derül ki, amikor eltörik — és addigra lehet, hogy már nincs, aki meg tudja csinálni.
A teljes oksági lánc: AI-eszközök → kompetencia-illúzió → narcisztikus megerősítés → „Minek fizessek seniort?” → seniorok kiszorulnak → junior pipeline megszakad → 5-10 év múlva: tudásvákuum. Működő rendszerek, amelyeket senki nem ért, és amelyeket senki nem tud megjavítani, amikor eltörnek.
6. forgatókönyv: Visszarendeződés — ami 200 000 évig működött
Az előző öt forgatókönyv ijesztőnek tűnhet. De van egy perspektíva, amelyből nézve ami most történik, az nem összeomlás — hanem visszarendeződés arra, ami az ember számára természetes.
200 000 év vs. 5000 év. Az ember — a Homo sapiens, a mi fajunk — körülbelül 200 000 éve él a Földön. Ebből az időből mintegy 195 000 évet kis, személyesen ismert csoportokban töltött. Olyan közösségekben, ahol mindenki ismerte a másikat. Ahol ha valaki hazudott, a többiek tudták. Ahol a reputáció (megbízhatóság) testközelből volt ellenőrizhető.
A „nagy társadalom” — intézményekkel, absztrakt reputációs rendszerekkel (márkák, oklevelek, csillagos értékelések), ismeretlenekkel való kooperációval — az emberi történelem alig 1%-a. Evolúciós léptékkel ez egy nagyon rövid kísérlet.
A Dunbar-szám: biológiai korlát, nem kulturális választás. Robin Dunbar oxfordi antropológus kutatásai kimutatták, hogy az emberi agy körülbelül 150 valódi társas kapcsolat fenntartására képes — olyan kapcsolatokra, ahol ismered a másik történetét, emlékszel a korábbi interakcióitokra, és meg tudod ítélni, mennyire bízhatsz benne. A Dunbar-szám nem konvenció, amit választottunk. Az agyunk méretéből következik — a neokortex kapacitásából, amely a főemlősöknél szorosan korrelál a csoportmérettel.
A 150 fős határ fölött az ember absztrakt jelzésekre kénytelen támaszkodni: márkákra, oklevelekre, csillagos értékelésekre, intézményi garanciákra. Pontosan azokra a jelzésekre, amelyeket az AI most hamisíthatóvá tett.
A történelmi bölcsesség: aki tudta, kis közösségben építkezett. Az emberiség nagy szellemi hagyományai mind ismerték ezt a korlátot — és nem véletlenül épültek kis, személyes egységekre:
- Pál apostol levelei konkrét embereknek szólnak, akik ismerik egymást. Az őskeresztény ekkléziák 10-30 fős házi közösségek voltak — nem intézmények, hanem személyes kapcsolatok hálózatai
- A Buddha a szanghát — a személyes közösséget — a három drágakő egyikévé tette, a dharma és a buddha mellé. A szangha nem szervezet. Személyes jelenlét, ahol mindenki ismeri a másikat
- A sztoikus barátságkörök — Seneca levelei, Marcus Aurelius reflexiói — mind a közvetlen, személyes kapcsolatot tartották a bölcsesség gyakorlásának terepének
- A zsidó minján: tíz fő, akik személyesen jelen vannak. Ennyi kell az imához. Nem ezer, nem száz — tíz, akit ismersz
Mindegyik hagyomány ugyanazt a felismerést tartalmazza: az emberi bizalom személyes jelenlétben gyökerezik, és nem skálázódik korlátlanul.
Mit jelent ez az AI slop kontextusában? Ha a nagy rendszerek — az internet, a keresőmotor, a webáruház, a tudományos kiadó — megbízhatósága nullához közelít, az emberek visszahúzódnak oda, ahol a bizalom természetesen magas: kis közösségekbe, ahol személyesen ismerik egymást.
- A barátodat kérdezed meg, melyik fejhallgatót vedd — nem az Amazon véleményeket
- A helyi boltban vásárolsz, ahol ismered az eladót — nem egy ismeretlen webshopból
- Az orvosodhoz mész, akit személyesen ismersz — nem egy chatbottól kérsz diagnózist
- Könyvet olvasol, amelynek a szerzőjét ismered — nem egy AI-generált összefoglalót
Evolúciós szempontból ez nem összeomlás. Visszarendeződés arra, ami 200 000 évig működött. A kísérlet — hogy ismeretlenek kooperálhatnak absztrakt jelzések alapján — nagyon rövid életű volt, és most derül ki, hogy a jelzésrendszer hamisítható.
A zen paradoxon. Van egy perspektíva, amelyből nézve mindez nem tragédia. A civilizáció-méretű feltételezést — hogy milliárdok kooperálhatnak absztrakt jelzések alapján anélkül, hogy ismernék egymást — soha nem lehetett fenntartani. Csak halasztani. Az intézmények, a márkák, az oklevelek, a csillagos értékelések mind halasztóeszközök voltak: átmeneti megoldások arra a problémára, hogy az ember agymérete nem engedi meg a 150 fő feletti valódi bizalmat.
Az AI nem rombolt le valamit, ami stabil volt. Felgyorsította annak a láthatóvá válását, ami mindig is törékeny volt.
A kis közösség nem a vesztes alternatíva. Nem a második legjobb megoldás, amibe szorulunk, mert az internet tönkrement. A kis közösség az eredeti forma — az, amelyre az agyunk méretezve van, amelyben 200 000 évig éltünk, és amelyben a bizalom nem absztrakt jelzéseken múlik, hanem azon, hogy ismered a másik arcát, a történetét, a hibáit.
A kérdés, ami marad: a globális gazdaság és tudástermelés, ahogy ma ismerjük, tud-e működni ebben a konfigurációban — mert az elmúlt 5000 év intézményi építkezése pontosan azon a feltételezésen alapult, hogy az absztrakt reputációs jelzések megbízhatóak. Az AI ezt a feltételezést nem lerombolta — hanem megmutatta, hogy mindig is törékenyen állt.
VIII. A bizalomvesztés sebessége — gyorsabb, mint gondolnád
Az online bizalom nem fokozatosan csökken. Zuhanórepülésben van, és a sebesség gyorsul.
| Mit mértek? | Időszak | Változás |
|---|---|---|
| Gallup: amerikai médiabizalom | 2020-2025 | 40% → 28% (-12 pont, 5 év) |
| Pew: nemzeti hírszervezetek iránti bizalom | 2016-2025 | 76% → 56% (-20 pont) |
| Pew: nemzeti hírszervezetek iránti bizalom | 2025 márc.-szept. | 67% → 56% (-11 pont, fél év) |
| Edelman: keresőmotorok iránti bizalom | 2024-2025 | 68% → 63% (-5 pont) |
| BrightLocal: Google mint véleményplatform | 2023-2026 | 87% → 71% (-16 pont) |
| Deloitte: „az online előnyök megérik a kockázatot” | 2024-2025 | 58% → 48% (történelmi mélypont) |
| X/Twitter: hirdetői bizalom | 2022-2024 | 22% → 12% (három éve utolsó helyen) |
| Reuters Institute: Facebook hírforgalom | 2023-2025 | -67% két év alatt |
Ami eddig nem volt nyilvánvaló: a Pew Research 2025 szeptemberi adata szerint a 18-29 éves korosztály majdnem annyira bízik a közösségi médiában (50%), mint a nemzeti hírszervezetekben (51%). Ez történelmi precedens nélküli konvergencia — a fiatalok számára a TikTok és az NBC News egyenértékű hitelességgel bír. Ez nem a közösségi média felértékelődése — ez a hagyományos média szabad eséses hitelességvesztése.
A Deloitte Connected Consumer Survey (2025, 3524 amerikai válaszadó) mutatja a legtisztábban az AI-specifikus bizalomromlást: azok aránya, akik szerint a generatív AI megnehezíti az online tartalmak megbízhatóságának megítélését, egy év alatt 70%-ról 74%-ra nőtt. Eközben a hamis vélemények volumene 758%-kal nőtt 2020 és 2024 között (FTC), az AI-generált hamis vélemények pedig havi 80%-os növekedést mutatnak (The Transparency Company, 2024. december).
Ami még hiányzik: nincs longitudinális mérés, amely platformonkénti bontásban, negyedéves felbontással követné a bizalomvesztés sebességét. A meglévő adatok éves pillanatfelvételek — a tényleges romlási görbe alakja ismeretlen. Lineáris? Exponenciális? Van-e pont, ahol hirtelen összeomlik?
IX. Mit lehet tenni? — Az ellenszerek és korlátaik
Van egy megoldhatatlannak tűnő csapda: minden megoldás maga is része a problémának. Minden új szűrő, detektor, jelzési mechanizmus növeli a rendszer komplexitását — és a komplexitás növelése a kognitív teher növelését jelenti. Ha minden online interakciónál meg kellene kérdőjelezned a forrás hitelességét, ellenőrizned a tartalom eredetét, és értékelned a jelzések megbízhatóságát, az elviselhetetlenül sok energia. Olyan ez, mint amikor egy hajó süllyed, és te egy újabb nehéz szivattyút raksz rá, hogy kiszivattyúzd a vizet. A szivattyú segít a víz ellen — de a súlya miatt a hajó mélyebbre süllyed.
| Lehetséges ellenszer | Hogyan működik? | Mennyire hatékony? | Mi a gyenge pontja? |
|---|---|---|---|
| AI-tartalom felismerése géppel | Algoritmusok keresik a gépi szöveg jeleit | Nyers szövegen jó (86-98%), de valós helyzetben gyenge (60-70%) | Fegyverkezési verseny: minden detektor kijátszható. Igazságtalan a nem anyanyelvi szerzőkkel |
| Digitális eredetigazolás (C2PA) | Mint egy digitális pecsét: igazolja, hogy ember készítette | Technológiailag működik, nagy cégek támogatják | Önkéntes: ha nem használod, abból nem következik, hogy hamis |
| Google minőségi szűrés | A Google lerontja a rossz minőségű oldalak láthatóságát | 45-80%-kal csökkentette egyes oldalak forgalmát | A jó tartalom is sérülhet. Reaktív: mindig egy lépéssel le van maradva |
| Visszatérés a személyes hálózatokhoz | Személyes ajánlások, helyi közösségek, ismert források | Ez az egyetlen, ami az emberi történelemben mindig működött | Nem tud milliárdos méretben skálázódni — ami pont a lényege |
Kulcsgondolatok
-
Az internet forgalmának többsége már nem emberi. Az 51%-os bot-arány, a 74,2%-os AI-tartalom az új weboldalakon, és a 69%-os zero-click arány együttesen azt jelenti, hogy a korábbi mérési módszertanok — clickstream, search intent, brand tracking — érvényességüket vesztik.
-
A bizalmi jelzések hamisíthatóvá váltak. Az Amazon „Hitelesített vásárlás” címkéjétől a tudományos peer review-n (szakmai bírálat) át a Google csillagos értékelésekig — azok az absztrakt jelzések, amelyekre a modern társadalom támaszkodik, manipulálhatóak. Az Akerlof-modell előrejelzése: ha a „citromok” aránya meghaladja a kétharmadot, a piac összeomlik.
-
A model collapse nem jövő idő. 2-39 generáció között mozognak a laborban mért összeomlási értékek, és az orvosi domainben 2 generáció elég a klinikailag használhatatlan eredményekhez. Az emberi szövegkészlet 2026-ra fogy el az AI-tanítás számára.
-
A kompetencia-illúzió a legveszélyesebb késleltetett bomba. Az AI-eszközök lehetővé teszik, hogy valaki kompetensnek tűnjön a tényleges tudás nélkül — de a hiba csak hónapokkal vagy évekkel később derül ki, amikor a rendszernek működnie kellene. A tudáspiramis alulról omlik össze.
-
A visszarendeződés nem összeomlás. A Dunbar-szám (150 fős csoport) biológiai korlát, nem kulturális választás. A kis közösség nem a második legjobb megoldás — ez az eredeti forma, amelyre az agyunk méretezve van. Az AI nem rombolt le valamit, ami stabil volt — felgyorsította annak a láthatóvá válását, ami mindig is törékeny volt.
GYIK
Mi az AI slop?
A „slop” szó moslékot, löttyöt jelent — 2025-ben a Merriam-Webster év szava lett. Az AI slop a mesterséges intelligencia által generált tömeges, alacsony minőségű tartalmat jelöli, amely elárasztja az internetet: automatizált blogposztok, gépi vélemények, értelmetlen videók, kitalált hivatkozásokkal teli cikkek. Nem az a probléma, hogy AI készítette — hanem hogy nincs mögötte valós tapasztalat, mérés vagy ellenőrzés, mégis úgy néz ki, mintha lenne.
Mi az a model collapse (modellösszeomlás)?
Amikor egy AI-modellt a saját korábbi kimeneteiből tanítanak — ahelyett, hogy emberek által írt szövegekből —, minden egyes „generációval” romlik a minőség. A ritka, eredeti gondolatok eltűnnek, a szöveg egyre inkább az átlagot, a közhelyet ismétli, és egy ponton hirtelen összeomlik. A Nature-ben publikált kutatás (Shumailov, 2024) 9 generáció után 56%-os hibaemelkedést mért. Az orvosi domainben 2 generáció elég a klinikailag veszélyes eredményekhez.
Ki az a George Akerlof, és mi az a „citromok piaca”?
George Akerlof Nobel-díjas közgazdász, aki 1970-ben leírta a „citromok piaca” (market for lemons) modellt. A lényege: ha egy piacon a vevő nem tudja megkülönböztetni a jó terméket a rossztól (információs aszimmetria), akkor a jó termékek kiszorulnak, mert az eladóik nem tudják igazolni a minőséget. A rossz termékek — a „citromok” — maradnak. Ez ma az internetes tartalomra, a munkaerőpiacra és a véleményekre is érvényes.
Valóban elfogy az emberi szöveg az AI tanításához?
Igen. Az Epoch AI kutatóintézet 2023-as becslése szerint 2026-ra elfogy a nyilvánosan elérhető, emberek által írt minőségi szöveg, amely az AI-modellek tanításához használható. Ez nem azt jelenti, hogy „nincs több szöveg” — hanem azt, hogy a fennmaradó szövegek egyre nagyobb arányban AI-generáltak, ami a model collapse-t gyorsítja.
Mi az a Dunbar-szám?
Robin Dunbar oxfordi antropológus kutatásaiból származó fogalom: az emberi agy körülbelül 150 valódi társas kapcsolat fenntartására képes. Ez biológiai korlát, nem kulturális döntés — a neokortex méretéből következik. A 150 fős határ fölött absztrakt jelzésekre (márkák, oklevelek, csillagos értékelések) támaszkodunk. Ezeket a jelzéseket az AI most hamisíthatóvá tette — és ez az a pont, ahol a Dunbar-szám találkozik az AI slop problémájával.
Mit tehetek én személy szerint?
Három dolgot: (1) Kérdőjelezd meg a forrást — ki írta, és miért? Van mögötte valós tapasztalat? (2) Építs személyes hálózatokat — a baráti ajánlás, az ismert szakértő, a helyi közösség megbízhatóbb, mint bármilyen algoritmikus rangsor. (3) Keress elsődleges forrásokat — könyvek, kutatási cikkek, valós mérések, nem AI-összefoglalók. A bizalom nem skálázódik — de a valódi tudás igen, ha van, aki hitelesíti.
Kapcsolódó gondolatok
- A digitális kasztrendszer — Amikor a szabadságod illúzió, a választásaid előre ismertek, és a láthatatlan erő nem kérdez
- A globális AI-verseny stratégiai térképe — Három civilizációs modell verseng egyetlen technológiáért
- Platformok, mező és súrlódás — A világ nem hangosabb lett, hanem töredezettebb
Key Takeaways
- Az internet forgalmának fele már bot, és az új weboldalak többsége AI-generált, ami alapvetően megváltoztatja, hogy milyen tartalommal kerülünk kapcsolatba. Ahogy Harari is rámutat a Nexusban, egyre nehezebb megbízni abban, hogy a szövegek mögött valódi emberi tapasztalat áll.
- A Google AI-összefoglalói a kattintásokat 30-61%-kal csökkentik, és a keresések közel 70%-a kattintás nélküli, ami a hagyományos keresési szándék (search intent) elemzést és a webes forgalommérés (clickstream) alapjait kérdőjelezi meg.
- Az AI-vélemények (pl. Amazonon) torzítják a piaci valóságot, ahol a vélemények 93%-a „hitelesített vásárlás” lehet anélkül, hogy valaki tényleg megvette volna a terméket, így megingatva a fogyasztói véleményen alapuló döntéshozatalt.
- A modell-összeomlás (model collapse) fenyegetést jelent: orvosi tartományokban már 2 generációs újratanítás után klinikailag használhatatlan eredmények születnek, ami rávilágít az AI-tanulás fenntarthatósági problémájára.
- A mérési válság mélyül: a botforgalom, a kontaminált vélemények és a zero-click keresések együttesen metodológiai vákuumot teremtenek, ahol a hagyományos piackutatási eszközök (pl. brand tracking, fókuszcsoportok) nem képesek megkülönböztetni a valódi emberi szándékot a gépi zajtól.
Varga Zoltán - LinkedIn
Neural • Knowledge Systems Architect | Enterprise RAG architect
PKM • AI Ecosystems | Neural Awareness • Consciousness & Leadership
51% of traffic is not human. The lemons have taken the market. Now what.
