Valul de „AI slop” îneacă internetul. Cum luptă creatori, cercetători și platforme să salveze conținutul real

Valul de „AI slop” inundă feedurile cu conținut generat automat, iar creatori, cercetători și platforme lucrează să identifice, eticheteze și oprească această invazie pentru a păstra autenticitatea online.

Valul de „AI slop” îneacă internetul. Cum luptă creatori, cercetători și platforme să salveze conținutul real

Sursa foto: Imagine generată AI iAceastă imagine a fost generată automat de AI pe baza rezumatului articolului și nu reprezintă un moment real fotografiat.


Internetul de azi pare mai puțin locuit de oameni și tot mai mult populat de conținut generat de inteligență artificială — un val de materiale superficiale, eronate sau create doar pentru a capta atenția. Termenul folosit pentru această invazie este „AI slop”: texte, imagini și videoclipuri generate automat, de calitate îndoielnică, care au invadat fluxurile noastre și amenință să sufoce creația umană. O parte dintre cei care au construit cultura online își pierd locul în feeduri, iar alții se mobilizează pentru a opri această tendință și a restaura autenticitatea pe internet.

În ce constă problema „AI slop”

„AI slop” desemnează imitații neglijente ale conținutului, care regurgitează informații fără grijă, inventând detalii sau asociind credențiale false. Imaginile pot arăta lucioase, nenaturale, iar videoclipurile par să încalce legile de bază ale fizicii — gândiți-vă la iepuri fictivi sărind pe trambuline sau la sfaturi bizare puse într-un ton autoritar. Această producție în masă este facilitată de instrumente care generează text, imagini și video din câteva cuvinte-cheie: exemplele includ Sora de la OpenAI, Nano Banana de la Google și Meta AI.

Un studiu CNET indică că 94% dintre adulții americani care folosesc rețele sociale cred că întâlnesc conținut generat de AI atunci când derulează feedul. Doar 11% consideră că astfel de materiale sunt amuzante, utile sau informative. Scopul majorității producătorilor de slop pare a fi angajamentul: emoția, furia sau uimirea mențin utilizatorii atenți și determină distribuirea, ceea ce transformă slopul în sursă de venituri prin reclame.

Lista secțiunilor abordate

  • Creatori versus AI
  • Putem crede ce vedem online?
  • „Opriți inundația” de slop științific
  • Spații online fără AI
  • Politică, dezinformare și slopaganda
  • Dezastru deepfake
  • Lupta pentru un internet centrat pe oameni

Creatori versus AI

Creatori cu tradiție, precum Rosanna Pansino, au început să contracareze fenomenul prin demonstrații practice menite să arate câtă muncă reală stă în spatele creațiilor autentice. Pansino a recreat în carne şi oase videoclipuri bizare generate de AI, în care obiecte improbabile sunt întinse „satisfăcător” pe pâine prăjită. Metoda ei a implicat multă planificare și tehnică: pentru a reproduce niște inele de jeleu acru, a folosit unt infuzat cu ulei aromat de piersică, coloranți alimentari și forme din silicon, apoi a asamblat piese pentru a obține forma tridimensională și a le pudrat cu zahăr și acid citric pentru aspectul și gustul corect. Rezultatul a fost un videoclip care oglindea versiunea generată de AI, dar cu un plus esențial: creația era comestibilă și produsă manual.

Pansino explică: „Internetul este inundat de AI slop și am vrut să găsesc o cale de a lupta împotriva lui într-un mod distractiv”. Experiența ei simbolizează un sentiment mai larg în rândul creatorilor: munca reală, cu detalii și imperfecțiuni umane, oferă profunzime și valoare pe care AI nu le poate reproduce doar apăsând un buton.

Alți creatori acționează ca „verificatori ai realității”. Jeremy Carrasco, producător video tehnic, creează conținut educațional pentru a demonta videoclipuri virale generate de AI, învățând urmăritorii să recunoască semne precum tăieturi ciudate, probleme de continuitate sau artefacte optice eronate. Carrasco subliniază vulnerabilitatea publicului: majoritatea oamenilor nu analizează clipurile în profunzime și, dacă un video le sună plauzibil, se opresc la acea impresie.

Putem crede ce vedem online?

Platformele încearcă, într-o măsură, să identifice și să eticheteze conținutul generat de AI, dar provocările sunt majore. Etichetarea presupune dezvăluirea utilizării AI; watermarking-ul — semnarea digitală a fișierelor — oferă o altă cale, dar niciun sistem nu acoperă tot.

Un exemplu de inițiativă de standardizare este Coalition for Content Provenance and Authenticity, un grup care încearcă să separe conținutul uman de cel sintetic prin semnale și metadate. Totuși, nu toate modelele de AI sunt compatibile cu cadrul C2PA, ceea ce generează inconsistență. Cercetători precum Abe Davis de la Universitatea Cornell au propus tehnici inovatoare, cum ar fi „noise-coded illumination”: iluminare specială care imprimă în mod invizibil un tip de watermark în frecvențele luminii. Orice cameră care filmează acea lumină înregistrează marca; cei care dețin codul secret pot decodifica modificările pixel cu pixel. Tehnicile de acest tip pot fi deosebit de utile la evenimente live, unde manipularea materialelor video poate avea consecințe serioase.

Totuși, watermarking-ul și etichetarea nu sunt panacee: conținutul generat continuă să alimenteze feeduri, iar doar semnalarea nu reduce cantitatea sau efectul manipulativ al slopului. Majoritatea utilizatorilor (51% în studiul CNET) cer etichetare mai bună, dar implementarea rămâne fragmentată.

„Opriți inundația” de slop științific

Publicațiile academice au devenit o țintă importantă pentru slop. Chatbot-urile și instrumentele AI pot „consuma” articole din surse jurnalistice și publicații științifice și pot genera rezultate incorecte sau posibil problematice din punct de vedere al drepturilor de autor. Cultura academică „publish or perish” favorizează, în unele cazuri, apariția de lucrări de calitate scăzută, fie din greșeală, fie intenționat, inclusiv prin mecanisme comerciale numite „paper mills” care vând articole false.

Baza de prepublicări arXiv înregistrează o creștere foarte rapidă a volumului de lucrări primite: aproximativ 2.000 de trimitere pe zi, jumătate fiind revizii. Editorii arXiv, printre care Ramin Zabih și Steinn Sigurdsson, spun că viteza creșterii a devenit îngrijorătoare și că AI este un factor important. Pentru a limita valul, arXiv a îndesit regulile de trimitere și a introdus un sistem de aprobare prin recomandări pentru a asigura că numai persoane reale postează cercetare. Totuși, sistemul nu este perfect — depinde, în continuare, de munca voluntară a sute de moderatori care verifică lucrările în funcție de specializările lor.

Un grup de cercetare a folosit lucrări retrase pentru a antrena un model de limbaj capabil să recunoască tiparele articolelor false, în special în domeniul cercetării oncologice. Statisticianul Adrian Barnett de la Queensland University of Technology a explicat că „paper mill”-urile imită forma unui articol științific, schimbând doar boala, proteina sau gena, pentru a genera volume noi de „cercetare”. Instrumentul acționează ca un filtru anti-spam științific, identificând formule lingvistice frecvent folosite de fabricatori, dar rămâne limitat la tiparele pe care a fost antrenat. Prin urmare, supravegherea umană rămâne esențială.

Spații online fără AI

O parte a soluției propuse de unii actori este crearea de platforme curate, fără AI. DiVine, de exemplu, reimaginează experiența scurtelor videoclipuri într-un format care vrea să rămână ferit de clipuri generate automat. Creată de Evan Henshaw-Plath și susținută de Jack Dorsey, aplicația va include arhiva originală a peste 10.000 de clipuri Vine, oferind utilizatorilor un spațiu unde conținutul este făcut „de oameni, pentru oameni”.

DiVine colaborează cu The Guardian Project pentru a implementa un instrument de verificare numit proof mode, bazat pe cadrul C2PA, care urmărește să confirme că materialele sunt create de oameni. În plus, platforma plănuiește mecanisme de raportare și va limita încărcarea video la lansare, pentru a reduce posibilitatea infiltrației de slop.

Cu toate acestea, marile companii rămân principalii furnizori de infrastructură online și, adesea, dezvoltă și integrează propriile funcții AI. Meta, Google și X au adus modele AI direct în produsele lor — iar conflictele de interes sunt evidente: companiile care proiectează AI nu sunt, deseori, cele mai motivate să limiteze răspândirea conținutului generat cu instrumentele lor.

Politică, dezinformare și slopaganda

AI a devenit şi un instrument politic eficient. Termenul „slopaganda” descrie conținutul generat cu scopul de a manipula opinii publice. Un studiu arată că mesajele politice scrise de AI pot păcăli cititorii: 94% dintre participanți nu au putut distinge între mesaje politice creat de AI și cele scrise de oameni, iar acestea s-au dovedit la fel de convingătoare.

Imaginile AI au fost folosite în campanii și mesaje oficiale, ilustrând cât de ușor poate fi normalizată o estetică politică fabricată. Exemple variate includ imagini sau clipuri editate din punct de vedere AI postate de instituții sau figuri politice, ceea ce amplifică riscul ca imaginea publică să fie manipulată deliberat.

Legislația rămâne fragmentată: state precum California, Illinois sau Colorado au adoptat reguli legate de transparență, terapii AI sau discriminare algoritmică, în timp ce administrația federală a propus politici care, în unele cazuri, reduc barierele pentru dezvoltarea infrastructurii AI. Această coliziune între reglementări la nivel local și strategiile federale complică aplicarea unor standarde coerente.

Dezastru deepfake

Deepfake-urile reprezintă cea mai periculoasă manifestare a AI slop: sunt imagini şi videoclipuri atât de convingătoare încât devine dificil să separi realul de fals. Tehnologia a democratizat crearea deepfake-urilor, făcându-le mult mai accesibile și, astfel, periculoase.

Aplicații precum Sora de la OpenAI au permis utilizatorilor să creeze videoclipuri cu chipul și vocea proprie sau ale altora. După lansare, artiști, actori și moștenitori au cerut companiei măsuri mai stricte pentru a preveni utilizările abuzive. Un alt exemplu este Grok, instrumentul AI asociat cu X, care a fost folosit în scopuri abuzive pentru a crea imagini sexualizate neconsensuale. Un raport al New York Times a arătat că, pe o perioadă de nouă zile, Grok a generat 4,4 milioane de imagini, dintre care 1,8 milioane sexuale. O analiză a Center on Countering Digital Hate estimează că în 11 zile au fost generate aproximativ 3 milioane de imagini sexualizate, incluzând 23.000 cu copii.

Asemenea episoade ilustrează cum instrumente proiectate pentru creație pot fi folosite pentru hărțuire în masă. Legea federală «Take It Down Act» din 2025 interzice deepfake-urile și imaginile intime neconsensuale și a oferit platformelor un termen pentru a stabili proceduri de eliminare a materialelor ilicite. Totuși, mecanismele de aplicare prevăd investigații la nivel de agenții guvernamentale, nu drepturi civile directe pentru victime, iar până în momentul scrierii nu erau anunțate investigații majore.

Lupta pentru un internet centrat pe oameni

Mulți dintre actorii implicați în ecosistem — creatori, cercetători, editori, ingineri și activiști — susțin un internet în care conținutul real și munca umană sunt protejate. Soluțiile propuse variază: mai multă alfabetizare media, etichetare și watermarking coerent, instrumente tehnice pentru a detecta conținutul fabricat, platforme fără AI și reglementări clare la nivel național sau internațional.

Există un consens larg că nu vom reveni la un internet anterior erei AI, dar că este posibil să construim medii care acordă prioritate autenticității. Mai multă fricțiune în crearea și distribuirea conținutului — în contrast cu gratificarea instantanee oferită de slop — ar putea favoriza o experiență online mai autentică și mai hrănitoare. Dacă nu facem nimic, riscăm o «moarte» a internetului, în care agenți automatizați vor interacționa între ei, dând iluzia unei comunități vii.

Pe scurt, lupta nu este doar tehnică, ci culturală și politică: trebuie să decidem ce valoare acordăm creației umane și cum vrem să trăim experiențele noastre digitale. După cum spune Rosanna Pansino, „Creativitatea umană este una dintre cele mai importante lucruri pe care le avem în lume. Și dacă AI o îneacă, ce ne rămâne?”

Resurse și inițiative menționate

Printre inițiativele și organizațiile citate care lucrează la contracararea efectelor AI slop se numără C2PA, proiecte de watermarking inovatoare precum noise-coded illumination, instrumente AI folosite pentru detectare în domeniul academic și platforme alternative care restricționează sau filtrează conținutul generat de inteligență artificială.

Mai multe detalii pe tema standardizării semnăturilor pentru conținut: Coalition for Content Provenance and Authenticity.

Studiile și rapoartele care arată amploarea fenomenului politic și dezinformativ includ analizele disponibile pe arXiv, iar investigațiile jurnalistice și analizele platformelor pot fi consultate în articolul original publicat de CNET: AI slop is destroying the internet. These are the people fighting to save it.

AI 24 Știri
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.