Cum «AI slop» inundă internetul și cine luptă să-l oprească
„AI slop” invadează internetul cu conținut artificial de calitate scăzută; creatori, cercetători și platforme încearcă detectare, etichetare și alternative pentru a proteja autenticitatea online.
Sursa foto: Imagine generată AI
Internetul pe care îl cunoaștem se schimbă sub ochii noștri: conținut generat de inteligență artificială, produs rapid și în cantități industriale, umple feed-urile și primele rezultate în motoarele de căutare. Unele creații sunt amuzante sau bizare, dar marea majoritate reprezintă o imitație palidă a conținutului autentic — un fenomen denumit „AI slop”. În mijlocul acestui val, creatori, cercetători și organizații încearcă să oprească scurgerea de conținut prost făcut și să salveze spațiile online pentru oameni.
În acest articol
- Creatori versus AI
- Putem crede ceea ce vedem online?
- „Opriți avalanșa” de texte științifice false
- Spații online libere de AI
- Politică, dezinformare și „slopaganda”
- Dezastrul deepfake-urilor
- Lupta pentru un internet centrat pe oameni
Context: când abilitatea umană încearcă să concureze cu simularile automate
Rosanna Pansino, care împarte creațiile sale culinare online de peste 15 ani, a pornit un proiect cu un scop clar: să arate ce înseamnă munca umană în fața videoclipurilor generate de AI. După ce feed-urile ei au fost invadate de clipuri alimentare create de algoritmi — inclusiv tendința stranie a obiectelor improbabile întinse „satisfăcător” pe pâine — Pansino a reprodus manual aceste clipuri, pas cu pas. Exemplul cel mai elocvent sunt inelele acrișoare de tip Peach Rings create din unt, colorat și aromat, turnat în forme, lipit pentru a obține acea formă 3D și finalizate prin învelire în zahăr cu acid citric. Rezultatul: replici comestibile care reproduceau exact estetica videoclipurilor produse de AI și demonstrau efortul și priceperea umană din spatele unei singure creații.
Creatori versus AI
Ceea ce Pansino ilustrează nu este doar o demonstrație de abilități practice, ci o problemă structurală: conținutul generat de AI ocupă spațiul creat de oameni. Internetul de la început a fost populat de clipuri virale autentice și de creatori reali, dar acum este tot mai des presărat cu imagini și videoclipuri artificiale — de la „pisici formând un turn” la meme care glorifică concepte ca „AGI”. Pentru mulți utilizatori, acest conținut este în continuare divertisment, însă nu este oferit în funcție de preferințele lor reale, ci este forțat în fața lor de mecanismele care promovează engagement-ul.
Un raport al Kapwing arată că, dacă cineva și-ar crea astăzi un cont nou de YouTube, aproximativ o treime din primele 500 de scurtmetraje (YouTube Shorts) ar fi unele forme de „AI slop”. În același registru, TikTok indexa peste 1,3 miliarde de videoclipuri etichetate ca fiind generate de AI la momentul raportării. Aceste cifre subliniază cât de integrat a devenit slop-ul în experiența noastră de scroll.
Pansino simte această competiție ca pe o cursă în care omul concurează cu mașina. Pentru ea și alți creatori care produc lucruri tangibile, reacțiile publicului — mulți dintre cei 21 de milioane de urmăritori ai ei au susținut seria de recreeri — au funcționat ca o confirmare că există o cerere pentru autenticitate și pentru munca care nu poate fi redată printr-un simplu prompt.
Putem crede ceea ce vedem online?
Platformele au dificultăți serioase în identificarea fiabilă a imaginii și videoclipurilor generate de AI. Unele companii încurajează utilizatorii reali să-și verifice conturile pentru a reduce comportamentul de tip „farmă de engagement”; LinkedIn raporta, spre exemplu, peste 100 de milioane de membri care au folosit astfel de verificări. Totuși, metodele de detectare rămân complexe: un portret generat de AI folosit ca fotografie de profil nu încalcă automat regulile, iar comportamentul în sine (comentarii, frecvență etc.) este folosit ca semnal pentru a detecta conturi inautentice.
Un instrument esențial în această luptă este etichetarea și watermarking-ul: semnături care arată cum și când a fost creat un fișier. Coalition for Content Provenance and Authenticity (C2PA) încearcă să standardizeze modul în care conținutul sintetic este marcat cu credențiale. Totuși, nu toate modelele AI sunt compatibile cu acest cadru, iar tehnicile actuale nu pot acoperi tot ce apare online, ceea ce lasă loc de confuzie și inconsistență pentru utilizatori.
La nivel tehnic, cercetători conduși de Abe Davis, profesor de informatică la Cornell, au dezvoltat o metodă inovatoare de „watermarking” înglobat în lumină, denumită noise-coded illumination. Ideea: folosind becuri cu un cip special care emite un semnal invizibil pentru ochiul uman, orice cameră ce surprinde acel cadru va înregistra parametrii respectivi, astfel încât ulterior părțile manipulate pot fi detectate la nivel de pixel. Deși nu este încă disponibilă pe scară largă, această abordare ilustrează tipurile de soluții care ar putea proteja în special evenimentele în direct, unde deepfake-urile politice sau propagandistice pot avea efecte imediate.
„Opriți avalanșa” de texte științifice false
Publicarea academică a devenit o ţintă majoră pentru AI slop. Chatboții care consumă articole și le reambalează, instrumente automate de traducere și de arhivare threaten munca translatorilor și a istoricilor, dar problema cea mai gravă apare în publicațiile științifice. Într-un caz notoriu, un studiu retractat a devenit viral din cauza unei imagini create de AI (o reprezentare incorectă a anatomiei unui șobolan) și a numeroaselor greșeli de redactare. Aceasta este doar una dintre manifestările în care AI accelerează apariția de cercetări de calitate scăzută, deseori produse de așa-numitele „paper mills”.
ArXiv, una dintre cele mai mari baze pentru prepublicări științifice, observă o creștere alarmantă a volumului de submitări. Editorul Ramin Zabih și directorul științific Steinn Sigurdsson au spus că depunerile cresc cu aproximativ 20% anual, iar în prezent fluxul e mult mai rapid: arXiv primește în jur de 2.000 de trimiteri pe zi, dintre care jumătate sunt revizuiri. Deși platforma folosește filtre automate pentru a respinge lucrările evident frauduloase, ea depinde în mare măsură de sute de voluntari care evaluează articolele conform domeniilor lor de expertiză. Ca răspuns, arXiv a înăsprit regulile de depunere și a introdus un sistem de endorsement pentru a limita accesul doar cercetătorilor reali.
Problema e atât cantitativă, cât și calitativă: „Corpusul științei se diluează”, spune Sigurdsson. O parte din conținut este greșit sau lipsit de sens, transformându-se în zgomot și îngreunând identificarea descoperirilor reale. Ca răspuns, un grup de cercetători a folosit lucrări retractate pentru a antrena un model care detectează cercetarea falsă, în special în domeniul studiilor despre cancer. Acest filtru științific funcționează ca un fel de antispam: recunoaște tiparele și frazele folosite frecvent de fabricatori. Totuși, astfel de instrumente sunt limitate la tiparele pe care le cunosc și nu pot înlocui supravegherea umană, a cărei intuiție și expertiză rămân indispensabile.
Spații online libere de AI
O parte a problemei este faptul că marile companii care ne conduc viața online dezvoltă și implementează tot ele instrumentele AI. Meta, Google, X și altele integrează AI în produsele lor, iar separarea platformelor de creatorii AI este dificilă. Companiile au un interes clar în a promova utilizarea AI: asta le crește statistica de utilizare și le poate justifica investițiile pentru investitori.
Unele inițiative însă caută să ofere alternative: DiVine, o reimaginare a Vine, a fost concepută ca o aplicație video scurtă care exclude conținutul generat de AI. Fondată de Evan Henshaw-Plath și susținută financiar de Jack Dorsey, platforma își propune să ofere un spațiu în care conținutul este creat de oameni și verificat ca atare. Pentru a garanta autenticitatea, DiVine va colabora cu The Guardian Project pentru a integra un sistem de identificare numit proof mode construit pe cadrul C2PA, precum și cu laboratoare AI pentru a proiecta verificări care analizează structura internă a clipurilor. La lansare, DiVine nu va permite încărcarea directă de videoclipuri, ceea ce ar putea reduce riscul ca slop-ul să pătrundă în platformă.
Mesajele venite din partea unor figuri din industrie reflectă această îngrijorare: conducerea Instagram a pledat pentru o estetică „crudă” și „imperfectă”, criticând totodată slop-ul, iar CEO-ul YouTube a început 2026 cu un apel către reducerea distribuției conținutului de calitate scăzută și repetitiv. Rămâne însă întrebarea dacă platformele care depind de algoritmi de recomandare pot reveni la un model cu adevărat centrat pe oameni, în condițiile în care sistemele lor favorizează conținutul care menține utilizatorii angajați, inclusiv slop-ul.
Politică, dezinformare și „slopaganda”
AI joacă deja un rol semnificativ în politică. Termenul „slopaganda” descrie conținutul generat de AI folosit pentru a manipula opiniile în scopuri politice. Un studiu de la Stanford a arătat că majoritatea oamenilor (94%) nu pot distinge mesajele politice generate de AI, iar aceste mesaje se dovedesc la fel de persuasive ca mesajele scrise de oameni. Autorii studiului au fost surprinși de eficiența modelelor de limbaj în formularea de mesaje convingătoare care să rezoneze emoțional cu publicul.
Imaginile AI au fost folosite deja în campanii și controverse publice: exemple includ imagini create de Casa Albă, caricaturi sau materiale editate care schimbă expresia unei persoane pentru a sugera un anumit context. Legislația privind AI rămâne fragmentată: unele state au adoptat reglementări proprii, precum California cu AI Transparency Act, Illinois cu restricții asupra terapiei asistate de AI sau Colorado cu norme anti-discriminare algoritmică. În același timp, administrația federală a dezvoltat un plan de acțiune pentru AI care urmărește, printre altele, reducerea reglementărilor ce ar putea încetini competitivitatea. Această dinamică a dus la confruntări între autorități locale și guvernul federal privind cine și cum reglementează AI.
Dezastrul deepfake-urilor
Deepfake-urile reprezintă partea cea mai periculoasă a „AI slop”: conținut atât de realist încât devine foarte greu de distins de înregistrările autentice. În trecut, deepfake-urile costau resurse considerabile și expertiză, dar noile modele democratizează această tehnologie și scad bariera de intrare. OpenAI a lansat aplicația Sora, care a generat îngrijorări legate de utilizarea imaginii și vocii persoanelor fără consimțământ; compania a promis îmbunătățirea protecțiilor. În schimb, Grok, produsul xAI al lui Elon Musk, nu a impus același nivel de protecție, iar platforma X a fost folosită pentru a produce imagini nonconsensuale în masă.
Un raport al New York Times a arătat că, într-o perioadă de nouă zile, Grok a creat 4,4 milioane de imagini, dintre care 1,8 milioane erau sexuale. Un studiu similar realizat de Center on Countering Digital Hate a estimat aproximativ 3 milioane de imagini sexualizate generate de Grok în 11 zile, dintre care 23.000 ar fi inclus copii. Aceste cifre reflectă o amploare a abuzului facilitat de instrumentele automate: hărțuirea poate fi produsă la scară industrială, iar victimele pot fi „oricine” care are imagini publice online.
Legea Take It Down Act din 2025 a făcut ilegale deepfake-urile și imaginile intime nonconsensuale, dar a oferit platformelor o perioadă de grație până în mai pentru a implementa mecanisme de eliminare a conținutului. Totuși, aplicabilitatea legii rămâne limitată: doar Departamentul de Justiție și Federal Trade Commission pot investiga companiile, iar până în prezent nu s-au deschis investigații majore. Criticii subliniază că prevenția ar fi trebuit să fie mai strictă la proiectarea sistemelor care permit generarea în masă a acestor abuzuri.
Lupta pentru un internet centrat pe oameni
Argumentele companiilor care dezvoltă AI susțin că tehnologia este doar un instrument menit să ne ușureze viața. Există, într-adevăr, promisiuni importante în medicină, industrie și servicii, dar eficiența AI ca instrument pentru fraudă, dezinformare și abuz rămâne o problemă majoră. Pentru a păstra un internet relevant pentru oameni, lupta împotriva slop-ului trebuie să continue pe mai multe fronturi: etichetare și watermarking mai bune, instrumente de detectare, reglementări coerente și platforme alternative care să privilegieze autenticitatea.
În cele din urmă, nu ne putem întoarce la un internet complet pre-AI. Lupta actuală este una pentru a păstra elemente de umanitate: conținut real, creat de oameni, cu imperfecțiunile și profunzimea care ne fac rețelele sociale utile. Dacă schimbăm totul în automatizare fără frâne, riscăm să ajungem la o „rețea moartă”, în care agenți AI interacționează între ei, inducând impresia de activitate și conexiune fără prezență umană reală. Reîntoarcerea, sau mai degrabă conservarea, unei experiențe online cu un pic mai multă fricțiune dar multă autenticitate este, pentru mulți dintre actorii implicați, singura cale de a restabili valoarea socială a internetului.
„Creativitatea umană este unul dintre cele mai importante lucruri pe care le avem în lume”, a spus Rosanna Pansino, subliniind că dacă AI o îneacă, ce va rămâne? Răspunsul îl caută o comunitate vastă de creatori, cercetători, editori și dezvoltatori care încearcă, fiecare în felul său, să aducă o umanitate reală înapoi în mediile digitale.
Pentru referințe și context suplimentar, materialul poate fi consultat la sursa originală: CNET – AI slop is destroying the internet. These are the people fighting to save it.