Cum inundă „AI slop” internetul și cine încearcă să-l salveze

Conținutul generat de AI, denumit „AI slop”, inundă internetul, iar creatori, cercetători și platforme încearcă soluții pentru a proteja autenticitatea și siguranța online.

Cum inundă „AI slop” internetul și cine încearcă să-l salveze

Sursa foto: Imagine generată AI iAceastă imagine a fost generată automat de AI pe baza rezumatului articolului și nu reprezintă un moment real fotografiat.


Un val de conținut generat de inteligență artificială, denumit peiorativ „AI slop”, amenință modul în care consumăm informație și divertisment pe internet. De la videoclipuri bizare cu obiecte întinse „satisfăcător” pe pâine, până la studii științifice fabricate și deepfake-uri periculoase, fenomenul s-a răspândit rapid, alimentat de instrumente care pot produce imagini, text și clipuri video cu câteva apăsări de buton. În mijlocul acestei furtuni, creatori, cercetători, platforme și dezvoltatori încearcă să găsească soluții care să readucă autenticitatea și controlul uman în mediul online.

O poveste de revoltă creativă: Rosanna Pansino versus AI

Rosanna Pansino, cunoscută pentru creațiile sale culinare publicate online de peste 15 ani, a sărit la luptă împotriva „slop”-ului AI compus din clipuri virale care au înlocuit postările artizanale ale creatorilor reali. După ce a observat că feed-urile erau sufocate de versiuni generate digital ale videoclipurilor despre mâncare, Pansino a decis să reproducă în viața reală acele clipuri pentru a demonstra diferența dintre muncă reală și imitarea ieftină produsă de algoritmi.

Un exemplu notabil este recrearea inelului acrișor din gumă Peach Rings, „uns” pe pâine. Deși versiunea AI părea simplă, pentru a o realiza autentic Pansino a folosit unt infuzat cu ulei aromat de piersică, coloranți alimentari galbeni și portocalii, un matrițaj din silicon pentru a forma inelele, congelare pentru întărire și un amestec de zahăr și acid citric pentru aspectul și gustul acrișor. Videoclipul ei a replicat fidel scena AI-ului: inelele alunecând net peste felia de pâine. Pentru Pansino, victoria a fost una simbolică: o demonstrație că creația umană implică ore de muncă și pricepere, mult mai mult decât un simplu prompt și un clic.

În acest articol

  • Creatorii versus AI
  • Putem crede ceea ce vedem online?
  • ‘Opriți avalanșa’ de slop științific
  • Spații online fără AI
  • Politică, dezinformare și slopagandă
  • Dezastru deepfake
  • Luptând pentru un internet centrat pe oameni

Creatorii versus AI

Internetul modern s-a construit pe clipuri virale făcute de oameni – exemplele memorabile merg de la „Charlie Bit My Finger” la fenomene precum Grumpy Cat sau Evolution of Dance. Astăzi, însă, pe platforme apar tot mai frecvent creații AI precum pisici care formează turnuri sau meme-uri care glorifică concepte controversate. Pentru unii utilizatori, astfel de postări par divertisment, dar ele sunt impuse de algoritmi, nu alese în mod conștient.

Pansino descrie senzația concursului cu mașina: asemănător unei episoade dintr-un serial în care un angajat concurează direct cu un site automatizat. Reacțiile urmăritorilor ei — peste 21 de milioane pe YouTube, Instagram și TikTok — sugeră o frustrare colectivă față de invazia conținutului generat în masă, în timp ce mulți apreciază că creațiile ei sunt comestibile și evidențiază dimensiunile tactile pe care AI-ul pur și simplu nu le poate imita.

Alți creatori și verificatori ai realității, precum Jeremy Carrasco, folosesc expertiza tehnică pentru a deconstrui videoclipuri virale și a semnala artefactele specifice generativului: tăieturi ciudate, probleme de continuitate, lumini sau reflexii ireale. Carrasco atrage atenția că publicul este adesea „manipulat emoțional” de aceste clipuri și nu analizează conținutul cu atenție, astfel încât o mare parte din audiență acceptă conținutul drept real fără verificări.

Putem crede ceea ce vedem online?

Detectarea automată a imaginilor și clipurilor AI rămâne o provocare pentru platformele majore. Unele servicii încurajează utilizatorii să se verifice pentru a distinge conturile reale de cele automate; LinkedIn a înregistrat succes într-o astfel de inițiativă, cu peste 100 de milioane de membri care au adăugat verificări. Totuși, AI oferă instrumente care permit crearea și multiplicarea postărilor de tip spam prin „engagement pods” și alte automatizări, complicând eforturile de moderare.

Etichetarea și watermarking-ul sunt instrumente cheie în această luptă. Un cadru important este susținut de Coalition for Content Provenance and Authenticity (C2PA), care promovează standarde pentru acreditarea conținutului sintetic. Însă nu toate modelele AI sunt compatibile cu aceste cadre, ceea ce lasă lacune în capacitatea de verificare.

Ca alternativă, cercetători precum Abe Davis de la Cornell au dezvoltat tehnici inovatoare de watermarking în lumină — denumită noise-coded illumination — care introduc un semnal invizibil pentru ochiul uman direct în mediul de iluminare. Orice cameră care captează acea lumină înregistrează apoi marca, permițând decodarea ulterioară a părților manipulate ale unui clip. Această metodă ar putea fi utilă în special la evenimente live, cum ar fi conferințe de presă, unde deepfake-urile pot avea impact imediat asupra opiniei publice. Totuși, astfel de soluții nu sunt comercializate pe scară largă și necesită coordonare la nivel industrial pentru a funcționa eficient.

‘Opriți avalanșa’ de slop științific

Pe lângă rețelele sociale, publicațiile științifice și arhivele prepublicare sunt ținte majore pentru conținutul generat sau falsificat de AI. Chatbot-urile și instrumentele de sumarizare AI consumă texte din surse jurnalistice și academice și pot genera rezultate inexacte sau care încalcă drepturile de autor. În mediul academic „publish or perish”, astfel de materiale pot pătrunde din greșeală sau cu bună știință în jurnalistica științifică, iar exemplele includ studii retrase care au conținut imagini evidente generate de AI.

ArXiv, platforma de prepublicare folosită pe scară largă, primește în jur de 2.000 de trimiteri pe zi, jumătate dintre acestea fiind revizuiri. Redactorii arXiv observă o creștere accelarată a trimiterilor, estimând un ritm de creștere anuală de aproximativ 20% care a devenit „alarmant de rapidă”. Pentru a limita influxul, arXiv a întărit regulile de trimitere și a introdus un sistem de recomandare (endorsement) pentru a verifica că autorii sunt persoane reale. Totuși, filtrarea automată nu este suficientă, iar dependența de voluntari pentru revizuire crește povara asupra comunității științifice.

În paralel, un grup de cercetători a folosit articole retrase pentru a antrena un model de învățare automată capabil să recunoască tiparele de „paper mill” și textele false, funcționând ca un filtru de spam științific. Adrian Barnett, parte din această echipă, explică că astfel de articole au „învelișul” unui studiu, dar nu conțin substanță; ele modifică elemente precum boala, proteina sau gena pentru a genera versiuni ușor diferite, mimând formatul academic.

Spații online fără AI

O soluție la invazia de slop este crearea de platforme care blochează în mod activ conținutul generat automat. DiVine, un nou serviciu inspirat de vechiul Vine, este unul dintre proiectele care încearcă să ofere un spațiu sigur, centrat pe conținut creat de oameni. Fondat de Evan Henshaw-Plath și susținut parțial de Jack Dorsey, DiVine va include un arhiv pentru peste 10.000 de clipuri Vine originale și intenționează să folosească instrumente de verificare precum proof mode, dezvoltate de The Guardian Project și bazate pe cadrul C2PA, pentru a valida originea conținutului. La lansare, aplicația nu va permite încărcări video imediate, reducând astfel riscul infiltrării de slop.

Platformele majore, însă, sunt încurcate: companiile care dezvoltă AI (Meta, Google, X etc.) integrează aceleași tehnologii în produsele lor și sunt reticente în a-și limita propriile „motoare” de generare. Acest conflict de interese face dificilă o regândire serioasă a modului în care algoritmii recomandă conținut. Mesaje publice, precum cel al CEO-ului YouTube sau al șefului Instagram, recunosc problema „slop”-ului, dar măsurile promise rămân adesea insuficiente în fața unui sistem construit pentru a maximiza timpul petrecut pe platformă, nu autenticitatea.

Politică, dezinformare și slopagandă

AI a devenit un instrument distinct în arta persuasiunii politice, dând naștere fenomenului numit „slopagandă”: conținut AI realizat pentru a manipula opiniile. Un studiu al Universității Stanford a arătat că majoritatea respondenților (94%) nu pot distinge mesajele politice scrise de AI de cele scrise de oameni, iar mesajele generate de modele mari de limbaj pot fi la fel de persuasive. Autorii studiului au notat surpriza lor în fața capacității modelelor de a produce mesaje persuasive în probleme de politică publică.

Imaginile AI au fost deja folosite politic: exemple includ imagini editate publicate de Casa Albă, videoclipuri și caricaturi AI prezentate de figuri politice și modificări care schimbă expresiile persoanelor implicate în proteste. Legislativ, răspunsurile au fost fragmentate: statele americane au adoptat diverse reglementări privind transparența AI, terapiile automatizate sau discriminarea algoritmică, în timp ce guvernul federal a propus linii directoare și planuri de acțiune care uneori subminează eforturile statale.

Discrepanța între interesele economice și necesitatea controlului explică de ce reglementarea rămâne neuniformă și de ce actorii mari din tehnologie au spațiu de manevră semnificativ.

Dezastru deepfake

Deepfake-urile reprezintă cea mai periculoasă fațetă a AI slop: imagini și videoclipuri care arată atât de reale încât devine dificil de făcut diferența. În trecut, deepfake-urile necesitau resurse și priceperi speciale; astăzi, modelele AI democratizează tehnica, făcând-o accesibilă oricui.

Aplicația Sora a OpenAI, care permitea generarea de videoclipuri folosind fețele și vocile utilizatorilor sau ale altora, a declanșat reacții aprinse din partea multor actori și organizații care au cerut restricții pentru folosirea neconsimțită a imaginii. În același timp, Grok, instrumentul AI asociat platformei X, a fost folosit pentru a crea imagini sexualizate fără consimțământ; într-o perioadă de nouă zile, Grok a generat 4,4 milioane de imagini, dintre care 1,8 milioane erau sexuale, conform unui raport al New York Times. Un alt studiu estimativ realizat de Center on Countering Digital Hate a calculat aproximativ 3 milioane de imagini sexualizate produse în 11 zile de Grok, dintre care 23.000 ar fi inclus copii.

Aceste cifre ilustrează cât de eficient poate fi AI-ul în facilitarea hărțuirii și abuzului, transformând orice imagine postată online într-o potențială țintă. În SUA, Legea Take It Down din 2025 a interzis imagini deepfake și pornografie nonconsensuală, oferind însă platformelor un răgaz până în mai pentru a implementa mecanisme de înlăturare. Mecanismele de aplicare permit doar investigarea de către DOJ și FTC, nu acțiuni directe ale victimelor împotriva companiilor sau perpetratorilor, iar până în momentul raportului respectiv nu fuseseră demarate investigații formale.

Luptând pentru un internet centrat pe oameni

Deși AI oferă potențial pentru inovație în medicină, industrie și alte domenii, capacitatea sa de a alimenta fraude, dezinformare și abuzuri ridică întrebarea fundamentală despre ce fel de internet vrem să avem. Miza nu este readucerea internetului „de dinainte de AI” — acest lucru este nerealist — ci protejarea elementelor esențiale: conexiunile umane, creativitatea autentică și încrederea în informație.

Răspunsurile vin dintr-o combinație de tehnologii de verificare, legislație, practici editoriale mai riguroase și platforme care aleg explicit să limiteze sau să verifice conținutul generat. Eforturile sunt numeroase, de la watermarking și etichetare până la instrumente AI care detectează texte fabricate. Cu toate acestea, multe dintre aceste soluții sunt fragmentate, iar succesul lor depinde de cooperarea industriei, a guvernelor și a comunității științifice.

Pe măsură ce „AI slop”-ul continuă să curgă, rămâne clar că miza este readucerea omului în centrul internetului — nu pentru nostalgie, ci pentru a asigura un spațiu digital care oferă valoare reală, informare corectă și experiențe autentice, nu doar iluzia conexiunii și a activității.

Detalii suplimentare și investigația integrală sunt disponibile în articolul original: Articol CNET.

AI 24 Știri
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.