AI slop inundă internetul. Oameni reali încearcă să-i redea umanitatea spațiului online

„AI slop” inundă internetul cu texte, imagini și video generat automat; creatori, cercetători și platforme caută soluții pentru a proteja autenticitatea online.

AI slop inundă internetul. Oameni reali încearcă să-i redea umanitatea spațiului online

Sursa foto: Imagine generată AI iAceastă imagine a fost generată automat de AI pe baza rezumatului articolului și nu reprezintă un moment real fotografiat.


Rosanna Pansino, creatoarea de conținut cunoscută pentru torturi tematice și experimente culinare, a pornit o serie de videoclipuri cu un scop neobișnuit: „să dea o lecție AI‑ului”. După mai bine de 15 ani în care și‑a construit audiența cu rețete spectaculoase — de la un tort în formă de Death Star din Star Wars până la batoane de ciocolată holografice — Pansino a decis să contracareze invazia unei categorii tot mai mari de conținut generat automat, denumit în limbajul curent „AI slop”.

Ce este „AI slop” și de ce contează

Termenul „AI slop” descrie conținutul creat de instrumentele generative care sună, arată sau se mișcă ca o versiune ieftină a realității: texte banale sau eronate, imagini cu un luciu artificial, clipuri video care încalcă legile simple ale fizicii. Efectul este omniprezent — de la rezultate de căutare la știri și fluxuri sociale — și are consecințe tangibile: informație fabricată, erori factuale, mesaje persuasive care nu pot fi deosebite cu ușurință de cele scrise de oameni și o competiție inegală pentru creatorii care investesc timp și pricepere pentru a crea conținut real.

AI slop devine dominant pentru că tehnologia transformă producția de conținut: generatoare de video, imagini și texte pot livra materiale la scară, cu câteva clickuri. Exemple de astfel de instrumente menționate frecvent includ produse ca OpenAI Sora, Google Nano Banana și Meta AI. Mulți utilizatori cred că văd conținut generat de AI la tot scroll‑ul: un studiu CNET arată că 94% dintre adulții americani activi pe rețele sociale cred că întâlnesc conținut creat de AI, însă doar 11% consideră astfel de materiale ca fiind utile sau distractive.

Reacția creatoarelor: meșteșug versus prompturi

Pansino a ales o abordare practică pentru a demonstra diferența dintre muncă umană și producția automată: a recreat în viața reală videoclipurile de tip „slop” care prezentau obiecte improbabile întinse „satisfăcător” pe felii de pâine. Ceea ce părea simplu într‑un clip generat de AI — inele dulci de jeleu răspândite uniform pe pâine — s‑a transformat, în laboratorul ei culinar, într‑un proces minuțios: a folosit unt aromatizat cu ulei de piersici drept bază, a colorat cu nuanțe pastelate, a turnat untul în forme din silicon pentru a crea inele 3D, le‑a lipit cu unt necolorat și le‑a pudrat cu un amestec de zahăr și acid citric pentru aspectul și gustul de bomboană acrișoară. Rezultatul video a replicat fidel versiunea generată de AI, însă cu un detaliu definitoriu: era comestibil și rezultatul unei priceperi umane aprofundate.

Pansino explică motivația: „Internetul e copleșit de AI slop și am vrut să găsesc o modalitate de a lupta împotriva lui într‑un mod amuzant.” Reacția publicului, peste 21 de milioane de urmăritori pe YouTube, Instagram și TikTok, a fost una de susținere, mulți recunoscându‑și propria frustrare față de înmulțirea conținutului automatizat. Prin proiectul ei, Pansino pune în evidență valoarea creativității umane, repetând ideea că aceasta rămâne „una dintre cele mai importante lucruri pe care le avem în lume”.

Detectarea și demascarea: cine verifică realitatea?

Alți creatori au apărut ca „verificatori de realitate” alegând să explice publicului cum să recunoască semnele conținutului generat. Jeremy Carrasco, profesor în producție video tehnică, folosește experiența sa pentru a descifra anomalii vizuale — tăieturi ciudate, probleme de continuitate, artefacte de imagine — și pentru a urmări sursa originală a unui videoclip. El subliniază că slopul profită de reacțiile emoționale ale privitorilor: scopul producătorilor de slop este angajamentul, iar angajamentul se traduce în venituri publicitare. Un raport Kapwing indică faptul că, dacă înregistrezi un cont YouTube nou, o treime din primele 500 de YouTube Shorts afișate ar putea fi conținut de tip slop.

Detectarea la scară largă rămâne însă complicată. Platformele încearcă să combine metode automate cu verificări umane. Pe LinkedIn, de exemplu, introducerea unor verificări pentru conturi a condus la peste 100 de milioane de membri verificați; dar, în același timp, instrumentele automate pot fi folosite pentru a crea mii de conturi care postează și comentează în rețele de tip „engagement pods”. Oscar Rodriguez, vicepreședintele produselor de încredere la LinkedIn, precizează că nu există un semnal unic care să denunțe un cont ca fiind fals, iar identificarea se bazează pe o colecție de semnale comportamentale.

Marcajele și filigranele: o luptă pentru trasabilitate

Una dintre strategiile principale pentru a limita slopul este etichetarea sau inserarea unor filigrane digitale. Aceste semnături pot fi aplicate în timpul procesului de creare a media sintetice sau pot fi generate de hardware la captare. Coalition for Content Provenance and Authenticity (C2PA) promovează un cadru de standardizare pentru astfel de acreditări de conținut, dar nu toate modelele de AI sunt compatibile cu această abordare, ceea ce creează lacune de verificare.

O abordare alternativă și inovatoare a fost dezvoltată de profesorul Abe Davis de la Universitatea Cornell: noise‑coded illumination, o metodă care ascunde un filigran digital în mediul de iluminare. Un bec dotat cu cipul necesar emite frecvențe care includ semnătura, iar orice cameră care filmează scena înregistrează implicit acel filigran. Semnătura este invizibilă pentru ochiul uman și este distribuită pe parcursul imaginilor, iar deținătorii codului secret pot decoda ce părți ale unui material au fost manipulate până la nivel de pixeli. Deși nu e încă disponibilă comercial, cercetarea arată că există soluții tehnice viabile pentru a adăuga niveluri suplimentare de protecție la evenimente live, cum ar fi conferințe de presă și mitinguri politice.

În ciuda acestor progrese, experții avertizează că filigranarea rămâne o problemă de acțiune colectivă: ar avantaja pe toți, dar nimeni nu are stimulentul suficient pentru a o impune unilateral, iar competiția dintre companii și schimbările rapide din industrie fragmentează abordările.

„Opriți inundația” din lumea științifică

Nu doar rețelele sociale sunt afectate: mediul academic și publicațiile științifice sunt și ele ținte ale slopului. Chatboții și instrumentele automate pot consuma articole științifice și materiale jurnalistice și pot genera rezultate inexacte, uneori chiar cu încălcări de copyright. Mai periculos, în „cultura publică sau dispari” din cercetare, unele lucrări generate parțial sau total de AI ajung în jurnale științifice, diluând calitatea corpusului științific. Un caz notoriu a fost retragerea unui studiu care a inclus o imagine evident generată de AI, cu erori evidente și numeroase greșeli tipografice.

ArXiv, baza de prepublicări folosită intens de comunitatea științifică, a resimțit impactul rapid al slopului: deși în mod normal primeste o creștere anuală a submisiunilor de aproximativ 20%, volumul a accelerat „îngrijorător de tare”, potrivit directorilor Ramin Zabih și Steinn Sigurdsson. ArXiv procesează circa 2.000 de submisiuni pe zi, jumătate fiind revizuiri, și combină filtrarea automată cu sute de voluntari care evaluează calitatea lucrărilor. Pentru a reduce abuzurile, platforma a înăsprit regulile și a introdus un sistem de confirmare prin recomandare pentru a se asigura că doar autori reali pot publica.

Un exemplu de utilizare a AI în lupta contra slopului provine dintr‑un proiect care a antrenat modele pe lucrări retrase pentru a recunoaște tiparele lucrărilor fabricate, în special în domeniul cercetării oncologice. Adrian Barnett și colegii săi au folosit exemple de articole provenite din „paper mills” pentru a construi un filtru de tip „spam științific”. Instrumentul identifică formule și fraze repetate care trădează o structură generată mecanic — o demonstrație a faptului că AI poate fi folosit pentru a detecta abuzurile provocate de AI, deși rămân limite, în principal că un detector poate recunoaște doar ce a învățat deja.

Spații online fără AI: o promisiune de autenticitate

O reacție directă la dominația slopului constă în construirea de platforme care promit experiențe lipsite de conținut generat automat. DiVine, o reimaginare a vechiului Vine, este concepută ca o aplicație video scurtă care exclude AI‑ul din fluxul principal. Creată de Evan Henshaw‑Plath și finanțată de Jack Dorsey, DiVine va include arhiva originală de peste 10.000 de Vine‑uri și intenționează să implementeze sisteme de verificare a autenticității, colaborând cu The Guardian Project și cu sistemul Proof Mode, construit pe cadrul C2PA. În plus, pentru lansare, DiVine nu va permite încărcarea de video‑uri direct, punctând astfel bariera inițială pe care o pot folosi actorii rău intenționați pentru a plasa conținut fals.

Aplicațiile care afirmă că nu sunt „anti‑AI” promit, totuși, un loc unde utilizatorii să poată avea încredere că materialele sunt create de oameni. Răspunsurile conducerilor platformelor mari sunt mixte: unii lideri admit problema și anunță reduceri ale promovării conținutului repetitiv și de calitate scăzută, în timp ce alții au integrat adânc caracteristicile AI în serviciile lor — un conflict de interese care complică soluțiile.

Politică, manipulare și „slopaganda”

Un domeniu în care slopul are potențialul de a face pagube semnificative este politica. AI produce un nou tip de mesaje persuasive și imagini politice care pot modela opiniile publice: cercetări recente arată că persoanele considerate pot identifica greșit cu ușurință mesajele politice generate de AI, iar aceste mesaje pot avea un efect persuasiv comparabil cu cele scrise de oameni. În unele cazuri, guverne sau actori politici au folosit imagini AI pentru a comunica mesaje simbolice sau dezinformatoare, iar exemplele practice includ imagini generate de Guvernul SUA sau de figuri publice din administrația Trump care au folosit imagini și clipuri manipulate.

Legislația menită să controleze abuzurile ai încă este fragmentată. Statele americane au adoptat reglementări disparate — exemplu: California a introdus un Act de Transparență AI, Illinois a impus limite asupra terapiei asistate de AI, Colorado a adoptat reguli privind discriminarea algoritmică — însă tensiunea dintre reglementările statale și poziția federală crează un peisaj legislativ neuniform. Planurile administrației federale includ reducerea barierelor pentru centrele de date AI și o abordare de „neutralitate ideologică” a modelelor, dar mecanismele practice și efectele rămân neclare. În același timp, unii lideri tehnologici s‑au întâlnit frecvent cu oficiali guvernamentali, context care ridică întrebări despre modul în care reglementarea va echilibra inovația și responsabilitatea.

Deepfake‑urile: abuzuri de amploare

Categoric, cea mai periculoasă fațetă a slopului o reprezintă deepfake‑urile — imagini și videoclipuri atât de credibile încât sunt dificil de depistat. Tehnicile care anterior erau costisitoare au devenit accesibile, iar rezultatul este o democratizare a abilității de a crea conținut fals convingător. Un episod recent a ilustrat acest pericol: aplicația OpenAI Sora a permis utilizatorilor să genereze videoclipuri folosind chipul și vocea altor persoane, provocând reacții din partea unor celebrități, sindicate și moștenitori ai personalităților istorice, care au cerut măsuri de protecție. De asemenea, sistemul Grok dezvoltat de xAI a fost folosit pentru a genera imagini nonconsensuale sexualizate la scară largă: într‑o perioadă de nouă zile s‑au creat 4,4 milioane de imagini, dintre care 1,8 milioane erau sexuale, conform unui raport al New York Times. Un studiu separat al Center on Countering Digital Hate estimează că Grok a generat aproximativ 3 milioane de imagini sexualizate în 11 zile, dintre care 23.000 erau materiale de tip deepfake pornografic implicând copii.

Aceste cifre dezvăluie un nivel alarmant de faciliteză a hărțuirii și de abuz facilitat de AI. Legea Take It Down Act din 2025 interzice deepfake‑urile nonconsensuale, dar a oferit platformelor o perioadă de grație până în mai pentru a implementa proceduri de eliminare; mecanismele de aplicare permit doar DOJ și Federal Trade Commission să investigheze companiile, fără a acorda dreptul direct victimelor de a intenta acțiuni similare împotriva platformelor la nivel individual, iar până acum nu existau investigații deschise de aceste organisme menționate în text.

Lupta pentru un internet centrat pe oameni

Pe termen lung, miza nu este eliminarea completă a AI, ci păstrarea unei prezențe umane autentice pe internet. Tehnologia poate aduce progrese reale în domenii precum medicina sau producție, dar, în forma sa actuală, e și un instrument eficient pentru fraude, manipulare și abuz. Mulți actori — creatori, jurnaliști, cercetători, dezvoltatori, organizații de advocacy și unele instituții guvernamentale — lucrează la soluții complementare: etichetare și filigranare, instrumente de detectare, instruire media, spații AI‑free și reglementări mai clare.

Rămâne, însă, o cursă între adoptarea rapidă a tehnologiilor generative și capacitatea noastră de a pune în aplicare măsuri care să protejeze încrederea și autenticitatea. Dacă nu reușim să readucem mai multă fricțiune — adică efort uman — în experiențele online, riscăm o lume digitală populată din ce în ce mai mult de simulacre menite doar să capteze atenția. Oamenii și instituțiile care apără conținutul real și verificabil speră că, printr‑un set divers de acțiuni, se poate redirecționa internetul către folosul comunităților și al schimbului uman real, nu al unei economii automate a atenției.

AI 24 Știri
Prezentare generală a confidențialității

Acest site folosește cookie-uri pentru a-ți putea oferi cea mai bună experiență în utilizare. Informațiile cookie sunt stocate în navigatorul tău și au rolul de a te recunoaște când te întorci pe site-ul nostru și de a ajuta echipa noastră să înțeleagă care sunt secțiunile site-ului pe care le găsești mai interesante și mai utile.