Cercetători din Suedia au inventat o boală care nu există, au plantat pe internet informații false despre ea și au întrebat cele mai cunoscute modele de inteligență artificială dacă această maladie este reală. Răspunsul? IA le-a confirmat că boala există. Experimentul arată că sistemele AI preiau și amplifică dezinformarea fără să o filtreze.
Boala inventată care a păcălit inteligența artificială
Experimentul pornit de cercetătorii suedezi este simplu în design, dar tulburător în concluzii. Aceștia au construit de la zero o maladie fictivă, cu simptome, evoluție și denumire medicală plauzibilă. Apoi au „presărat" pe internet urme digitale despre această boală: articole, forumuri, comentarii, pagini de tip wiki, postări pe rețele sociale.
Scopul era să simuleze modul în care o dezinformare medicală se răspândește organic în mediul online, ajungând să pară credibilă printr-un simplu volum de repetare. Odată ce aceste surse au fost indexate de motoarele de căutare, cercetătorii au pus întrebarea cheie modelelor populare de inteligență artificială: „Ce este această boală? Cum se manifestă? Există tratament?"
Răspunsul primit a fost unul îngrijorător: modelele de IA au descris boala inventată ca și cum ar fi reală, au enumerat simptome, au explicat mecanisme biologice și au oferit sfaturi despre cum poate fi gestionată afecțiunea. Niciun model nu a semnalat că informația ar putea fi falsă sau că sursa este nesigură.
De ce IA „crede" tot ce citește pe internet
Marile modele de limbaj, precum ChatGPT, Gemini sau Claude, sunt antrenate pe cantități uriașe de text preluate de pe internet. Această arhitectură le face extrem de capabile să genereze răspunsuri fluente și aparent bine documentate, dar are și un punct slab major: dacă internetul conține dezinformare, modelul o va absorbi și o va reproduce cu aceeași siguranță cu care reproduce un fapt verificat.
Mecanismul este similar cu cel al zvonurilor în societate: cu cât o informație apare în mai multe locuri, cu atât pare mai credibilă. IA nu verifică sursele în sensul jurnalistic al cuvântului. Ea calculează probabilitatea că un text este plauzibil pe baza tiparelor din date, nu pe baza adevărului obiectiv.
Problema „halucinațiilor" și a dezinformării preluate
Specialiștii în inteligență artificială vorbesc frecvent despre „halucinații" atunci când descriu situațiile în care un model inventează fapte care nu există. Experimentul suedez adaugă o dimensiune nouă acestei discuții: nu este vorba doar de fapte inventate de model, ci de dezinformare externă care intră în model prin antrenament sau prin căutare în timp real și este apoi redistribuită cu autoritate.
Diferența este importantă. O halucinație pură poate fi detectată relativ ușor dacă știi să cauți. O dezinformare preluată dintr-un ecosistem online mare și coerent este mult mai greu de identificat, tocmai pentru că există surse reale care o susțin, indiferent cât de fabricate ar fi acestea.
Pe acelasi subiect, vezi si directorul de firme din Romania.
Experimentul propriu: ce se întâmplă când testezi IA cu informații false
Plecând de la experimentul suedez, jurnaliștii de la o publicație românească și-au construit propriul test. Concluzia a confirmat traiectoria: și în contextul românesc, modelele de inteligență artificială au acceptat și reprodus informații false atunci când acestea apăreau suficient de consistent în sursele accesibile.
Aceasta nu este o surpriză pentru cercetătorii care studiază comportamentul sistemelor AI, dar este o problemă majoră pentru publicul larg, care tinde să perceapă răspunsurile AI drept verificate și de încredere. Interfața curată, tonul autoritar și fluența lingvistică a modelelor moderne creează o iluzie de competență care nu corespunde întotdeauna realității.
Contextul românesc: vulnerabilitate crescută la dezinformare digitală
România se confruntă deja cu o problemă serioasă de alfabetizare digitală și media. Studiile privind consumul de informație arată că o parte semnificativă a populației nu verifică sursele știrilor pe care le citește și nu face distincție clară între un articol jurnalistic și o postare pe rețele sociale. Adăugarea unui strat suplimentar, cel al inteligenței artificiale percepute ca omnisciente, amplifică riscul.
Când un utilizator întreabă un asistent AI despre simptomele unei boli și primește un răspuns ferm și detaliat, puțini se vor întreba de unde vine acea informație sau cât de verificată este. Tocmai această încredere implicită este exploatată, uneori involuntar, de modul în care funcționează aceste sisteme.
Domeniile cele mai expuse la dezinformare prin IA
Medicina este probabil cel mai sensibil teren, dar nu singurul. Experimentele similare au arătat că IA poate fi indusă în eroare în domenii precum:
Nutriția și suplimentele alimentare sunt zone în care internetul abundă de afirmații nefondate științific, preluate frecvent de modelele AI. Istoria și politica, unde dezinformarea deliberată este adesea plantată sistematic, reprezintă alt câmp de vulnerabilitate. Jurisprudența și dreptul, mai ales la nivel local, unde modelele nu au date suficiente și inventează sau preiau precedente false, completează tabloul.
Cum funcționează dezinformarea în ecosistemul AI: mecanismele tehnice
Există două moduri principale prin care dezinformarea ajunge să fie reprodusă de un model AI. Primul este prin antrenament: dacă textele false au existat pe internet înainte ca modelul să fie antrenat, ele sunt înglobate direct în parametrii săi. Modelul nu are o listă separată de „fapte false" la care să se refere.
Cauta printre cele mai noi anunturi din Romania.
Al doilea mecanism este cel al căutării în timp real, folosit de unele sisteme moderne care accesează internetul în momentul în care generează răspunsul. Dacă paginile false sunt indexate și au o aparentă autoritate (număr de apariții, link-uri între ele), modelul le va include în sinteza sa.
De ce volumul de apariții contează mai mult decât calitatea sursei
O singură sursă credibilă care spune că o boală nu există nu va anula zeci de pagini coordonate care afirmă contrariul. Algoritmii care stau la baza modelelor de limbaj sunt optimizați pentru coerență și frecvență, nu pentru autoritate editorială. Asta înseamnă că o campanie de dezinformare bine organizată, care plasează același mesaj fals în suficient de multe locuri, poate depăși chiar și surse medicale oficiale în influența exercitată asupra modelului.
Este un fenomen cunoscut în cercetare drept „data poisoning" sau otrăvirea datelor de antrenament, iar experimentul suedez demonstrează că nu ai nevoie de resurse tehnice sofisticate pentru a-l realiza. Suficientă perseverență și suficiente conturi online pot crea un ecosistem de dezinformare convingător.
Răspunsul industriei: pași mici față de o problemă uriașă
Marile companii din domeniu, OpenAI, Google, Anthropic sau Meta, recunosc problema și lucrează la soluții. Acestea includ sisteme de verificare a faptelor integrat în răspunsuri, filtre de credibilitate a surselor și avertismente explicite când subiectul este sensibil din punct de vedere medical sau politic. Unele modele afișează acum mesaje de tipul „Consultați un medic" sau „Aceasta nu este informație medicală certificată".
Acești pași sunt necesari, dar nu suficienți. Avertismentele generice sunt adesea ignorate de utilizatori, iar filtrele nu pot ține pasul cu ritmul în care dezinformarea se adaptează și se reinventează.
Ce ar trebui să știe utilizatorul obișnuit despre limitele IA
Inteligența artificială este un instrument extraordinar de util pentru sarcini precum sintetizarea de informații generale, redactarea de texte, programare sau traduceri. Dar există zone în care trebuie folosită cu multă prudență.
Orice informație medicală primită de la un sistem AI trebuie verificată cu un medic sau cu o sursă medicală acreditată, indiferent cât de convingătoare sună formularea. Același principiu se aplică informațiilor juridice, financiare sau istorice cu miză mare.
Pentru mai multe optiuni, consulta servicii disponibile in zona ta.
Semnalele care ar trebui să trezească suspiciuni
Există câteva indicii că un răspuns AI poate fi bazat pe informații nesigure. Un model care nu citează nicio sursă sau care citează generic „studii" fără a specifica autorii sau publicațiile ridică un semn de întrebare. Răspunsurile excesiv de categorice pe subiecte medicale sau știițifice controversate, fără nicio nuanță sau mențiune a incertitudinii, sunt un alt semnal de alarmă.
Schimbările bruște de poziție ale aceluiași model atunci când este întrebat diferit despre același subiect arată că răspunsul nu este ancorat în cunoaștere solidă, ci în tiparele de limbaj. Un utilizator informat va testa răspunsul, va pune întrebări suplimentare și va verifica informația prin canale independente.
Educația digitală: singura soluție durabilă
Pe termen lung, singura apărare reală împotriva dezinformării amplificate de IA este educația digitală. Nu există un filtru tehnic care să rezolve complet problema, iar responsabilitatea nu poate fi delegată exclusiv companiilor producătoare de software.
Utilizatorii trebuie să înțeleagă cum funcționează aceste sisteme, care le sunt limitele și de ce un răspuns fluent nu este echivalent cu un răspuns adevărat. Această diferență fundamentală, între fluență și acuratețe, este poate cea mai importantă lecție pe care o oferă experimentul suedez și replicile sale.
Implicații mai largi: dezinformarea medicală în era AI
Dezinformarea medicală nu este un fenomen nou. Remedii miraculoase, teorii ale conspirației despre vaccinuri sau tratamente alternative nefondate au existat cu mult înainte de era digitală. Ceea ce schimbă inteligența artificială este viteza și aparenta autoritate cu care astfel de informații pot fi legitimizate și distribuite.
Un om care citea pe un forum obscur despre o boală inventată era conștient că sursa era discutabilă. Același om care primește confirmarea acelei boli de la un asistent AI sofisticat, cu o formulare academică și referințe la mecanisme biologice, tinde să o perceapă ca pe o informație validată. Această schimbare de percepție este, probabil, consecința cea mai periculoasă a fenomenului studiat de cercetătorii suedezi.
Experimentul nu condamnă inteligența artificială ca tehnologie și nu sugerează că aceste instrumente nu ar trebui folosite. Dimpotrivă, tocmai pentru că sunt atât de utile și atât de răspândite, înțelegerea limitelor lor devine esențială. Cunoașterea modului în care dezinformarea circulă prin aceste sisteme este primul pas pentru a te proteja de efectele ei.
Întrebări frecvente
Poate inteligența artificială să inventeze boli care nu există?
IA nu inventează boli în mod deliberat, dar poate prelua și reproduce informații false care există pe internet. Dacă o boală fictivă este descrisă în suficient de multe surse online, modelele AI o pot prezenta ca reală, fără să avertizeze că informația este nesigură. Acesta este riscul principal identificat de cercetătorii suedezi.
Cum pot verifica dacă un răspuns medical primit de la IA este corect?
Orice informație medicală primită de la un asistent AI trebuie verificată cu un medic sau cu o sursă acreditată, cum ar fi site-urile ministerelor sănătății sau publicații medicale peer-reviewed. IA nu citează întotdeauna surse verificabile, iar fluența răspunsului nu garantează acuratețea lui.
De ce modelele AI nu recunosc că o informație este falsă?
Modelele de limbaj nu au o bază de date separată cu fapte adevărate și false. Ele calculează probabilitatea că un text este plauzibil pe baza tiparelor din datele de antrenament. Dacă dezinformarea apare frecvent în acele date, modelul o tratează ca pe o informație validă, fără un mecanism intern de verificare a realității.
Ce domenii sunt cele mai expuse la dezinformare prin inteligența artificială?
Medicina și sănătatea sunt cele mai sensibile, urmate de nutriție, jurisprudență locală, istorie și politică. Acestea sunt domenii în care internetul conține multe afirmații nefondate, iar modelele AI nu au mijloacele necesare să distingă automat între o sursă medicală acreditată și un articol de blog nerevizuit.
Companiile producătoare de AI iau măsuri împotriva dezinformării?
Companiile precum OpenAI, Google și Anthropic lucrează la sisteme de verificare a surselor, filtre de credibilitate și avertismente pentru conținut sensibil. Unele modele afișează deja mesaje care recomandă consultarea unui specialist. Totuși, aceste măsuri sunt parțiale, iar dezinformarea bine organizată poate depăși filtrele actuale.