Chatboții AI și distorsionarea realității: un pericol pentru informare
Într-o epocă în care inteligența artificială promite să revoluționeze accesul la informație, realitatea arată o fațetă mult mai întunecată a acestor tehnologii. Un raport recent al BBC scoate la lumină deficiențe majore în răspunsurile generate de principalii asistenți AI, precum ChatGPT, Copilot, Gemini și Perplexity. Studiul relevă că mai mult de jumătate dintre răspunsurile oferite de aceste platforme conțin „probleme semnificative”, inclusiv erori factuale și distorsiuni grave.
Erori factuale: un fenomen alarmant
Un aspect îngrijorător evidențiat de cercetători este rata ridicată a inexactităților. Aproximativ 20% dintre răspunsuri includ erori factuale, iar 13% dintre citatele atribuite BBC au fost fie modificate, fie inexistente în sursele originale. Exemplele sunt șocante: Gemini a omis condamnările clare ale asistentei neonatale Lucy Letby, în timp ce Copilot a fabricat detalii despre un caz de viol în Franța. Mai mult, ChatGPT a susținut în mod fals că Rishi Sunak și Nicola Sturgeon erau încă în funcție, ignorând realitatea politică actuală.
Impactul asupra încrederii publicului
Aceste erori nu sunt doar simple greșeli tehnice; ele subminează încrederea publicului în fapte și în sursele de informare. Deborah Turness, director executiv al BBC pentru știri, a avertizat că „instrumentele AI se joacă cu focul”, punând în pericol integritatea informațiilor. Ea a subliniat necesitatea unor parteneriate între companiile media și dezvoltatorii de AI pentru a preveni astfel de denaturări.
Confuzie între fapte și opinii
Un alt punct critic este confuzia frecventă între faptele obiective și opiniile subiective. De exemplu, Gemini a răspuns la o întrebare despre NHS cu informații eronate, iar Perplexity a citat greșit declarații ale unor personalități publice. Aceste greșeli demonstrează incapacitatea acestor instrumente de a distinge între surse actualizate și materiale de arhivă, amplificând riscul de dezinformare.
Responsabilitatea companiilor de AI
Peter Archer, directorul programului BBC pentru AI generativă, a subliniat că dimensiunea reală a acestor erori este încă necunoscută. El a cerut o mai mare transparență din partea companiilor de AI, insistând că editorii ar trebui să aibă control asupra utilizării conținutului lor. Fără o reglementare adecvată, publicul riscă să fie expus unui flux constant de informații distorsionate.
Concluzii preliminare
Deși inteligența artificială are potențialul de a îmbunătăți accesul la informație, utilizarea sa necontrolată și lipsa de acuratețe ridică semne serioase de întrebare. Este esențial ca dezvoltatorii să colaboreze cu instituțiile media pentru a asigura corectitudinea și integritatea răspunsurilor generate. În absența unor măsuri concrete, aceste instrumente riscă să devină mai degrabă o sursă de confuzie decât un sprijin pentru informare.