Analiză Politico: Se apropie sfârșitul adevărului fotografic

Ambele le arătau pe cele două femei în interiorul unei dube de poliție, printre ofițeri și alți membri ai echipei lor. Însă în una dintre ele păreau posomorâte. În cealaltă, radiau de bucurie, ca și cum arestarea nu ar fi fost decât o șaradă.
Ore întregi, imaginea cu luptătoarele zâmbitoare a făcut turul rețelelor de socializare, repostată de susținătorii președintelui federației, chiar dacă jurnaliștii, verificatorii de fapte și cele două femei au ironizat-o ca fiind falsă. Abia mult mai târziu, o analiză care a comparat zâmbetele lor cu fotografii anterioare a dovedit că acestea nu erau autentice. Acestea fuseseră adăugate ulterior, cel mai probabil cu ajutorul unui software gratuit, de serie, precum FaceApp, care folosește inteligența artificială pentru a manipula digital imaginile.
Povești ca aceasta indică un viitor care se apropie cu pași repezi și în care nimic nu mai este așa cum pare. Imaginile, înregistrările video și audio generate de inteligența artificială sunt deja folosite în campaniile electorale. Printre acestea se numără imagini false în care fostul președinte american Donald Trump îl îmbrățișează și îl sărută pe Anthony Fauci; un videoclip din Polonia amestecă imagini reale ale premierului Mateusz Morawiecki cu clipuri generate de AI ale vocii sale; iar într-o „înregistrare” deepfake liderul Partidului Laburist britanic, Keir Starmer, care face o criză de nervi.
Deși toate acestea au fost rapid dezmințite, nu vor fi ultimele, iar cele care vor urma vor fi din ce în ce mai greu de identificat. Pe măsură ce instrumentele de inteligență artificială se îmbunătățesc, realul va deveni imposibil de distins de fictiv, alimentând dezinformarea politică și subminând eforturile de autentificare ale realității, de la gafele de campanie la crimele de război. Expresia „dovezi fotografice” riscă să devină o relicvă a unei epoci străvechi.
Potopul care stă să vină
Într-o anumită măsură, riscul reprezentat de IA nu este nimic nou. Imaginile manipulate sunt la fel de vechi ca însăși istoria fotografiei. Primul fals datează din 1840: Hippolyte Bayard a fost un meșteșugar francez care a pretins, cu un oarecare merit, că a inventat fotografia.
Printre alte fraude pre-digitale se numără fotografiile din 1917 ale unor zâne mici cu aripi, care l-au păcălit pe creatorul lui Sherlock Holmes, Arthur Conan Doyle, precum și tendința dictatorului sovietic Iosif Stalin de a face să dispară oficialii dezonorați din fotografiile alb-negru.
Mai recent, instrumente precum Adobe Photoshop – un software atât de omniprezent încât a devenit un verb – și filtrele de pe aplicațiile de socializare au democratizat înșelătoria vizuală. Ceea ce face IA este să ducă acest lucru la un alt nivel.
Generatoare de imagini precum Midjourney, DALL-E 3 și Stable Diffusion aduc trei lucruri noi. Accesibilitate: nu vă mai bateți capul să învățați Photoshop, scrieți câteva rânduri și așteptați zece secunde. Calitate: inteligența artificială creează deja imagini convingătoare ale unor subiecte neverosimile, iar acest lucru va deveni din ce în ce mai bun. Anvergură: pregătiți-vă pentru avalanșe de imagini false produse la scară industrială.
Experții în dezinformare sunt, în mare parte, relaxați în ceea ce privește riscul ca imaginile de inteligență artificială să păcălească o mare parte a publicului. Desigur, mulți au fost păcăliți de o poză cu Papa într-o jachetă albă pufoasă sau de o fotografie neclară a unui Julian Assange bărbos în celula sa din închisoare, dar acestea au fost imagini cu miză redusă. Un tweet din luna mai cu un fum negru care se ridica din Pentagon a devenit pentru scurt timp viral, dar a fost rapid dezmințit.
„Inteligența artificială reduce drastic barierele și permite utilizarea înșelăciunii în moduri mai creative și mai convingătoare. Dar rezultatul este doar un spam”, a declarat Carl Miller, cercetător la Centrul pentru analiza mediilor sociale din cadrul grupului de reflecție britanic Demos. „Există deja un nivel ridicat de scepticism în rândul publicului în ceea ce privește imaginile cutremurătoare care au venit din locuri de neîncredere sau necunoscute.”
Dividendul mincinosului
Adevăratul pericol ar putea fi reversul problemei: un public din ce în ce mai antrenat să nu aibă încredere în proprii ochi. Acele imagini din martie în care fostul președinte american Donald Trump era arestat erau în mod clar false. Dar cum rămâne cu acele fotografii cu liderul mercenar rus Evgheni Prigojin purtând o serie de peruci scandaloase și bărbi false?
„Există atât de multe relatări în jurul știrilor false și în jurul inteligenței artificiale, încât se creează această atmosferă în care legitimitatea multor lucruri poate fi pusă la îndoială”, a declarat Benjamin Strick, director de investigații la organizația nonprofit Centre for Information Resilience. „Mai ales în statele dictatoriale, acolo le place să spună că orice fapt incomod este doar o minciună sau «propagandă occidentală».”
Fenomenul s-a manifestat în iunie, când conturile de socializare pro-Kremlin care au promovat o poveste falsă conform căreia șeful serviciilor de informații militare ucrainene Kirilo Budanov ar fi murit. Odată cu izbucnirea unui război în toată regula între Israel și Hamas, pregătiți-vă pentru forme din ce în ce mai insidioase de dezinformare.
Scenariul de coșmar al lui Strick este o lume în care tiranii și oamenii puternici folosesc ca armă ceea ce el numește „dividendul mincinosului”. Termenul, inventat într-o lucrare din 2018 de către academicienii americani Robert Chesney și Danielle Citron, desemnează strategia de a respinge orice dovadă vizuală a încălcării drepturilor omului sau a crimelor de război ca fiind falsă. „Dictatorii pot să intervină și să declare că totul este o minciună fabricată de IA”, a spus Strick.
Pentru a aborda unele dintre problemele cauzate de imaginile generate de IA, companiile, inclusiv Intel și OpenAI, creatorul lui DALL-E 3 și ChatGPT, au construit instrumente bazate pe IA pentru a detecta mediile create de AI. Unii dezvoltatori au început să își îmbrace imaginile cu filigran – ascuns sau evident – care să le identifice ca fiind sintetice. Dar detectoarele sunt imperfecte și, având în vedere ritmul actual de inovare, eforturile de îmbunătățire a acestora vor semăna probabil cu un joc nesfârșit de-a șoarecele și pisica.
De asemenea, corporațiile tehnologice și organizațiile media și-au unit forțele prin inițiative precum Coaliția pentru proveniența și autenticitatea conținutului (C2PA), în cadrul căreia organizații precum Microsoft, Adobe, BBC și New York Times încearcă să găsească modalități de etichetare a imaginilor autentice cu informații criptate, inclusiv istoricul, paternitatea și orice modificări care ar fi putut fi aduse acestora.
„Ne-am pus întrebarea: «Putem avea tehnologii care să ia fiecare foton capturat de o cameră și să se asigure că se aliniază cu ceea ce este afișat consumatorilor – și să capteze orice modificări care au fost făcute pe parcurs?»”, a declarat Eric Horvitz, directorul științific al Microsoft, care supervizează Project Origin, unul dintre partenerii din coaliție.
Potrivit unui raport recent al Royal Society, academia de știință din Marea Britanie, riscul este acela că adoptarea acestor sisteme de către instituții media de renume ar fi interpretată ca fiind crearea unor „carteluri ale cunoașterii” care pretind un monopol asupra adevărului – o evoluție care în mediul politic polarizat de astăzi se va întoarce împotriva noastră.
„Nu pot vedea o lume în care să ne întoarcem cu toții la a avea încredere în BBC”, a declarat Carl Miller. „Cel mai probabil, vom obține doar o serie balcanizată de adevăruri”.
Adevărul de bază
Horvitz speră că instrumentele de autentificare vor deveni disponibile „chiar și pentru grupuri mai mici sau pentru cei care fac podcasting singuri”, pe măsură ce companiile de tehnologie și de fotografie le vor integra în programele și dispozitivele lor. Dar va fi nevoie de timp pentru ca acest lucru să se întâmple și chiar și atunci s-ar putea să nu fie disponibil pentru toată lumea.
În 2018, BBC a folosit videoclipuri care circulau pe Twitter pentru a-i identifica pe soldații care au comis uciderea extrajudiciară a patru persoane în Camerun. Mai recent, o mare parte din reportajele de prim-plan din războiul din Ucraina se bazează pe un rezervor adânc de imagini și videoclipuri postate online de toată lumea, de la adolescenți ucraineni la mercenari ruși. Chiar dacă autorii lor ar avea acces la un software de autentificare de ultimă generație, ar fi dispuși să riște să își atașeze identitatea la dovezile de încălcare a drepturilor omului sau de crime de război? (C2PA dezvoltă o autentificare anonimă, dar acest lucru ar putea deschide o altă cutie a Pandorei).
Având în vedere abundența imaginilor IA, viitorul probelor, a spus Strick, este posibil să fie din ce în ce mai puțin digital, cu materiale online care au nevoie de confirmare în realitatea terenului. „Este vorba, de fapt, de a readuce jurnalismul la rădăcinile sale”, a spus el.
Între timp, există semne că erodarea încrederii ar putea fi deja în curs de desfășurare. Greg Foster-Rice, profesor asociat de fotografie la Columbia College Chicago și membru al grupului de lucru pentru inteligență artificială al universității sale, a observat în ultimele câteva luni ceva neașteptat în rândul studenților săi din Generația Z.
Fotografia digitală este demodată; filmul, camerele întunecate și fotografiile alb-negru sunt acum la modă. „Studenții noștri se întorc la practicile analogice”, a declarat Foster-Rice. „Poate pentru că au sentimentul că sunt mai autentice în ceea ce privește relația cu realul.”