Magazin, ianuarie-iunie 2019 (Anul 62, nr. 1-26)

2019-03-28 / nr. 13

SERIE NOUĂ - 1444 • ANUL LXII • 28 MARTIE 2819 • E-mail: redactia.revistamagazin@yahoo.com • redactia.revistamagazin@gmail.com • redactia@revistamagazin.ro SĂPTĂMÂNAL CULTURAL - ȘTIINȚIFIC INDEPENDENT 5 948427 000157 Nr. 13 (3194)­ ­LOC SA EXISTE O EXI­GENTA JURNALISTICA I în privința știrilor false­­ (fake news) se creează organizații care să preia supra­vegherea știrilor false editate de roboții dotați cu Inteligența Ar­tificială (IA), în cazul în care scandalul explodează, să poată apărea scuza penibilă a respon­sabililor de presă, „nu noi, ci ro­boții nesupravegheați”! Nebunia știrilor false a ex­plodat în momentul în care au fost date în vileag de către actua­lul președinte al SU­A, începând din anul 2016. Până atunci ni­meni nu le pomenea, ele existau strecurate între știrile reale și toată lumea dormea liniștită. Din 2016, dezvăluirile au declanșat dezbateri ample și re­acții chiar dacă la început mai ti­mide, ajungându-se la concluzia că e­ nevoie de reglementări. în mod normal, rezolvarea ar fi urmat să vină de la ziariștii care trebuiau responsabilizați și, mai ales dezvățați de năravul de a fi angajați într-o tabără politi­că sau alta (în SUA sunt două) și a produce știri părtinitoare, de cele mai multe ori false. Numai că a apărut o proble­mă nouă: roboții cu IA care pot redacta știri în mod automat și autonom, adică fără intervenția omului. Astfel s-a putut spune că aceștia, roboții inteligenți, sunt cei care redactează știrile false. Totuși, nu trebuie scăpat din vedere că roboții „mincinoși” sunt proiectați de oameni toc­mai pentru a fi nu doar minci­noși ci și convingători! Noua organizație înființată la San Francisco (SUA), care se numește OpenAI (Inteligența Artificială Deschisă) și este fon­dată de boss-ul companiei Tesla, Elon Musk și Sam Altmann, a pus la punct un sistem artificial de redactare a știrilor convingă­toare. Intr-o declarație recentă, organizația se arată însă îngrijo­rată de modul în care codul pus la punct de ei, botezat GPT-2, „ar putea fi utilizat în mod abu­ziv pentru producția pe scară largă a știrilor false convingă­toare”. Echipa care lucrează la acest proiect „a dezvoltat o modali­tate prin care IA poate continua să redacteze în mod indepen­dent articole utilizând un set de date cuprinzând opt milioane de pagini web plecând de la doar câteva linii de text scrise de om”, transmite Agerpres. E rezolvată problema știrilor false convingătoare scrise de roboți? Nici pe departe, dar sună încurajator. Pentru că, deși rezolvă niște situații impuse de noile tehnolo­gii, sistemul robotizat poate fi utilizat în „scopuri malițioase”, după cum se exprimă eufemistic OpenAI. Cercetătorii au citat printre miile de știri false re­dactate de roboți, cazul știrii ex­trem de convingătoare potrivit căreia „reciclarea este nocivă pentru planetă”. Lumea imaginilor video falsi­oate o situație identică este vala­bilă și în cazul imaginilor (foto­grafice sau video) și a sunetului. Ce este adevărat, nu mai poate fi distins de ceea ce este fals. Aceas­ta este lumea în care trăim de vreo două decenii, de când a abandonat analogicul în schim­bul digitalului (lumii virtuale, artificiale). Și apoi, „costurile generării de conținut fals și a campaniilor de dezinformare” se reduc pe zi ce trece. Sau cum spune OpenAI „așa cum fe­nomenul deepfake necesită mai mult scepticism în privința ima­ginilor, publicul larg va trebui să devină mai sceptic în privința textului găsit online”, a notat OpenAI. Dar cum pot deveni oamenii sceptici în fața asaltului de știri false când ele sunt aproape imposibil de detectat și discer­nământul s-a atrofiat? Asta într-o lume cotropită de știri false și foarte puțin de adevăr. Pentru că minciuna subjugă mentalul în vreme ce adevărul e complet ne­interesant, sau cum spun jurna­liștii exersați în manipulare, „adevărul nu vinde ziarul”. Lumea post-factuală și mai grav este atunci când imaginea falsă este convingă­toare. Și pentru asta tot roboții inteligenți au în zilele noastre un cuvânt din ce în ce mai greu. Pentru că o imagine (video sau fotografică) falsă, cu greu mai poate fi scoasă din capul cuiva. Bibli­otec'fJudețeană MUREȘ ’ Cum să convingi pe cineva care „a văzut la televizor” sau „pe in­ternet” de neadevărul unei știri false? Cercetătorii de la Univer­sitatea Carnegie Mellon din SUA „au demostrat printr-un exercițiu convingător cum o tehnică legată de aceeași IA, nu­mită FakeApp face posibilă transformarea automată a unui clip video real, într-unul fals. Astfel, este posibilă modifi­carea unor discursuri reale ale unui politician într-unele total false, conținând cuvinte pe care persoana nu le-a rostit nicioda­tă! Manipularea funcționează și în cazul unor persoane plasate în situații compromițătoare, în­­tr-un context sexual, de pildă, care n-a existat niciodată, doar pentru a­ fi compromise. Și pro­gramul Face2Face poate face o persoană să apară în timp real, prin intermediul unei camere web, rostind fraze inventate, complet mise. Atunci când jurnalismul fo­losește „imaginile false (deep­fake) acest lucru devine o problemă uriașă, generând „manipulare prin confuzie sau crearea de stări emoționale induse”, transfor­­mându-se într-un atentat la inte­gritatea persoanelor. Cu atât mai mult deepfake-urile vor deveni periculoase, cu cât în viitorul apropiat avansul tehnologic va face aproape imposibilă diferen­țierea între ceea ce este real/ade­­vărat și ceea ce este absolut fals. Albul poate deveni negru și in­vers, în orice moment și în direct! Asta este societatea în care trăim, și care din 2016 are o no­uă etichetă: „societate post-fac­tuală” sau „eră post-adevăr”. Scriam în 2016 că termenul a fost inclus în dicționarul brita­nic Oxford, însemnând „împre­jurările în care faptele obiective au mai puțină influență în mo­delarea opiniei publice decât apelul la emoție și la opiniile personale”. Falsul, emoția dirijată frau­dulos, toate au o influență mai mare decât adevărul într-o so­cietate care este condusă tocmai în această direcție, cu beneficii foarte ușor de ghicit. Sau cum spunea un cunoscut analist american, societatea post-adevăr este o societate „în care opinia publică și media sunt aproape în întregime deco­nectate de la lege și adevăr”. Chiar și celui care ar încerca să se informeze corect și să discearnă între adevăr și fals i-ar fi extrem de greu în încercarea lui, atâta vreme cât informațiile false sunt propagate global prin mass-media, în vreme ce adevă­rul este ascuns sub mii de stra­turi de opinii aiuritoare și nea­devăruri emise cu bună știință. Sigur, există cercetări care atrag atenția că „dezvoltarea sis­temelor IA poate conduce atât la crearea de știri înșelătoare, cât și la asumarea altor identități în mediul online, la publicarea unor mesaje automate abuzive sau false în media de sociali­zare, dar și la crearea automată de conținut spam sau a mesa­jelor tip phishing”. Dar soluțiile reale se pare că sunt greu de găsit. Și apoi, „de ce le-am găsi, când sunt atât de utile pentru cei care le propagă” și aduc rezul­tate atât de spectaculoase tocmai mizând pe ignoranța sau credu­litatea consumatorilor de „știri” de pe planetă. Căci, până la urmă, nu ne mai place adevărul, adorăm nea­devărul frivol. Ignorăm origi­nalul adevărat, de dragul copiei fotografice, și aia falsificată (în Photoshop). Am abandonat îndemnul lui Caragiale, rostit într-una din schițele sale, în care un cetățean, vorbind despre iubita lui spunea „în poză nu e nimic, s-o vezi natur, monșer”... GEORGE CUȘNARENCU 99 A APĂRUT O PROBLEMĂ NOUĂ: ROBOȚII CU IA CARE POT REDACTA ȘTIRI ÎN MOD AUTOMAT­ ȘI AUTONOM, ADICĂ FĂRĂ INTERVENȚIA OMULUI. ASTFEL S A PUTUT SPUNE CĂ ACEȘTIA, ROBOȚII INTELIGENȚI, SUNT CEI CARE REDACTEAZĂ ȘTIRILE FALSE. se scufundă! I TAnau.Mim«?

Next