Deepfake-ul în campania electorală. Cum ne păcălește inteligența artificială

673
2

Articole de la același autor

Deepfake-ul reprezintă o tehnică de manipulare a imaginilor sau videoclipurilor cu ajutorul inteligenței artificiale (IA), cu scopul de a crea iluzia că o persoană spune sau face ceva ce nu s-a întâmplat în realitate, cel puțin în contextul prezentat.

În campaniile electorale, politicienii riscă să devină victime ale acestei tehnici de înșelătorie, fiindu-le pusă în pericol reputația prin intermediul videoclipurilor falsificate de IA, care pot schimba părerea publică și, în consecință, șansele de a câștiga alegerile.

De asemenea, poate fi tentant pentru partide să își atace rivalii politici publicând materiale Deepfake menite să îi denigreze pe aceștia, însă această abordare provoacă doar pierderea încrederii publicului în sistemul politic.



Într-un ghid publicat de Directoratul Național de Securitate Cibernetică (DNSC) sunt prezentate mai multe tehnici de Deepfake utilizate pentru a influența campaniile electorale: falsificarea video realistă, clonarea vocii, falsuri audio, generarea de text sintetic, schimbarea fețelor și predicția comportamentală.

Din cauza evoluției constante a tehnologiei, este din ce în ce mai greu să nu fim păcăliți de produsele IA, prin identificarea materialelor falsificate. Totuși, în ceea ce privește videoclipurile Deepfake, există câteva detalii care le trădează.

Identificarea videoclipurile false

Chiar dacă videoclipurile Deepfake se apropie foarte mult de realitate, ele încă nu sunt perfecte, iar dacă știm unde să ne uităm, le putem identifica.

Potrivit DNSC, unul dintre detaliile la care trebuie să fim atenți este mediul înconjurător, mai exact lipsa umbrelor, reflexii prea puternice sau zone neclare. De asemenea, în cazul videoclipurilor false, la nivelul feței se pot observa alunițe nerealiste, clipiri nesincronizate, dar și lipsa dinților sau a limbii. Și textura pielii poate fi un indice al manipulării videoclipului, IA având tendința de a netezi texturile.

În prezent, tehnologia evoluează în două direcții diferite. Pe o parte este perfecționarea Deepfake-ului, iar pe cealaltă parte sunt programele de identificare a videoclipurilor falsificate.



Aceste programe analizează mai multe erori pe care oamenii nu le pot identifica. De exemplu, ele examinează consistența respirației și a pulsului, prin analiza variațiilor minore în culoarea feței sau a umbrelor.

„Evitarea înșelăciunii prin Deepfake necesită o combinație de scepticism sănătos, atenție la detalii și utilizarea unor instrumente de verificare”, susține DNSC.

Specialiștii ne recomandă să fim sceptici și să analizăm cu atenție orice conținut video sau foto înainte de a-l accepta ca fiind real.

De asemenea, trebuie să fim atenți la sursele care au distribuit materialele respective și platformele pe care au fost încărcate. În cazul în care sursa nu inspiră încredere, putem căuta confirmarea informației, de exemplu, direct de la persoanele sau entitățile implicate.




Parlamentul European a adoptat Regulamentul COM/2021/206 despre protejarea drepturilor fundamentale, democrației, statului de drept și sustenabilității mediului, care abordează și problema videoclipurilor falsificate de IA.

Astfel, au fost interzise Deepfake-urile cu risc ridicat, care pun în pericol sau denigrează o persoană sau un grup de persoane, iar cele cu risc minim nu sunt supuse unor restricții specifice.

Furnizorii de Deepfake-uri trebuie să se asigure că persoanele care consumă materialele știu că se află în fața unui fals, iar platformele online trebuie să ia măsuri pentru a preveni răspândirea Deepfake-urilor dăunătoare.



Comentează știrea

"Cum ne păcălește inteligența artificială ?"
7 iunie

AI-ul e pacalitoarea ? E doar un instrument de lucru utilizat si la pacalitoare ! Ai infractorul sau grupul care foloseste AI-ul in scop ilicit. E victima, care poate cu ceva credulism, poate fara notiuni de baza pur tehnice, poate graba ... sau poate e un fals super elaborat ! Asta e mediul de azi, incerci cit poti sa te adaptezi si pe falsuri super elaborate cu organele competente [ Politia, ca tot cu ei pe toata categoria de falsuri, dar era ideea ca poate pici pe pacalitoare pe cele super-elaborate : retele organizate de infractori si cu super-haceri ] ... Fara relevanta definitia pacalitorii, in sensul ca pt. un spectru larg de infractiuni poate fi folosit si AI-ul ! [ infractor, cu asta se ocupa de la mar ca de acolo si intelectuatiunea si ispita ]

[ Terminator ] x [ John Connor ]
7 iunie

asta inseamna : "ne păcălește inteligența artificială" , adica actiunea e "initiata" de AI, nu de infractor-uman ! Ghici, cine cistiga ?

Pagina a fost generata in 0.2291 secunde