Explicat: De ce devine din ce în ce mai dificil să detectezi videoclipuri deepfake și care sunt implicațiile?
Pericolul potențial al deepfake-urilor constă în faptul că nivelul de manipulare este atât de perfect încât poate fi aparent imposibil uneori să le distingem de videoclipurile reale. Și cu cât devine mai dificil să detectezi falsitatea, cu atât amenințarea pe care o posedă este mai mare de a se face ca reală și de a provoca ravagii pe care intenționează să-l facă.

Videoclipurile manipulate sau deepfake-urile sunt una dintre armele cheie folosite în bătăliile de propagandă de ceva vreme. Donald Trump batjocorind Belgia pentru că rămâne în acordul climatic de la Paris, David Beckham vorbind fluent în nouă limbi, Mao Zedong cântând „Voi supraviețui” sau Jeff Bezos și Elon Musk într-un episod pilot din Star Trek... toate aceste videoclipuri au devenit virale, deși sunt fals, sau pentru că erau falsuri.
Acest deepfake tulburător de realist îi pune pe Jeff Bezos și Elon Musk într-un episod Star Trek https://t.co/5KxmHpo1WM pic.twitter.com/CpWe91Qil0
— The Verge (@verge) 23 februarie 2020
Anul trecut, Marco Rubio, senatorul republican din Florida, a spus că deepfake-urile sunt la fel de puternice ca și armele nucleare în războaiele într-o democrație. Pe vremuri, dacă voiai să amenințați Statele Unite, aveai nevoie de 10 portavioane, arme nucleare și rachete cu rază lungă de acțiune. Astăzi, ai nevoie doar de acces la sistemul nostru de internet, la sistemul nostru bancar, la rețeaua și infrastructura noastră electrică și, din ce în ce mai mult, tot ce ai nevoie este abilitatea de a produce un videoclip fals foarte realist care ar putea submina alegerile noastre, care ar putea arunca țara noastră. într-o criză uriașă internă și ne slăbesc profund, Forbes l-a citat spunând.
Pericolul potențial al deepfake-urilor constă în faptul că nivelul de manipulare este atât de perfect încât poate fi aparent imposibil uneori să le distingem de videoclipurile reale. Și cu cât devine mai dificil să detectezi falsitatea, cu atât amenințarea pe care o posedă este mai mare de a se face ca reală și de a provoca ravagii pe care intenționează să-l facă. Dar cu instrumente mai sofisticate alimentate de inteligența artificială disponibile acum pentru a produce aceste videoclipuri, devine din ce în ce mai dificil să detectezi deepfake-urile?
Ce sunt deepfake-urile și cum sunt ele create?
Deepfake-urile constituie conținut fals – adesea sub formă de videoclipuri, dar și alte formate media, cum ar fi imagini sau audio – creat folosind instrumente puternice de inteligență artificială. Se numesc deepfakes deoarece folosesc tehnologia de deep learning, o ramură a învățării automate care aplică simularea rețelei neuronale la seturi masive de date, pentru a crea conținut fals.
ramură de stâncă valoare netă
Utilizează o ramură a inteligenței artificiale în care, dacă un computer este alimentat cu suficiente date, poate genera falsuri care se comportă mult ca o persoană reală. De exemplu, AI poate afla cum arată o față sursă și apoi o poate transpune pe o altă țintă pentru a efectua o schimbare a feței.
Aplicarea unei tehnologii numite Generative Adversarial Networks (GAN), care utilizează doi algoritmi AI – în care unul generează conținutul fals, iar celălalt evaluează eforturile, învățând sistemul să fie mai bun – a ajutat la crearea unor deepfake-uri mai precise.
GAN poate veni și cu imagini generate de computer cu ființe umane false, care au fost folosite de un site web numit „Această persoană nu există”. Acest lucru face practic imposibil să detectăm dacă videoclipurile sau imaginile pe care le vedem pe Internet sunt reale sau false.
Deepfake-urile pot fi foarte greu de detectat. De exemplu, mulți oameni s-au îndrăgostit de videoclipurile Tiktok cu Tom Cruise jucând golf, care ulterior s-au dezvăluit a fi deepfake.
Devine din ce în ce mai dificil să detectezi deepfake-urile?
O lucrare prezentată la Conferința de iarnă privind aplicațiile Computer Vision 2021 descrie o nouă tehnică care face deepfakes-urile mai sigure, făcând dificilă detectarea lor de către instrumentele tradiționale.
Studiul, condus de Paarth Neekhara și Shehzeen Samarah Hussain, ambii doctoranzi la Universitatea din California, San Diego, a constatat că instrumentele de detectare pot fi înșelate inserând intrări ușor manipulate numite exemple adverse în fiecare cadru video.

Metodele actuale de ultimă generație pentru detectarea deepfake pot fi ocolite cu ușurință dacă adversarul are cunoștințe complete sau chiar parțiale despre detector, arată lucrarea intitulată „Adversarial Deepfakes: Evaluating Vulnerability of Deepfake Detectors to Adversarial Examples”.
Vorbind pentru indianexpress.com, Neekhara și Hussain au spus că metodele standard de detectare pot fi departe de a fi sigure, deoarece nu sunt garantate să detecteze videoclipuri deepfake mai recente sintetizate folosind noi tehnici care nu sunt în setul de date și sunt vulnerabile la intrările adverse.
ALĂTURĂ-TE ACUM :Canalul Telegram Explained ExpressIntrările adverse sunt intrări ușor modificate, astfel încât rețelele neuronale profunde să facă o greșeală. Rețelele neuronale profunde s-au dovedit a fi vulnerabile la astfel de intrări care pot determina modificarea ieșirii clasificatorului. În munca noastră, arătăm că un atacator poate modifica ușor fiecare cadru al unui videoclip deepfake, astfel încât să ocolească un detector de deepfake și să fie clasificat ca fiind real, au spus ei.
corb goodwin valoare netă

Ei au adăugat: Atacatorul poate crea o mică perturbare adversară imperceptibilă pentru fiecare cadru al unui videoclip deepfake, să o adauge pe cadru și apoi să combine toate cadrele video împreună pentru a face videoclipul advers. În experimentele noastre folosind aceste tehnici, am reușit să obținem o rată de succes (de a păcăli detectorul) mai mare de 90%.
Care sunt amenințările prezentate de videoclipurile deepfake?
Odată cu proliferarea videoclipurilor deepfake, există o preocupare tot mai mare că acestea vor fi armate pentru a desfășura campanii politice și pot fi exploatate de regimurile autoritare.
În 2019, o organizație de cercetare numită Future Advocacy și artistul britanic Bill Posters au creat un videoclip cu premierul britanic Boris Johnson și liderul Partidului Laburist, Jeremy Corbyn, susținându-se reciproc pentru postul de prim-ministru. Grupul a spus că videoclipul a fost creat pentru a arăta potențialul deepfake-urilor de a submina democrația.
De asemenea, anul trecut, înainte de voturile Adunării din Delhi, videoclipurile cu președintele BJP din Delhi, Manoj Tiwari, vorbind în engleză și cu Haryanvi, au devenit virale. În aceste videoclipuri, Tiwari a fost văzut criticând Arvind Kejriwal și cerând oamenilor să voteze pentru BJP. Videoclipurile, care au fost distribuite în peste 5.000 de grupuri WhatsApp, s-au dezvăluit ulterior a fi deepfake, a raportat compania de media digitală Vice.
Deepfake-urile sunt, de asemenea, un motiv de îngrijorare într-un moment în care OMS a declarat că criza Covid-19 a declanșat o infodemie și au existat încercări deliberate de a disemina informații greșite pentru a submina răspunsul de sănătate publică și pentru a promova agende alternative ale grupurilor sau indivizilor.
În plus, videoclipurile manipulate – care includ manipularea conținutului prin folosirea unei ștampile sau locații incorecte, tăierea conținutului pentru a schimba contextul, omisiune, îmbinare și fabricare – sunt din ce în ce mai folosite în zilele noastre pe rețelele sociale pentru a denatura în mod deliberat faptele în scopuri politice. Cele mai multe dintre aceste videoclipuri nu sunt exemple de deepfake-uri, dar arată cât de ușor poate fi să ofuscați faptele și să răspândiți minciuni bazate pe conținut manipulat mascalat ca dovezi concrete.
Wombo AI este sălbatic pic.twitter.com/YIaFcRreGG
- Jack Posobiec (@JackPosobiec) 10 martie 2021
Cealaltă mare îngrijorare a videoclipurilor deepfake este generarea de conținut pornografic neconsensual. În 2017, un utilizator a implementat un algoritm de schimbare a feței pentru a crea videoclipuri pornografice deepfake ale celebrităților precum Scarlett Johansson, Gal Gadot, Kristen Bell și Michelle Obama și le-a distribuit pe o amenințare Reddit numită r/deepfake. Contul avea aproape 90.000 de abonați până când a fost eliminat, în februarie anul viitor.
Dintre miile de videoclipuri deepfake de pe internet, peste 90% sunt pornografii neconsensuale. Unul dintre cele mai îngrozitoare experimente cu inteligența artificială de anul trecut a fost o aplicație numită DeepNude, care a dezbrăcat fotografiile femeilor – putea să facă fotografii și apoi să schimbe hainele femeilor cu corpuri nude extrem de realiste. Aplicația a fost eliminată după o reacție puternică.
De asemenea, așa cum este raportat pe scară largă, videoclipurile deepfake sunt din ce în ce mai folosite pentru a genera porno răzbunare de către iubitorii disprețuiți pentru a hărțui femeile.
Amenințarea reprezentată de videoclipurile Deepfake este deja evidentă, au declarat Neekhara și Hussain pentru indianexpress.com. Există utilizatori rău intenționați care folosesc astfel de videoclipuri pentru a defăima personalități celebre, a răspândi dezinformarea, a influența alegerile și a polariza oamenii. Cu tehnici de sinteză video deepfake mai convingătoare și mai accesibile, această amenințare a devenit și mai mare ca magnitudine, au adăugat ei.
Există o represiune în curs?
Majoritatea companiilor de social media, cum ar fi Facebook și Twitter, au interzis videoclipurile deepfake. Ei au spus că de îndată ce detectează orice videoclip ca deepfake, acesta va fi eliminat.
ce s-a întâmplat cu furtuna Heather
Facebook a recrutat cercetători de la Berkeley, Oxford și alte instituții pentru a construi un detector de deepfake. În 2019, a organizat o provocare Deepfake Detection, în parteneriat cu lideri din industrie și experți academicieni, în timpul căreia a fost creat și partajat un set de date unic format din peste 100.000 de videoclipuri.
Cu toate acestea, nu toate deepfake-urile pot fi detectate cu acuratețe și, de asemenea, poate dura mult timp pentru ca acestea să fie găsite și demontate. Mai mult, multe site-uri pornografice nu exercită același nivel de restricții.
Neekhara și Hussain au spus: „Pentru a detecta cu mai multă acuratețe videoclipurile deepfake, avem nevoie de modele robuste, încorporând un atacator în timp ce antrenăm astfel de modele de detecție deepfake. O soluție pe termen lung este marcarea sau semnarea digitală a imaginilor și videoclipurilor de pe dispozitivul pe care sunt capturate. Filigranul sau semnătura digitală ar trebui să fie perturbate dacă sunt aplicate tehnici de deepfake precum schimburile de fețe. Un detector de deepfake poate verifica apoi doar semnătura sau filigranul. Cu toate acestea, acest lucru ar necesita stabilirea unui standard de filigranare pentru toate camerele și telefoanele mobile. Prin urmare, poate trece ceva timp până când acest lucru devine realitate.
Imparte Cu Prietenii Tai: