Cum Au Fost învățate Rețelele Neuronale Să Falsifice Imaginea De știri - Vedere Alternativă

Cuprins:

Cum Au Fost învățate Rețelele Neuronale Să Falsifice Imaginea De știri - Vedere Alternativă
Cum Au Fost învățate Rețelele Neuronale Să Falsifice Imaginea De știri - Vedere Alternativă

Video: Cum Au Fost învățate Rețelele Neuronale Să Falsifice Imaginea De știri - Vedere Alternativă

Video: Cum Au Fost învățate Rețelele Neuronale Să Falsifice Imaginea De știri - Vedere Alternativă
Video: Cursuri Retele Neuronale: Descriere generala + example 2024, Aprilie
Anonim

Pentru a crea falsuri, se folosesc sisteme și tehnologii de inteligență artificială pentru generarea de falsuri video și audio.

Pentru a crea o imagine de știri „individuală” pentru oricare dintre noi și pentru a falsifica rapoartele media selectate în ea, astăzi eforturile unui programator sunt suficiente. Specialiștii în inteligență artificială și cibersecuritate au declarat pentru Izvestia despre acest lucru. Mai recent, ei au estimat că acest lucru a necesitat munca mai multor echipe. O astfel de accelerare a devenit posibilă odată cu dezvoltarea tehnologiilor pentru atacuri asupra rețelelor neuronale și generarea falsurilor sonore și video, folosind programe pentru crearea de „falsuri profunde”. Ziarul Izvestia a suferit recent un atac similar, când trei portaluri de știri libiene au publicat simultan un mesaj care ar fi apărut într-una dintre probleme. Potrivit experților, în termen de 3-5 ani, se poate aștepta la o invazie de manipulatori robotici, care automat vor putea crea multe falsuri.

Vitează nouă lume

Au existat tot mai multe proiecte care ajustează imaginea informațiilor la percepția utilizatorilor specifici. Un exemplu al activității lor a fost acțiunea recentă a trei portaluri libiene, care au publicat știri tipărite în numărul Izvestia din 20 noiembrie. Creatorii falsului au modificat prima pagină a ziarului, publicând pe acesta un mesaj despre negocierile dintre mareșalul de câmp Khalifa Haftar și prim-ministrul Guvernului Acordului Național (PNS) Fayez Sarraj. Falsul, în fontul Izvestia, a fost însoțit de o fotografie a celor doi lideri făcuți în mai 2017. Eticheta cu logo-ul publicației a fost tăiată din numărul publicat efectiv din 20 noiembrie și din toate celelalte texte din pagină din numărul 23 octombrie.

Din punctul de vedere al specialiștilor, în viitorul previzibil, astfel de falsificări se pot face automat.

Image
Image

„Tehnologiile de inteligență artificială sunt acum complet deschise, iar dispozitivele pentru primirea și procesarea datelor sunt miniaturizante și sunt mai ieftine”, a declarat pentru Izvestia Yuri Vilsiter, doctor în științe fizice și matematice, profesor al Academiei Ruse de Științe, șeful departamentului „GosNIIAS” al FSUE. - Prin urmare, este foarte probabil ca în viitorul apropiat, nici măcar statul și marile corporații, ci pur și simplu persoanele private să poată ascunde și să ne spioneze, precum și să manipuleze realitatea. În următorii ani, va fi posibil, prin analizarea preferințelor utilizatorului, să-l influențeze prin fluxuri de știri și falsuri foarte inteligente.

Video promotional:

Potrivit lui Yuri Vilsiter, există deja tehnologii care pot fi utilizate pentru o astfel de intervenție în mediul mental. În teorie, invazia boturilor manipulatoare poate fi așteptată peste câțiva ani, a spus el. Un moment limitat aici poate fi nevoia de a colecta baze de date mari cu exemple de răspunsuri ale oamenilor reali la stimuli artificiali, cu urmărirea consecințelor pe termen lung. O astfel de urmărire este probabil să necesite încă câțiva ani de cercetare înainte ca atacurile țintite să fie obținute în mod constant.

Atac de viziune

Alexei Parfentiev, șeful departamentului de analiză de la SearchInform, este de acord cu Yuri Vilsiter. Potrivit acestuia, experții prezic deja atacuri asupra rețelelor neuronale, deși acum nu există practic astfel de exemple.

- Cercetătorii de la Gartner consideră că până în 2022, 30% din toate cyberattack-urile vor avea ca scop corupția datelor pe care se antrenează rețeaua neuronală și să fure modele gata de învățare a mașinilor. Apoi, de exemplu, vehiculele fără pilot pot începe brusc să confunde pietonii pentru alte obiecte. Și nu vom vorbi despre riscul financiar sau reputațional, ci despre viața și sănătatea oamenilor obișnuiți, consideră expertul.

În prezent, sunt efectuate atacuri asupra sistemelor de viziune computerizată. Scopul unor astfel de atacuri este de a forța rețeaua neuronală să detecteze în imagine ceea ce nu există. Sau, invers, să nu vezi ce era planificat.

Image
Image

„Unul dintre subiectele care se dezvoltă activ în domeniul pregătirii rețelei neuronale este așa-numitele atacuri adversare („ atacuri adverse”- Izvestia)”, a explicat Vladislav Tușkanov, analist web la Kaspersky Lab. - În cele mai multe cazuri, acestea sunt orientate către sisteme de viziune computerizată. Pentru a efectua un astfel de atac, în cele mai multe cazuri, trebuie să aveți acces complet la rețeaua neuronală (așa-numitele atacuri de cutii albe) sau la rezultatele muncii sale (atacuri cu cutii negre). Nu există metode care să înșele vreun sistem de viziune computerizată în 100% din cazuri. În plus, au fost deja create instrumente care vă permit să testați rețelele neuronale pentru rezistența la atacuri adverse și să le crească rezistența.

În timpul unui astfel de atac, un atacator încearcă să schimbe cumva imaginea recunoscută, astfel încât rețeaua neuronală să nu funcționeze. Adesea, zgomotul este suprapus pe fotografie, similar cu cel care apare la fotografierea într-o cameră slab luminată. De obicei, o persoană nu observă bine o astfel de interferență, dar rețeaua neuronală începe să funcționeze defectuos. Dar pentru a efectua un astfel de atac, atacatorul are nevoie de acces la algoritm.

Potrivit lui Stanislav Ashmanov, directorul general al Neuroset Ashmanov, în prezent nu există metode de abordare a acestei probleme. În plus, această tehnologie este disponibilă oricui: un programator obișnuit îl poate folosi descărcând software-ul necesar de la open source de la serviciul Github.

Image
Image

- Un atac asupra unei rețele neuronale este o tehnică și algoritmi de înșelăciune a unei rețele neuronale, care o fac să producă rezultate false și, de fapt, să o rupă ca o încuietoare a ușii, - crede Ashmanov. - De exemplu, acum este destul de ușor să faceți ca sistemul de recunoaștere a feței să creadă că nu sunteți voi, ci Arnold Schwarzenegger în fața lui - acest lucru se realizează prin amestecarea aditivilor imperceptibili pentru ochiul uman în datele care intră în rețeaua neuronală. Aceleași atacuri sunt posibile pentru sistemele de recunoaștere și analiză a vorbirii.

Expertul este sigur că se va înrăutăți doar - aceste tehnologii s-au deplasat în masă, fraudatorii le folosesc deja și nu există mijloace de protecție împotriva lor. Întrucât nu există nicio protecție împotriva creării automate de falsuri video și audio.

Falsuri profunde

Tehnologiile Deepfake bazate pe Deep Learning (tehnologiile de învățare profundă a rețelelor neuronale. - Izvestia) reprezintă deja o adevărată amenințare. Fake-urile video sau audio sunt create prin editarea sau suprapunerea fețelor unor oameni faimoși care se presupune că pronunță textul necesar și joacă rolul necesar în complot.

„Deepfake vă permite să înlocuiți mișcările buzelor și vorbirea umană cu video, ceea ce creează un sentiment de realism a ceea ce se întâmplă”, spune Andrey Busargin, directorul departamentului pentru protecția inovativă a mărcii și proprietatea intelectuală la Group-IB. - Celebritățile false „oferă” utilizatorilor de pe rețelele de socializare să participe la tragerea de premii valoroase (smartphone-uri, mașini, sume de bani) etc. Linkurile de la astfel de publicații video duc adesea la site-uri frauduloase și de phishing în care utilizatorii sunt rugați să introducă informații personale, inclusiv detalii despre cardul bancar. Astfel de scheme reprezintă o amenințare atât pentru utilizatorii obișnuiți, cât și pentru persoanele publice menționate în reclame. Datorită acestui tip de shenanigans, imaginile cu celebrități sunt asociate cu escrocherii sau bunurile publicitate.iar acesta este locul în care ne confruntăm cu daune personale ale mărcii”, spune el.

Image
Image

O altă amenințare este asociată cu utilizarea „voturilor false” pentru frauda telefonică. De exemplu, în Germania, infractorii cibernetici au folosit deepfake-ul pentru a-l face pe șeful unei filiale din Marea Britanie să transfere urgent 220.000 de euro în contul unui furnizor maghiar, într-o conversație telefonică, pozând ca manager de companie. Șeful firmei britanice a bănuit un truc atunci când „șeful” său a cerut oa doua comandă de bani, dar apelul a venit de la un număr austriac. Până în acest moment, prima tranșă fusese deja transferată într-un cont din Ungaria, de unde banii au fost retrași în Mexic.

Se dovedește că tehnologiile actuale permit crearea unei imagini individuale pline cu știri false. Mai mult, în curând va fi posibilă distingerea falsurilor de video și audio reale numai de hardware. Potrivit experților, este puțin probabil ca măsurile care să interzică dezvoltarea rețelelor neuronale. Prin urmare, în curând vom trăi într-o lume în care va fi necesar să verificăm în permanență totul.

„Trebuie să ne pregătim pentru acest lucru și trebuie să îl acceptăm”, a subliniat Yuri Vilsiter. - Umanitatea nu este prima dată când trece de la o realitate la alta. Lumea, modul de viață și valorile noastre sunt radical diferite de lumea în care strămoșii noștri au trăit în urmă cu 60.000 de ani, cu 5.000 de ani în urmă, cu 2.000 de ani și chiar cu 200-100 de ani în urmă. În viitorul apropiat, o persoană va fi în mare parte lipsită de confidențialitate și, prin urmare, obligată să nu ascundă nimic și să acționeze sincer. În același timp, nimic în realitatea înconjurătoare și în propria personalitate nu poate fi luat pe credință, totul va trebui pus sub semnul întrebării și verificat constant. Dar va fi această realitate viitoare? Nu. Pur și simplu va fi complet diferit.

Anna Urmantseva

Recomandat: