Ce Pericole Ale Rețelelor Neuronale Subestimăm? - Vedere Alternativă

Cuprins:

Ce Pericole Ale Rețelelor Neuronale Subestimăm? - Vedere Alternativă
Ce Pericole Ale Rețelelor Neuronale Subestimăm? - Vedere Alternativă

Video: Ce Pericole Ale Rețelelor Neuronale Subestimăm? - Vedere Alternativă

Video: Ce Pericole Ale Rețelelor Neuronale Subestimăm? - Vedere Alternativă
Video: Cursuri Retele Neuronale: Descriere generala + example 2024, Mai
Anonim

Ați întâlnit vreodată o persoană pe stradă care ar fi una la una ca tine? Hainele, chipul, mersul, modul de comunicare, obiceiurile sunt complet identice cu ale tale. Este ca și cum ai fi scanat și tipărit pe o imprimantă. Pare puțin înfiorător, nu-i așa? Acum imaginați-vă că ați văzut un videoclip în care o astfel de persoană spune ceva despre sine. În cel mai bun caz, veți încerca să vă amintiți când ați mers în așa fel încât să nu vă amintiți nimic, dar puteți spune acest lucru pe cameră. În timp ce toate acestea sună ca un simplu raționament, dar tehnologia este deja foarte aproape de a crea astfel de oameni. Ele există deja, dar în curând vor fi multe altele.

De unde provine falsul?

Acum există deja prea multe lucruri care se numesc în mod uzual falsuri. Sunt peste tot. Pot fi găsite în fotografii, în știri, în producția de bunuri și în servicii de informații. Este mai ușor să spui unde nu există fenomene însoțite de acest cuvânt. În timp ce îi poți lupta. Puteți studia originea fotografiei, puteți verifica caracteristicile distinctive ale unui produs de marcă dintr-un fals și verificați dublu noutățile. Deși, știrile sunt un subiect separat.

În zilele noastre, un consumator de conținut nu vrea să aștepte și necesită producție instantanee de la creatorul său, uneori nici măcar nu-i pasă de calitate, principalul lucru este să facă rapid. Aici apar situații când cineva a spus ceva, iar ceilalți, fără a-l verifica, au luat-o de pe site-urile și ziarele sale. În unele cazuri, este nevoie de mult timp pentru a învârti această minge înapoi și a dovedi că totul a fost greșit.

Nu are rost să explicăm de ce se face asta. Pe de o parte, există cei care vor doar să râdă de situație, pe de altă parte, cei care nu știau că au greșit. Un loc separat, aproximativ la mijloc, este ocupat de cei pentru care este trist să profite. Acestea pot fi interese de influență la diferite niveluri, inclusiv cel politic. Uneori acesta este scopul de a face profit. De exemplu, semănatul de panică pe piața bursieră și efectuarea de tranzacții profitabile cu valori mobiliare. Dar de multe ori acest lucru se datorează ostilității față de o persoană (companie, produs etc.) pentru a-l diminua. Un exemplu simplu este „renunțarea” la evaluările unui film sau instituție care nu este de dorit cuiva. Desigur, acest lucru necesită o armată a celor care vor merge și îi vor displace (uneori chiar și roboți), dar asta este o altă poveste.

Ce este învățarea profundă?

Video promotional:

Recent, acest termen sună din ce în ce mai des. Uneori, nici măcar nu are legătură cu cazul și este confundat cu altceva. Deci produsul software pare mai impresionant.

Nu credeți că conceptul și principiile de bază ale învățării automate au apărut abia acum câțiva ani. De fapt, au atâția ani, încât mulți dintre noi nici nu ne-am născut atunci. Principiile de bază ale sistemelor de învățare profundă și modelele matematice pentru munca lor au fost cunoscute încă din anii 80 ai secolului trecut.

La vremea respectivă, nu aveau atât de mult sens din cauza lipsei unei componente importante. Era o putere mare de calcul. Abia la mijlocul anilor 2000, au apărut sisteme care pot ajuta la funcționarea în această direcție și permit calcularea tuturor informațiilor necesare. Acum mașinile au evoluat și mai mult, iar unele sisteme de viziune a mașinii, percepția vocii, iar unele altele funcționează atât de eficient încât uneori chiar depășesc capacitățile unei persoane. Cu toate că, încă nu sunt „închiși” în direcții responsabile, făcându-le un plus la capacitățile umane, menținând în același timp controlul asupra lor.

Image
Image

Ce este Deepfake? Când a apărut Deepfake?

Este ușor de ghicit că Deepfake este o mică joacă asupra cuvintelor asociate cu Deep Learning și asupra falsurilor despre care am vorbit mai sus. Adică Deepfake ar trebui să ducă falsul la un nou nivel și să descarce o persoană în această afacere dificilă, permițându-le să creeze conținut fals fără a irosi energie.

În primul rând, astfel de falsuri vizează videoclipuri. Adică orice persoană poate sta în fața camerei, să spună ceva, iar fața lui va fi înlocuită cu o altă persoană. Pare înfricoșător, deoarece, de fapt, trebuie doar să prinzi mișcările de bază ale unei persoane și va fi pur și simplu imposibil să distingi un fals. Să vedem cum a început totul.

Prima rețea adversativă generativă a fost creată de un student la Universitatea Stanford. S-a întâmplat în 2014, iar numele studentului a fost Ian Goodfellow. De fapt, el și-a pus două rețele neuronale între ele, una dintre ele fiind implicată în generarea fețelor umane, iar a doua le-a analizat și a vorbit în mod similar sau nu. Așa că s-au învățat reciproc și într-o zi a doua rețea neuronală a început să se confunde și să ia imaginile generate în mod real. Acest sistem este tot mai complex care dă naștere Deepfake.

Acum unul dintre principalii promotori ai ideii Deepfake este Hao Li. El nu numai asta, ci și mulți alții. Pentru aceasta, i s-au acordat în mod repetat diverse premii, inclusiv cele neoficiale. Apropo, el este unul dintre cei care ar trebui să fie mulțumit pentru apariția animoji în iPhone X. Dacă sunteți interesat, vă puteți familiariza cu acesta mai detaliat pe site-ul său. Astăzi nu este principalul subiect de discuție.

Ne-am amintit doar de el, deoarece la Forumul Economic Mondial din Davos și-a arătat aplicația, ceea ce vă va permite să înlocuiți chipul unei persoane care stă în fața camerei cu orice altă față. În special, el a arătat cum funcționează sistemul pe exemplul fețelor lui Leonardo DiCaprio, Will Smith și alți oameni faimoși.

Pare puțin înfiorător. Pe de o parte, puteți admira doar tehnologiile moderne care vă permit să scanați o față, să o schimbați în alta din mers și să produceți o nouă imagine. Toate acestea durează o secundă și sistemul nici nu încetinește. Adică permite nu numai procesarea videoclipului finalizat și înlocuirea feței, dar și participarea la un astfel de personaj la un fel de comunicare video live.

Pericol de adâncime. Cum pot schimba fața la un videoclip?

Puteți vorbi atât cât doriți că este nevoie de această tehnologie, este foarte faină și nu trebuie să calomniști. Puteți chiar să mergeți la extremă și să începeți să spuneți că aceasta este poziția unui bătrân aprig care se teme pur și simplu de tot ce este nou, dar există cu adevărat mai multe pericole decât beneficii.

Cu o astfel de tehnologie, mai ales dacă este open source, oricine va putea naviga și înregistra orice videoclip. Nu este rău dacă defăimă doar onoarea și demnitatea cuiva, cu atât mai rău dacă este o declarație făcută în numele unei persoane importante. De exemplu, înregistrând un videoclip cu o durată de doar 30-40 de secunde în numele Tim Cook, puteți reduce aproape întreaga sferă IT din SUA, condusă de Apple. Piața bursieră va fi atinsă atât de tare încât va semeni panică printre investitori. Drept urmare, mii de oameni vor pierde miliarde de dolari.

Oricine nu-i place acest mod de a câștiga bani va spune că asta este ceea ce le trebuie, să le dea drumul la uzină. Însă în cel mai trist scenariu, nu va exista nicio plantă după aceasta. În plus, este încântător că obținem o persoană care înșală fluctuațiile valorii valorilor mobiliare. Este suficient doar să le cumpărați și să le vindeți la timp.

Situația ar putea fi și mai gravă dacă „gluma” vorbește în numele liderului unui stat mare. Desigur, atunci totul va fi dezvăluit, dar în acest timp puteți face o mulțime de lucruri neplăcute. În acest context, pur și simplu înlocuirea feței unei celebrități pentru un actor dintr-un film pentru adulți ar fi o farsă nevinovată.

Cu astfel de tehnologii, principalul lucru este să scanați, iar apoi este o problemă de tehnologie. În cel mai adevărat sens al cuvântului
Cu astfel de tehnologii, principalul lucru este să scanați, iar apoi este o problemă de tehnologie. În cel mai adevărat sens al cuvântului

Cu astfel de tehnologii, principalul lucru este să scanați, iar apoi este o problemă de tehnologie. În cel mai adevărat sens al cuvântului.

Vă puteți imagina situația opusă, atunci când o persoană adevărată spune ceva și apoi va asigura tuturor că a fost încadrat. Cum să fii în această situație, de asemenea, nu este foarte clar. Acest lucru va aduce astfel de confuzie în fluxurile de știri, încât pur și simplu nu este posibil să-l verificați dublu într-o altă sursă. Drept urmare, va deveni în general neclar ce este adevărat și ce este fals în această lume. O imagine apare din filme despre un viitor sumbru, cum ar fi Surrogates sau Terminator, unde T-1000 s-a prezentat ca alți oameni și, printre altele, l-a numit pe John Conor în numele mamei sale adoptive.

Acum nu vorbesc nici despre un alt abuz care să permită colectarea de dovezi false. În acest context, toată distracția jucăriei devine prea dubioasă.

Cum să detectați Deepfake?

Problema nu este nici faptul că astfel de sisteme ar trebui interzise, ci că acest lucru nu mai este posibil. Sunt deja acolo, iar dezvoltarea tehnologiilor, inclusiv citirea fețelor, a dus la apariția lor și la răspândirea surselor deschise. Chiar dacă ne imaginăm că sistemul în forma sa actuală va înceta să existe, trebuie să înțelegem că va fi creat din nou. Ei vor învăța încă o dată rețelele neuronale să lucreze între ele și asta este.

Până acum, nu totul este atât de înfricoșător și puteți identifica literalmente un fals cu ochiul liber. Imaginea este similară, dar destul de aspră. În plus, uneori are unele probleme de amestecare, în special în jurul marginilor feței. Dar nimic nu stă nemișcat și nu este deloc dificil să-l dezvolți și mai mult. Același Hao Li este sigur că acest lucru nu va dura mai mult de câteva luni, iar pentru a crea „măști” pe care chiar și un computer nu le poate distinge, vor mai dura câțiva ani. După aceea nu se va întoarce.

Pe de o parte, algoritmul pe care YouTube și Facebook îl creează deja îl poate proteja împotriva acestui lucru. Apropo, acesta din urmă a deschis chiar o competiție pentru dezvoltarea tehnologiei de recunoaștere - Deepfake Detection Challenge („Sarcina de a detecta adâncimi”). Fondul de premiere pentru această competiție este de 10 milioane de dolari. Concurența este deja în curs și se va încheia în martie 2020. Puteți mai avea timp să participați.

Înlocuirea unei fețe într-un videoclip nu mai este o problemă
Înlocuirea unei fețe într-un videoclip nu mai este o problemă

Înlocuirea unei fețe într-un videoclip nu mai este o problemă.

Poate că această generozitate se datorează unui videoclip fals cu Mark Zuckerberg însuși. Dacă aceste două lucruri sunt legate, apariția unei astfel de competiții nu este surprinzătoare.

Dacă fața înlocuită se potrivește complet cu originalul, contraforța reprezentată de o rețea neuronală specială va fi lipsită de putere. În acest caz, va trebui să surprindă diferențe minime în expresiile faciale, mișcările și modul de a vorbi. În cazul oamenilor celebri, o astfel de problemă va fi rezolvată la nivelul serviciului video, deoarece același YouTube știe cum se mișcă convenționalul Donald Trump. Când vine vorba de o persoană mai puțin cunoscută, devine mai complicat. Deși, acest lucru se poate dovedi și plasându-l în fața camerei și având o conversație ocazională în timp ce rețeaua neuronală îi analizează mișcările. Se va dovedi a fi ceva precum studierea unei amprente, dar, după cum putem vedea, acest lucru va duce din nou la dificultăți inutile.

De asemenea, se pot evita sistemele de autentificare video în camere video. Puteți face ca camera să marcheze videoclipul capturat și să lămurească faptul că nu a fost filmat printr-o aplicație separată sau procesat într-un program special. Dar despre videoclipurile care tocmai au fost procesate? De exemplu, un interviu editat. Drept urmare, vom primi un videoclip în care nu va mai fi cheia inițială.

Câteva meme la final
Câteva meme la final

Câteva meme la final.

Putem spune că acum am schițat unul dintre scenariile unui viitor întunecat? În general, da. Dacă tehnologiile care au fost create pentru atingerea obiectivelor bune scapă de sub control, pot fi înghițite de durere. De fapt, există multe opțiuni pentru astfel de tehnologii periculoase, dar majoritatea sunt protejate. De exemplu, fuziunea nucleară. Aici avem de-a face cu codul pe care îl poate primi oricine.

Scrieți în comentarii cum vedeți protecție împotriva contrafacerii, având în vedere că sistemul de mascare a fost capabil să facă măști complet identice cu fețele originale. Și pentru că sunt pe videoclipuri, nici măcar nu le puteți aplica recunoașterea în profunzime și volum. În plus, să presupunem că orice cod și cheie încorporată în imagine poate fi hacked. După cum spun ei, ar fi pentru ce. Acum putem discuta, toată introducerea este acolo.

Artem Sutyagin

Recomandat: