Roboții Vor Crea Cele Mai Plauzibile Falsuri De Informații - Vedere Alternativă

Roboții Vor Crea Cele Mai Plauzibile Falsuri De Informații - Vedere Alternativă
Roboții Vor Crea Cele Mai Plauzibile Falsuri De Informații - Vedere Alternativă

Video: Roboții Vor Crea Cele Mai Plauzibile Falsuri De Informații - Vedere Alternativă

Video: Roboții Vor Crea Cele Mai Plauzibile Falsuri De Informații - Vedere Alternativă
Video: INCREDIBIL! Cei Mai Ciudați Bodybuilderi Din LUME 2024, Mai
Anonim

Imaginați-vă că într-o zi un copil minune ar inventa o tehnologie care să permită oamenilor sau obiectelor materiale să treacă prin pereți și să posteze instrucțiuni pe Internet despre cum să construiască ieftin o astfel de mașină-miracol din materialele casnice disponibile în mod obișnuit. Cum s-ar schimba lumea?

Este posibil ca multe industrii să devină semnificativ mai productive. A putea merge prin pereți în loc să trebuiască să folosească ușile ar face mai ușor pentru oameni să se deplaseze prin birouri, să mute bunuri în depozite și să îndeplinească nenumărate sarcini zilnice de uz casnic. Cu toate acestea, consecințele negative ar putea să le depășească pe cele pozitive. Păstrarea obiectelor de valoare sub cheie ar pierde orice sens. Oricine ar putea intra cu ușurință în depozit, să intre într-un seif bancar sau într-o casă.

Majoritatea metodelor pe care le folosim pentru a proteja proprietatea privată implică ziduri într-un fel sau altul, deci toate acestea ar fi inutile peste noapte. Hoții ar acționa impunându-se până când societatea va găsi modalități alternative de prevenire a acestor infracțiuni. Rezultatul unei asemenea dezvoltări de evenimente ar putea fi un colaps economic sau haos social.

Cele de mai sus ilustrează un principiu general: inovația tehnologică nu este întotdeauna benefică pentru societate, cel puțin pe termen scurt. Tehnologiile sunt capabile să creeze externalități negative, externalități. Acest termen economic înseamnă daune cauzate terților sau părților. Dacă aceste externalități negative depășesc utilitatea tehnologiei în sine, invenția de fapt înrăutățește lumea, nu mai bine, cel puțin pentru o vreme.

Învățarea automată, în special o variație cunoscută sub numele de învățare profundă, este, fără îndoială, cea mai tare descoperire tehnologică de pe planetă. Împuternicește computerele să îndeplinească multe sarcini pe care anterior doar oamenii le puteau face: să recunoască imagini, să conducă mașini, să tranzacționeze piața de valori și multe altele. Acest lucru a dat naștere anxietății la unii oameni că învățarea automată poate face oamenii inutili și inutili la locul de muncă. Și acest lucru este de fapt posibil, dar există un pericol mult mai grav din cauza învățării automate care nu a primit suficientă atenție până acum. Ideea este că, dacă mașinile sunt capabile să învețe, atunci pot învăța să mintă.

Oamenii de astăzi pot falsifica imagini precum fotografii, dar acesta este un proces laborios și complex. Și falsificarea unei imagini vocale sau video depășește, în general, capacitățile unei persoane obișnuite. Dar în curând, datorită învățării automate, va fi probabil posibil să creați cu ușurință imagini video false și credibile ale feței cuiva și să dați impresia că persoana respectivă vorbește cu propria voce. Deja există o tehnologie pentru sincronizarea mișcărilor buzelor, care poate pune literalmente orice cuvinte în gura unei persoane. Acesta este doar vârful aisbergului. În curând, tinerii de 12 ani vor putea crea imagini false fotorealiste și cu sunet credibil ale politicienilor, oamenilor de afaceri mari, ale rudelor sau prietenilor lor în dormitoarele lor din dormitoarele lor, spunând tot ce își pot imagina.

Acest lucru provoacă în sine un abuz evident. Falsurile politice, așa-numitele „știri false” sau „umplerea informațiilor”, se vor răspândi ca niște incendii. Desigur, înșelăciunea va fi detectată cât mai curând posibil - nicio tehnologie digitală nu poate fi atât de bună încât o altă tehnologie nu va putea detecta falsul. Dar acest lucru se va întâmpla numai după ce ideea dăunătoare a pătruns deja în mintea oamenilor care cred în ea. Imaginați-vă un videoclip fals fals fabricat de candidați la președinție care strigau insulti rasiali sau care mărturisesc infracțiuni grave.

Cu toate acestea, acesta este doar începutul. Imaginați-vă potențialul de a manipula bursa. Să presupunem că cineva a vehiculat un videoclip fals în care CEO-ul Tesla, Elon Musk, recunoaște că mașinile Tesla nu sunt în siguranță. Videoclipul va fi online și stocul companiei se va prăbuși. La scurt timp după descoperirea unui fals, prețul lor se va recupera, cu toate acestea, în acest timp, manipulatorii vor putea câștiga bani uriași, jucând să reducă acțiunile Tesla.

Video promotional:

Și acest lucru este departe de cel mai extrem scenariu. Imaginați-vă un astfel de glumă creând un videoclip fals realist al președintelui Donald Trump afirmând că o grevă asupra țintelor nord-coreene este iminentă și apoi postează acel videoclip acolo unde nord-coreenii îl pot vedea. Care sunt șansele ca conducerea nord-coreeană să-și dea seama că acesta este un fals înainte ca aceștia să decidă să înceapă un război?

Cei care tind să considere astfel de scenarii extreme ca un alarmist vor indica în mod rezonabil că orice fals poate fi detectat, deoarece aceleași tehnologii de învățare automată vor fi folosite pentru a le detecta ca și pentru creație. Dar asta nu înseamnă că nu suntem în pericol să ajungem într-o lume plină de omologări omniprezente. Odată ce falsurile devin suficient de credibile încât oamenii nu le pot detecta singuri, vom pierde pentru totdeauna încrederea în ceea ce vedem și auzim. În loc să ne încredem în propriile noastre simțuri, vom fi nevoiți să ne bazăm pe algoritmi folosiți pentru detectarea falsurilor și autentificarea informațiilor. De-a lungul evoluției, am învățat să avem încredere în propriile noastre sentimente,iar transferul acestor funcții la inteligența mașinilor poate fi prea drastic pentru majoritatea oamenilor.

Aceasta ar putea fi o veste proastă pentru economie. Rețelele comerciale și comerciale sunt construite pe încredere și comunicare. Dacă învățarea automată aruncă un uragan interminabil de iluzii și falsifică în sfera informației publice într-o zi, zidurile create de evoluție pentru a distinge realitatea de ficțiune se vor prăbuși. În acest caz, nivelul de încredere în societate poate scădea rapid, ceea ce nu va încetini pentru a afecta negativ bunăstarea globală a umanității.

Din acest motiv, guvernul ar trebui probabil să ia unele măsuri pentru a se asigura că falsificarea digitală este pedepsită sever. Din păcate, este puțin probabil ca actuala administrație să facă un astfel de pas din dragoste pentru știrile de partid restrâns. Și guvernele precum Rusia sunt probabil și mai puțin înclinate să limiteze astfel de practici. În cele din urmă, combinația unei guvernări slabe cu noi tehnologii puternice reprezintă o amenințare mult mai mare pentru societatea umană decât tehnologiile în sine.

De Noah Smith - Columnist de știri Bloomberg

Igor Abramov

Recomandat: