De Ce Se Teme Dezvoltatorul Inteligenței Artificiale în Creația Sa - Vedere Alternativă

Cuprins:

De Ce Se Teme Dezvoltatorul Inteligenței Artificiale în Creația Sa - Vedere Alternativă
De Ce Se Teme Dezvoltatorul Inteligenței Artificiale în Creația Sa - Vedere Alternativă

Video: De Ce Se Teme Dezvoltatorul Inteligenței Artificiale în Creația Sa - Vedere Alternativă

Video: De Ce Se Teme Dezvoltatorul Inteligenței Artificiale în Creația Sa - Vedere Alternativă
Video: Cui i-e frica de INTELIGENTA ARTIFICIALA? 2024, Mai
Anonim

În calitate de cercetător AI, de multe ori mă confrunt cu părerea că mulți oameni se tem de IA și de ceea ce poate deveni. De fapt, nu este surprinzător dacă priviți din perspectiva istoriei umane, în timp ce acordați atenție la ceea ce ne hrănește industria divertismentului, oamenii ar putea să se teamă de o răscoală cibernetică care ne va obliga să trăim în teritorii izolate și să-i transformăm pe ceilalți într-un fel de „matrice” de baterii umane. …

Și totuși, pentru mine, uitându-mă la toate aceste modele evolutive de computer pe care le folosesc în dezvoltarea AI, este dificil să cred că inofensivele mele, pure ca lacrimile bebelușului, creaturi de pe ecranul computerului meu se pot transforma într-o zi în monștri ai unei distopii futuriste. Pot fi într-adevăr numit „distrugător de lumi”, așa cum Oppenheimer a regretat cândva și a spus despre el însuși după ce a condus programul de a crea o bombă nucleară?

Poate că aș accepta o astfel de faimă, sau poate criticile operei mele sunt chiar până la urmă? Poate că ar trebui să nu mai evit întrebările despre temerile pe care le am în legătură cu AI ca expert AI?

Teama de imprevizibilitate

HAL 9000, visul scriitorului de ficțiune Arthur Charles Clarke și adus la viață de cineastul Stanley Kubrick în filmul A Space Odyssey din 2001, este un excelent exemplu de sistem care s-a prăbușit din cauza circumstanțelor neprevăzute.

În multe sisteme complexe - Titanic, naveta spațială NASA și centrala nucleară de la Cernobâl - inginerii au trebuit să combine multe componente. Poate că arhitecții acestor sisteme erau bine conștienți de modul în care fiecare dintre elementele sale a funcționat individual, dar nu au înțeles suficient de bine modul în care toate aceste componente vor lucra împreună.

Video promotional:

Rezultatul a fost sisteme care nu au fost niciodată pe deplin înțelese de propriii creatori, ceea ce a dus la consecințe bine cunoscute. În fiecare caz, nava s-a scufundat, două navete au explodat și aproape toată Europa și unele părți din Asia s-au confruntat cu problema contaminării radioactive - un set de probleme relativ mici care s-au întâmplat simultan, creând un efect catastrofal.

Îmi pot imagina perfect cum noi, creatorii AI, putem ajunge la rezultate similare. Luăm cele mai recente dezvoltări și cercetări în științele cognitive (știința gândirii - ed.), Le traducem în algoritmi de calculator și adăugăm toate acestea sistemelor existente. Încercăm să dezvoltăm AI fără a înțelege pe deplin propria noastră inteligență și conștiință.

Sisteme precum Watson sau Google’s Alpha sunt rețele neuronale artificiale cu o putere de calcul impresionantă și capacitatea de a face față unor sarcini cu adevărat complexe. Însă, deocamdată, singurul lucru la care va duce o eroare în activitatea lor va fi rezultatul unei pierderi a jocului intelectual „Jeopardy!”. sau o ocazie ratată de a învinge încă un alt joc de tablă logic din lume.

Aceste consecințe nu sunt de natură globală. De fapt, cel mai rău lucru care i se poate întâmpla oamenilor în acest caz este că cineva pierde o sumă de bani în pariuri.

Cu toate acestea, arhitectura AI devine din ce în ce mai complexă și procesele computerizate devin mai rapide. Capacitățile AI vor crește doar în timp. Și deja acest lucru ne va conduce la faptul că vom începe să atribuim din ce în ce mai multă responsabilitate AI, chiar în ciuda riscurilor crescânde ale circumstanțelor neprevăzute.

Suntem conștienți de faptul că „greșelile fac parte din natura umană”, de aceea va fi pur și simplu imposibil din punct de vedere fizic să creăm un sistem cu adevărat sigur în orice.

Teama de folosirea defectuoasă

Nu prea mă îngrijorează imprevizibilitatea consecințelor în activitatea AI, pe care o dezvolt folosind așa-numita abordare a neuroevoluției. Creez medii virtuale și le populez cu creaturi digitale, oferindu-le creierelor comenzi pentru a rezolva probleme de complexitate crescândă.

În timp, eficiența rezolvării problemelor de către aceste creaturi crește și evoluează. Cei care fac cea mai bună treabă sunt selectați pentru reproducere, creând o nouă generație pe baza lor. De-a lungul generațiilor, aceste creaturi digitale dezvoltă abilități cognitive.

De exemplu, acum facem primii pași în dezvoltarea de mașini până la nivelul de a efectua sarcini simple de navigare, de a lua decizii simple sau de a memora câteva informații. Dar în curând vom vedea dezvoltarea de mașini care pot îndeplini sarcini mai complexe și au un nivel global de inteligență mult mai eficient. Scopul nostru final este de a crea inteligență la nivel uman.

În cursul acestei evoluții, vom încerca să găsim și să remediem toate erorile și problemele. Cu fiecare nouă generație, mașinile vor fi mai bune să facă față erorilor decât cele anterioare. Acest lucru va crește șansele ca noi să fim capabili să identificăm toate consecințele imprevizibile în simulări și să le eliminăm chiar înainte de a putea fi realizate în lumea reală.

O altă oportunitate pe care o oferă metoda evolutivă de dezvoltare este de a înzestra inteligența artificială cu etică. Este probabil ca astfel de caracteristici etice și morale ale unei persoane ca fiabilitatea și altruismul să fie rezultatul evoluției noastre și un factor în continuarea acesteia.

Putem crea un mediu construit și să împuternicim mașini pentru a demonstra bunătate, onestitate și empatie. Aceasta ar putea fi o modalitate de a ne asigura că dezvoltăm mai mulți servitori ascultători decât roboți ucigași nemiloși. Cu toate acestea, deși neuroevoluția poate reduce nivelul consecințelor nedorite în comportamentul AI, nu poate preveni utilizarea necorespunzătoare a inteligenței artificiale.

Ca om de știință, trebuie să mă conformez angajamentului meu pentru adevăr și să raportez ceea ce am descoperit prin experimentele mele, indiferent dacă îmi plac sau nu rezultatele. Treaba mea nu este să determin ce îmi place și ce nu. Singurul lucru important este că îmi pot face munca publică.

Teama de priorități sociale greșite

A fi om de știință nu înseamnă să-ți pierzi umanitatea. Trebuie să mă reconectez cu speranțele și temerile mele la un anumit nivel. Ca individ motivat din punct de vedere moral și politic, trebuie să ia în considerare consecințele potențiale ale muncii mele și efectul posibil asupra societății.

În calitate de oameni de știință și în calitate de reprezentanți ai societății, încă nu am ajuns la o idee clară despre ce anume vrem să obținem din AI și ce ar trebui să devină în cele din urmă. Desigur, acest lucru se datorează parțial faptului că încă nu înțelegem pe deplin potențialul acestuia. Dar totuși, trebuie să înțelegem și să decidem clar ce dorim să obținem din inteligența artificială cu adevărat avansată.

Unul dintre cele mai mari domenii la care oamenii acordă atenție atunci când vorbesc despre AI este ocuparea forței de muncă. Roboții deja lucrează fizic complex pentru noi, cum ar fi asamblarea și sudarea pieselor caroseriei împreună. Dar într-o zi va veni ziua în care roboții vor avea sarcina de a îndeplini sarcini cognitive, adică vor fi însărcinați cu ceea ce anterior a fost considerat o abilitate exclusiv unică a persoanei însuși. Mașinile cu autovehicule pot înlocui șoferii de taxi; avioanele cu autovehicule nu vor avea nevoie de piloți.

În loc să primească îngrijiri medicale în sălile de urgență pline de personal și medici mereu obosiți, pacienții vor putea să efectueze examene și să învețe diagnostice folosind sisteme de experți cu acces instantaneu la toate cunoștințele medicale. Operațiile chirurgicale vor fi efectuate de roboți care nu sunt susceptibili de oboseală, cu o mână perfect dresată.

Consultanța juridică va fi disponibilă dintr-un cadru legal complet. Pentru consultanță în domeniul investițiilor, ne vom adresa la sisteme de previziune a pieței de experți. Poate că într-o zi toată munca umană va fi făcută de mașini. Chiar și munca mea se poate face mai repede folosind un număr mare de mașini care cercetează fără încetare modul de a face mașinile și mai inteligente.

În realitatea societății noastre actuale, automatizarea obligă deja oamenii să-și părăsească locul de muncă, făcând proprietarii bogați de astfel de mașini automatizate să fie și mai bogați, iar restul și mai săraci. Dar aceasta nu este o problemă științifică. Aceasta este o problemă politică și socioeconomică pe care societatea însăși trebuie să o rezolve.

Cercetările mele nu vor schimba asta, dar fundamentele mele politice, împreună cu umanitatea, pot duce la circumstanțe în care AI poate deveni o funcție extrem de utilă, în loc să lărgească decalajul dintre un procent din elita lumii și restul dintre noi.

Teama de un scenariu catastrofal

Am ajuns la frica finală impusă de noi de HAL 9000 nebun, Terminator și orice altă superinteligență răutăcioasă. Dacă AI continuă să evolueze până când depășește inteligența umană, un sistem artificial de inteligență (sau o colecție de astfel de sisteme) ar considera oamenii un material inutil? Cum ne putem justifica existența în fața unei superinteligențe capabile să facă și să creeze ceea ce nicio altă persoană nu poate? Vom putea să evităm soarta de a fi ștersi de pe Pământ de mașinile pe care le-am ajutat să creăm?

Prin urmare, cea mai importantă întrebare în astfel de circumstanțe va suna astfel: de ce va avea nevoie de noi superinteligența artificială?

Dacă s-ar fi întâmplat o astfel de situație, aș spune probabil că sunt o persoană bună care a contribuit chiar la crearea acestei superinteligențe, cu care mă confrunt acum. Aș face apel la compasiunea și empatia lui, astfel încât superinteligența mă va lăsa, atât de compătimitor și empatic, în viață. Aș adăuga, de asemenea, că diversitatea speciilor în sine are valoare și universul este atât de mare încât existența speciei umane în ea este de fapt destul de nesemnificativă.

Dar nu pot vorbi pentru întreaga umanitate, așa că îmi va fi greu să găsesc un argument valabil pentru noi toți. Doar că atunci când mă uit la noi pe toți, văd cu adevărat că am făcut multe și facem multe greșeli. Ura unul față de celălalt domnește în lume. Mergem la război unul împotriva celuilalt. Distribuim alimente, cunoștințe și îngrijiri medicale pe nedrept. Poluăm planeta. În această lume, desigur, există multe lucruri bune, dar dacă vă uitați la toate lucrurile rele pe care le-am creat și continuăm să creăm, va fi foarte dificil să găsiți un argument care să ne susțină existența continuă.

Din fericire, nu trebuie să ne justificăm încă existența. Mai avem timp. De la 50 la 250 de ani, în funcție de cât de rapid se dezvoltă inteligența artificială. Noi, ca specie, avem capacitatea să ne unim și să găsim un răspuns bun la întrebarea de ce superinteligența nu ar trebui să ne șteargă de pe fața planetei.

Va fi foarte dificil să rezolvi această problemă. La urma urmei, a spune că susținem diversitatea și diferențele etnoculturale, și pentru a face acest lucru, sunt lucruri complet diferite. Cum să spunem că vrem să salvăm planeta și să facem față cu succes.

Cu toții, fie că este vorba de fiecare individ sau societate în ansamblu, trebuie să ne pregătim pentru un scenariu catastrofal, folosind acest timp pentru a fi gata să arătăm și să dovedim de ce creațiile noastre ar trebui să ne permită să continuăm să existe. Sau pur și simplu putem continua să credem orbește că o astfel de dezvoltare a evenimentelor este imposibilă și pur și simplu să încetăm să vorbim despre acest subiect.

Cu toate acestea, indiferent de pericol fizic poate reprezenta superinteligența pentru noi, nu trebuie să uităm că aceasta va reprezenta și un pericol politic și economic. Dacă nu găsim o modalitate de a ne îmbunătăți nivelul de trai, vom termina pur și simplu alimentând capitalismul cu un muncitor de informații artificiale care va servi doar câțiva selectați care au toate mijloacele de producție.

Acest articol a fost publicat inițial la theconversation.com de Arend Hintze, profesor asociat la Departamentul de Biologie Integrativă, Informatică și Inginerie, Universitatea din Michigan

Nikolay Khizhnyak

Recomandat: