De Ce Nu înțelegeți Greșit Robo-apocalipsa - Vedere Alternativă

Cuprins:

De Ce Nu înțelegeți Greșit Robo-apocalipsa - Vedere Alternativă
De Ce Nu înțelegeți Greșit Robo-apocalipsa - Vedere Alternativă

Video: De Ce Nu înțelegeți Greșit Robo-apocalipsa - Vedere Alternativă

Video: De Ce Nu înțelegeți Greșit Robo-apocalipsa - Vedere Alternativă
Video: Обучение детей программированию и робототехнике Robolab: специалисты для IT страны 2024, Aprilie
Anonim

Teama de inteligență artificială a fost mult timp înrădăcinată în cultura populară. Cele mai fine minți ale umanității, de la Stephen Hawking la Elon Musk, au vorbit despre amenințarea existențială a minții digitale pentru umanitate.

Profesorul de la Universitatea din California la Berkeley Stuart Russell vorbește și despre asta, dar în viziunea sa despre viitor nu există roboți răi care să se revolte împotriva dominației umane.

Potrivit Russell, la un moment dat, utilajele vor deveni pur și simplu atât de eficiente încât ne vor distruge, îndeplinind sarcinile pe care le-am oferit.

Russell este un expert în învățarea mașinilor și autor al Omului compatibil: AI și problema controlului.

"Povestea tradițională de la Hollywood este aceea că mașinile devin spontane conștiente și apoi decid că urăsc oamenii și vor să ucidă pe toți", notează profesorul Russell.

Dar aceasta, în opinia sa, este o viziune greșită a robo-apocalipsei, deoarece mașinile nu au emoții umane.

„Trebuie să ne facem griji nu pentru conștientizarea de sine a mașinilor malefice, ci pentru competența mașinilor care îndeplinesc sarcinile pe care le-am setat”, este convins savantul.

Video promotional:

„Prea competent”

Într-un interviu acordat BBC Today, profesorul Russell a descris o situație ipotetică în care existența umanității ar putea fi amenințată de inteligența artificială.

Imaginați-vă că există o inteligență artificială super-puternică care poate controla clima de pe planetă. El are sarcina de a readuce nivelurile de dioxid de carbon din atmosferă la niveluri preindustriale.

Image
Image

„Sistemul va considera că cel mai eficient mod de a face acest lucru este distrugerea oamenilor. Produc dioxid de carbon”, spune profesorul.

„Acest lucru poate fi evitat, de exemplu, făcând din ea o condiție de a nu scăpa de oameni. Ce va face sistemul atunci? Ea se va asigura că tot mai puțini copii se nasc până când oamenii dispar cu totul.

Acesta este un exemplu de la care poate conduce inteligența artificială, sub instrucțiuni umane prost concepute.

Superintelligence

Sistemele AI care există astăzi au aplicații vizate în mod restrâns. Ei sunt conceputi pentru a rezolva problemele clar definite intr-o zona, spun oamenii de stiinta de la Centrul pentru Studiul Riscurilor Existentiale la Universitatea Cambridge.

Momentul triumfător pentru această filozofie AI a fost victoria computerului Deep Blue asupra campionului mondial de șah Garry Kasparov în 1997.

* Victoria lui Deep Blue asupra Kasparov în 1997 a fost un triumf AI
* Victoria lui Deep Blue asupra Kasparov în 1997 a fost un triumf AI

* Victoria lui Deep Blue asupra Kasparov în 1997 a fost un triumf AI.

Dar Deep Blue a fost creat exclusiv pentru jocul de șah. În dame, el ar fi pierdut la un grad cinci.

Progresele recente în domeniul inteligenței artificiale ne-au adus programe foarte diferite.

De exemplu, programul AlphaGo Zero a învățat să joace Go de la sine, fără a utiliza date despre jocurile trecute jucate de oameni și, în doar trei zile de joc cu sine, a ajuns la un nivel de neatins pentru o persoană obișnuită.

Algoritmii de învățare profundă au fost folosiți pentru a crea AlphaGo Zero. Aceasta înseamnă că s-a solicitat relativ puțină muncă umană pentru dezvoltarea programului.

În același timp, AlphaGo Zero știe să joace bine atât șahul, cât și shogiul.

Reamintim că programul este complet auto-învățat. Acest lucru poate cauza îngrijorare pentru unii.

„Pe măsură ce AI devine mai puternic și mai versatil, există riscul ca acesta să devină superinteligent, adică va depăși oamenii în multe sau în toate domeniile”, spune Centrul pentru Studiul Riscurilor Existențiale.

„Nu știm ce vrem”

Profesorul Russell consideră că simpla acordare a AI sarcini foarte specifice nu este o cale de ieșire, deoarece oamenii înșiși nu sunt capabili să le formuleze suficient de bine.

Image
Image

„Nu ne dăm seama că nu ne place ceva până când nu se va întâmpla”, spune el.

„Trebuie să schimbăm abordarea de bază a creării sistemelor AI”, adaugă profesorul. El consideră că acordarea unei sarcini roboților, pe care ei apoi o îndeplinesc, este fundamental greșită.

„Sistemul trebuie să înțeleagă că obiectivul nu îi este clar. el spune. - Când se creează astfel de sisteme, acestea depind într-adevăr de persoană. Încep să ceară permisiunea înainte de a face ceva, deoarece nu sunt siguri dacă doriți."

Cel mai important, spune profesorul, nu vor rezista dacă decideți să le dezactivați, pentru că sunt concepute pentru a nu face ceea ce nu vă place.

Lampa lui Aladdin

AI astăzi este creat ca și cum ar fi un genie dintr-o lampă, spune profesorul Russell. Freci lampa și spui: „Vreau să se întâmple asta și asta”.

În 2001, Odiseea spațială * a lui Stanley Kubrick, un computer superinteligent se revoltă împotriva oamenilor care decid să îl închidă
În 2001, Odiseea spațială * a lui Stanley Kubrick, un computer superinteligent se revoltă împotriva oamenilor care decid să îl închidă

În 2001, Odiseea spațială * a lui Stanley Kubrick, un computer superinteligent se revoltă împotriva oamenilor care decid să îl închidă.

Și dacă inteligența artificială este suficient de puternică, va face exact ceea ce ceri.

"Problema cu gin este că a treia dorință este întotdeauna anularea primelor două, deoarece persoana le-a exprimat incorect."

„O mașină care urmărește obiectivul greșit devine de facto dușmanul umanității, iar acest inamic este mult mai puternic decât noi”, concluzionează omul de știință.

Recomandat: