Roboti Ucigași? Oprește-te, Chiar și Roboții Buni Sunt Teribil De Imprevizibili - Vedere Alternativă

Cuprins:

Roboti Ucigași? Oprește-te, Chiar și Roboții Buni Sunt Teribil De Imprevizibili - Vedere Alternativă
Roboti Ucigași? Oprește-te, Chiar și Roboții Buni Sunt Teribil De Imprevizibili - Vedere Alternativă

Video: Roboti Ucigași? Oprește-te, Chiar și Roboții Buni Sunt Teribil De Imprevizibili - Vedere Alternativă

Video: Roboti Ucigași? Oprește-te, Chiar și Roboții Buni Sunt Teribil De Imprevizibili - Vedere Alternativă
Video: Este UIMITOR, Acest Barbat S-a Trezit In STOMACUl Unei ANACONDE 2024, Octombrie
Anonim

Liderii a peste o sută dintre cele mai importante companii din domeniul inteligenței artificiale din lume sunt foarte preocupați de dezvoltarea „roboților ucigași”. Într-o scrisoare deschisă către ONU, acești lideri de afaceri, inclusiv Elon Musk din Tesla și fondatorii DeepMind Google, au avertizat că utilizarea tehnologiei cu arme autonome ar putea fi adoptată de teroriști și despoti, sau poate fi hackedă într-o oarecare măsură.

Dar adevărata amenințare este mult mai gravă - și nu este doar o conduită greșită a omului, ci și faptele greșite ale mașinilor. Examinarea sistemelor complexe arată că acestea se pot comporta mult mai imprevizibil decât se poate deduce din suma acțiunilor individuale. Pe de o parte, aceasta înseamnă că societatea umană se poate comporta foarte diferit decât te-ai putea aștepta studiind comportamentul indivizilor. Pe de altă parte, același lucru se aplică tehnologiei. Chiar și ecosistemele unor simple programe de inteligență artificială - pe care le numim mut, roboți buni - ne pot surprinde. Chiar și roboții individuali se pot comporta oribil.

Elementele individuale care alcătuiesc sisteme complexe, cum ar fi piețele economice sau vremea globală, tind să nu interacționeze într-o manieră liniară simplă. Acest lucru face ca aceste sisteme să fie foarte greu de modelat și de înțeles. De exemplu, chiar și după ani de cercetare climatică, este imposibil de a prezice comportamentul pe termen lung al vremii. Aceste sisteme sunt la fel de sensibile la cele mai mici schimbări, deoarece reacționează exploziv. Este foarte dificil să știi starea exactă a unui astfel de sistem într-un moment dat. Toate acestea fac ca aceste sisteme să fie imprevizibile în interior.

Toate aceste principii se aplică grupurilor mari de oameni care acționează în felul lor, fie că este vorba despre societăți umane sau grupuri de bots AI. Oamenii de știință au studiat recent un tip de sistem complex care a folosit bots buni pentru a edita automat articole Wikipedia. Aceste bug-uri diverse sunt concepute, scrise și utilizate de editorii de încredere Wikipedia, iar software-ul lor de bază este open source și disponibil pentru toată lumea. În mod individual, acestea au un scop comun de a îmbunătăți enciclopedia. Cu toate acestea, comportamentul lor colectiv s-a dovedit a fi surprinzător de ineficient.

Reguli și convenții bine stabilite se află în centrul modului în care funcționează acești roboți pe Wikipedia, dar, deoarece site-ul web nu are un sistem central de control, nu există o coordonare eficientă între persoanele care rulează diferite bots. Rezultatele au scos la iveală o serie de roboți care și-au anulat modificările reciproce de câțiva ani și nimeni nu a observat. Și, desigur, din moment ce acești roboți nu învață deloc, nici nu au observat.

Aceste bots sunt proiectate pentru a accelera procesul de editare. Dar mici diferențe în ceea ce privește designul de roboți sau între persoanele care le folosesc, ar putea duce la o pierdere masivă de resurse într-un „război de editare” în curs de desfășurare, care ar putea fi rezolvat mult mai rapid de către editori.

De asemenea, cercetătorii au descoperit că roboții s-au comportat diferit în diferite versiuni lingvistice ale Wikipedia. Se pare că regulile sunt aproape aceleași, obiectivele sunt identice, tehnologiile sunt similare. Dar pe Wikipedia în limba germană, cooperarea bot a fost mult mai eficientă și mai productivă decât, de exemplu, în portugheză. Acest lucru poate fi explicat doar prin diferențele dintre editorii umani care au condus aceste roboți în diferite medii.

Video promotional:

Confuzie exponențială

Robotii de pe Wikipedia nu au o autonomie largă, iar sistemul nu mai funcționează în conformitate cu obiectivele individuale. Dar Fundația Wikimedia intenționează să utilizeze AI care va oferi mai multă autonomie acestor roboți. Și acest lucru poate duce la un comportament și mai imprevizibil.

Un bun exemplu de ceea ce se poate întâmpla este arătat de bot-urile concepute pentru a vorbi cu oamenii atunci când sunt nevoiți să comunice între ei. Nu mai suntem surprinși de răspunsurile asistenților personali precum Siri. Încercați-i să comunice între ei și vor începe rapid să se comporte în moduri neașteptate, să se certe și chiar să se insulte reciproc.

Cu cât sistemul devine mai mare și cu cât fiecare bot devine mai autonom, cu atât va fi mai complex și mai imprevizibil comportamentul viitor al acestui sistem. Wikipedia este un exemplu al unui număr mare de bot-uri relativ simple la locul de muncă. Exemplul chatbot este un exemplu de un număr mic de bots relativ complexi și inventivi - în ambele cazuri, apar conflicte neprevăzute. Complexitatea și, prin urmare, imprevizibilitatea, crește exponențial pe măsură ce personalitatea este adăugată sistemului. Prin urmare, atunci când sistemele cu un număr mare de roboți foarte complexi apar în viitor, imprevizibilitatea lor va depăși imaginațiile noastre.

Nebunia aprinsă

Mașinile care conduc de la sine, de exemplu, promit să facă un progres în ceea ce privește eficiența și siguranța rutieră. Dar nu știm încă ce se va întâmpla când vom avea un sistem sălbatic mare de vehicule complet autonome. Se pot comporta diferit chiar și în cadrul unei flote mici de vehicule individuale într-un mediu controlat. Și un comportament și mai imprevizibil se poate manifesta atunci când mașinile care conduc cu sine, „antrenate” de diferite persoane din diferite locuri, încep să interacționeze între ele.

Oamenii se pot adapta la noile reguli și convenții relativ rapid, dar au dificultăți în schimbarea sistemelor. Agenții artificiali pot fi și mai dificili. De exemplu, dacă o mașină „antrenată în Germania” călătorește în Italia, de exemplu, nu știm cum va stăpâni convențiile culturale nescrise pe care le urmează multe alte mașini „antrenate în Italia”. Ceva banal cum ar fi traversarea unei intersecții poate deveni riscant mortal, deoarece nu știm dacă mașinile vor interacționa corect sau dacă se vor comporta imprevizibil.

Acum gândiți-vă la roboții ucigași care îl hărțuiesc pe Musk și colegii săi. Un robot ucigaș poate fi foarte periculos în mâinile greșite. Cum rămâne cu sistemul de roboți ucigași imprevizibili? Gandeste pentru tine.

Ilya Khel

Recomandat: