Cum Creezi Un Robot Care Vrea Să Schimbe Lumea? - Vedere Alternativă

Cuprins:

Cum Creezi Un Robot Care Vrea Să Schimbe Lumea? - Vedere Alternativă
Cum Creezi Un Robot Care Vrea Să Schimbe Lumea? - Vedere Alternativă

Video: Cum Creezi Un Robot Care Vrea Să Schimbe Lumea? - Vedere Alternativă

Video: Cum Creezi Un Robot Care Vrea Să Schimbe Lumea? - Vedere Alternativă
Video: Acum poți să cumperi roboți "ucigași" - Cavaleria.ro 2024, Septembrie
Anonim

Informaticianul Christoph Solge încearcă să elimine necesitatea unor reguli care guvernează comportamentul roboților. Strategia lui este să le ofere un scop: să ne facă mai puternici. Christophe lucrează la Game Innovation Lab de la Universitatea din New York. Sasha Maslov a intervievat Sold pentru revista Quanta, din care aflăm că este posibil să nu merităm să încercăm să reținem fluxul de neoprit al singularității tehnologice.

Faimoasele Trei legi ale roboticii lui Isaac Asimov - limitând comportamentul androizilor și automatelor pentru a menține umanitatea în siguranță - au fost, de asemenea, neterminate. Aceste legi au apărut pentru prima dată în povestea lui Asimov în 1942, apoi în opere clasice precum „Eu, robot” și sună cam așa:

1. Un robot nu poate face rău unei persoane sau, prin lipsa sa de acțiune, permite să se facă rău unei persoane.

2. Robotul trebuie să respecte ordinele date de oameni, dacă aceștia nu contravin primei legi.

3. Un robot trebuie să-și apere existența, dacă această protecție nu contrazice prima sau a doua lege.

Desigur, în aceste legi se pot găsi multe contradicții și lacune (pe care, de fapt, Azimov însuși le-a folosit). În epoca noastră actuală a software-ului avansat cu învățare automată și robotică autonomă, definirea și implementarea eticii fierului a inteligenței artificiale a devenit o provocare presantă pentru organizații precum Machine Intelligence Research Institute și OpenAI.

Christoph Salge a adoptat o abordare diferită. În loc să impună definiții filosofice de sus în jos a modului în care agenții artificiali ar trebui sau nu să se comporte, Salge și colegul său Daniel Polani explorează calea de jos în sus sau „ce ar trebui să facă robotul mai întâi”, așa cum au scris ei în articolul său „Împuternicirea ca substitut pentru cele trei legi ale roboticii”. Empowerment, un concept născut la intersecția dintre cibernetică și psihologie, descrie motivația intrinsecă a unui agent de a rezista și de a lucra în mediu în același timp. „Ca organism, vrea să supraviețuiască. Vrea să lase o amprentă asupra lumii”, explică Salge. Aspiratorul Roomba, programat pentru a căuta o stație de încărcare atunci când bateriile sunt descărcate, este un exemplu rudimentar de „împuternicit”: să funcționeze în continuare în lume,el trebuie să primească o acuzație și să-și continue propria existență, adică să supraviețuiască.

Împuternicirea poate suna ca o rețetă pentru chiar rezultatul care susține inteligența artificială sigură, cum ar fi frica lui Nick Bostrom: un sistem autonom puternic, preocupat doar de interesul propriu și care devine nebun în acest proces. Dar Salge, care studiază interacțiunile sociale om-mașină, se întreabă: dacă un agent împuternicit „îl împuternicește și pe altul? Robotul nu trebuie doar să dorească să rămână în stare de funcționare - trebuie să vrea și să-și susțină partenerul uman."

Video promotional:

Solge și Polanyi și-au dat seama că teoria informației oferea o modalitate de a traduce această expansiune reciprocă într-un cadru matematic pentru un agent artificial non-filosofant. „Unul dintre dezavantajele celor trei legi ale roboticii este că acestea sunt bazate pe limbaj, iar limbajul este extrem de ambiguu”, spune Salge. „Încercăm să găsim ceva care să poată fi de fapt făcut”.

Unii tehnologi cred că AI este o amenințare majoră, chiar catastrofală, pentru existența umană. Si tu?

Mă voi abține. Așadar, cred cu adevărat că acum există frica față de roboți și influența tot mai mare a IA. Dar cred că pe termen scurt este probabil să fim mai preocupați de posibilele schimbări de locuri de muncă, procesul decizional, pierderea democrației, pierderea vieții private. Nu știu cât de probabil va apărea în curând o AI de neoprit. Dar chiar dacă AI trebuie să supravegheze sistemul de sănătate și să elibereze prescripții, trebuie să ne gândim la problemele etice care vin cu acesta.

Cum ne poate ajuta conceptul de abilitare să facem față acestor provocări?

Cred că ideea de abilitare umple o nișă. Nu va lăsa agentul să lase persoana să moară, dar odată ce puteți ține acest prag, va susține intenția de a crea oportunități suplimentare pentru ca persoana să exprime și să influențeze lumea. Într-una din cărțile lui Asimov, roboții vor ajunge pur și simplu să pună toți oamenii în containere sigure. Acest lucru ar fi nedorit. Dacă capacitatea noastră de a influența lumea continuă să se îmbunătățească, cred că va fi un obiectiv mult mai interesant de atins.

V-ați testat ideile de agent virtual într-un mediu de jocuri video. Ce s-a întâmplat?

Agentul, motivat de propriile sale drepturi extinse, va evita proiectilul și nu va cădea în groapă, în general, va evita orice situație care ar putea duce la pierderea sa de mobilitate, moarte sau daune în așa fel încât să-i reducă operabilitatea. Va rezista.

Împreună cu jucătorul uman, care este, de asemenea, înzestrat cu drepturi sporite, am văzut că robotul virtual va menține o anumită distanță pentru a nu împiedica mișcarea umană. El nu te va bloca, nu va sta în culoar, astfel încât să nu poți trece. El va rămâne cât mai aproape de tine pentru a te ajuta. Acest lucru duce la un comportament în care el poate lua atât inițiativa, cât și pe al altuia.

De exemplu, am creat un scenariu în care aveam o barieră laser periculoasă pentru oameni, dar sigură pentru robot. Dacă persoana din acest joc se apropie de lasere, robotul are mai multe stimulente pentru a bloca laserul. Stimulul este intensificat atunci când persoana stă direct în fața barierei, ca și când ar intenționa să o traverseze. Și robotul blochează de fapt laserul, stând în fața persoanei.

Au prezentat acești agenți un comportament neintenționat similar cu ceea ce rezultă din cele trei legi din cartea lui Asimov?

Comportamentul a fost bun la început. De exemplu, un robot virtual a interceptat adversarii care au încercat să te omoare. Din când în când, sărea sub un glonț dacă asta era singura modalitate de a te salva. Dar ceea ce ne-a surprins mai ales de la bun început a fost că și el se temea foarte mult de persoană.

Motivul pentru aceasta se datorează modelului său „miop”: de fapt, el analizează modul în care secvențele anumitor acțiuni în doi sau trei pași pot afecta lumea, atât pentru tine, cât și pentru el. Prin urmare, în primul pas, am programat ca jucătorul să acționeze aleatoriu. Dar, în practică, acest lucru a dus la faptul că agentul a tratat persoana ca pe un fel de psihopat, care ar putea, de exemplu, să-l împuște pe agent în orice moment. Prin urmare, agentul a trebuit să aleagă foarte, foarte atent poziția în care persoana nu l-a putut ucide.

Trebuia să reparăm acest lucru, așa că am modelat așa-numita ipoteză de încredere. Practic, agentul însoțitor acționează pe presupunerea că persoana va alege doar acele acțiuni care nu vor limita drepturile extinse ale agentului însuși - poate că acesta este un model mai potrivit pentru însoțitor.

Am observat, de asemenea, că dacă ai avea, să zicem, 10 puncte de sănătate în joc, însoțitorului nu i-ar păsa cu adevărat dacă ai pierdut opt sau nouă dintre aceste puncte - chiar te-ar putea trage o singură dată, doar pentru distracție. Și apoi ne-am dat seama că există un decalaj între lumea în care trăim și modelul dintr-un joc pe computer. De îndată ce am modelat limitările de capacitate cauzate de pierderea sănătății, problema a dispărut. De asemenea, ar putea fi rezolvat prin crearea unui model care nu era atât de miop, care ar putea calcula acțiunile încă câțiva pași în viitor. Dacă agentul ar putea privi mai departe în viitor, ar vedea că a avea mai multe puncte de sănătate ar putea fi benefic pentru evenimentele viitoare.

Ținând cont că schimbarea numărului de puncte de sănătate nu afectează în niciun fel drepturile mele extinse, agentul decide: „Îl trag, nu trag - care este diferența?” Și uneori trage. Ceea ce, desigur, este o problemă. Nu vreau lovituri aleatorii asupra jucătorilor. Am adăugat o soluție pentru a face robotul virtual puțin mai îngrijorat de starea dvs. decât a sa.

Cum faceți aceste concepte precise?

Dacă considerăm agenții ca sisteme de control, aceștia pot fi descompuși în componente informaționale: în lume, se întâmplă ceva și într-un fel sau altul vă preocupă. Nu vorbim despre informații ca lucruri pe care le percepeți, ci ca influențe de orice fel - poate fi o substanță, ceva care curge între lume și voi. Pot exista temperaturi sau substanțe nutritive în corpul dumneavoastră. Orice lucru care trece granița dintre lume și agent poartă informații în sine. În același mod, un agent poate influența lumea exterioară într-o varietate de moduri, oferind și informații în ea.

Puteți considera acest flux ca lățimea de bandă a canalului, acesta este un concept din teoria informației. Puteți avea puteri largi, drepturi extinse, dacă sunteți capabil să întreprindeți acțiuni diferite care să conducă la rezultate diferite. Dacă ceva nu merge bine, vă veți pierde autoritatea, deoarece pierderea capacității corespunde unei scăderi cantitative a lățimii de bandă a canalului dintre dvs. și mediu. Aceasta este ideea principală.

Cât trebuie să știe un agent pentru ca puterile sale extinse să aibă efect deplin?

Drepturile extinse au avantajul că pot fi aplicate chiar și atunci când nu aveți cunoștințe complete. Agentul are într-adevăr nevoie de un model al modului în care acțiunile sale vor afecta lumea, dar nu are nevoie de o înțelegere completă a lumii și a tuturor subtilităților ei. Spre deosebire de unele abordări care încearcă să modeleze cât mai mult posibil în lume, în cazul nostru trebuie doar să aflați cum acțiunile dvs. vă afectează percepția. Nu trebuie să înveți totul despre toate; ai nevoie doar de un agent care să exploreze lumea. El face ceva și încearcă să înțeleagă modul în care acțiunile sale afectează lumea. Modelul crește, iar agentul înțelege din ce în ce mai bine unde se extind limitele puterilor sale.

L-ați testat într-un mediu virtual. De ce nu în lumea reală?

Principalul obstacol în calea acestui model și plasarea acestuia într-un robot real este dificultatea de a calcula lățimea de bandă a unui agent și a unei persoane într-un mediu atât de bogat precum lumea reală pentru mult timp. Toate aceste procese încă nu au devenit eficiente. Sunt optimist, dar până acum această problemă rămâne pur computatională. Prin urmare, verificăm funcționarea sistemului într-un joc pe computer, într-o formă simplificată.

Se pare că împuternicirea, în mod ideal, va face mașinile noastre câini de serviciu puternici

Cunosc chiar și câțiva tehnicieni robot care modelează în mod deliberat comportamentul unui însoțitor pe bază de câini. Cred că dacă roboții ne tratează ca pe câinii noștri, în acest viitor ne putem înțelege cu toții.

Ilya Khel

Recomandat: