Gândirea Ca O Persoană: Ce Se Va întâmpla Dacă înzestrați Mașina Cu Teoria Conștiinței - Vedere Alternativă

Cuprins:

Gândirea Ca O Persoană: Ce Se Va întâmpla Dacă înzestrați Mașina Cu Teoria Conștiinței - Vedere Alternativă
Gândirea Ca O Persoană: Ce Se Va întâmpla Dacă înzestrați Mașina Cu Teoria Conștiinței - Vedere Alternativă

Video: Gândirea Ca O Persoană: Ce Se Va întâmpla Dacă înzestrați Mașina Cu Teoria Conștiinței - Vedere Alternativă

Video: Gândirea Ca O Persoană: Ce Se Va întâmpla Dacă înzestrați Mașina Cu Teoria Conștiinței - Vedere Alternativă
Video: CONȘTIENTUL ȘI PERSONALITATEA. DE LA INEVITABIL MORT LA VEȘNIC VIU 2024, Mai
Anonim

Luna trecută, o echipă de jucători autodidact ai AI a suferit o înfrângere spectaculoasă împotriva jucătorilor sportivi profesioniști. Meciul de spectacol, care a avut loc ca parte a Campionatului Internațional Mondial Dota 2, a arătat că gândirea strategică a echipei permite încă unei persoane să câștige mâna superioară peste o mașină.

AI-urile implicate au fost mai mulți algoritmi dezvoltați de OpenAI, dintre care Elon Musk este unul dintre fondatori. Un colectiv de jucători digitali, numit OpenAI Five, a învățat să joace Dota 2 pe cont propriu, prin încercare și eroare, în competiție între ei.

Spre deosebire de același joc de șah sau logică de bord Go, popularul și jocul multiplayer cu creștere rapidă Dota 2 este considerat un domeniu mult mai serios pentru testarea inteligenței artificiale. Dificultatea generală a jocului este doar un factor. Nu este suficient doar să faceți clic foarte rapid cu mouse-ul și să emiteți comenzi personajului pe care îl controlați. Pentru a câștiga, este necesar să avem intuiție și o înțelegere a ceea ce trebuie să vă așteptați de la adversar în momentul următor în timp, precum și să acționați corespunzător în funcție de acest ansamblu de cunoștințe pentru a veni împreună cu eforturi comune spre un scop comun - victoria. Calculatorul nu are acest set de funcții.

Până în prezent, chiar și cel mai remarcabil algoritm de calcul pentru învățare profundă nu are gândirea strategică necesară pentru a înțelege obiectivele de la sarcinile adversarului său, fie că este un alt AI sau un om.

Potrivit lui Wang, pentru ca AI să reușească, trebuie să aibă o abilitate de comunicare profundă care provine din cea mai importantă trăsătură cognitivă a unei persoane - prezența inteligenței.

Model de stare mentală ca simulare

Video promotional:

Până la vârsta de patru ani, copiii încep de obicei să înțeleagă o trăsătură socială fundamentală: mințile lor sunt diferite de cele ale altora. Încep să înțeleagă că fiecare are în ce crede, dorințele, emoțiile și intențiile lor. Și, cel mai important, imaginându-se în locul celorlalți, ei pot începe să prezică comportamentul suplimentar al acestor oameni și să le explice. Într-un fel, creierul lor începe să creeze mai multe simulări ale lor în sine, substituindu-se în locul celorlalți oameni și plasându-se într-un mediu diferit.

Modelul de stare mentală este important în a ne înțelege pe sine ca persoană și joacă, de asemenea, un rol important în interacțiunea socială. Înțelegerea celorlalți este cheia unei comunicări eficiente și atingerea unor obiective comune. Cu toate acestea, această abilitate poate fi și forța motrice a falselor credințe - idei care ne îndepărtează de adevărul obiectiv. De îndată ce abilitatea de a folosi un model de stare mentală este afectată, de exemplu, acest lucru se întâmplă în autism, atunci abilitățile naturale „umane”, cum ar fi capacitatea de a explica și de a-și imagina, se deteriorează și ele.

Potrivit Dr. Alan Winfield, profesor de robotică la Universitatea din Vestul Angliei, modelul de stare mentală sau „teoria minții” este o caracteristică cheie care va permite într-o zi AI să „înțeleagă” oameni, lucruri și alți roboți.

În loc de metode de învățare automată, în care mai multe straturi de rețele neuronale extrag informații individuale și „studiază” baze de date uriașe, Winston sugerează adoptarea unei abordări diferite. În loc să se bazeze pe învățare, Winston sugerează preprogramarea AI cu un model intern de sine și de mediu care va răspunde la întrebări simple „ce se întâmplă dacă?”.

De exemplu, imaginați-vă că doi roboți se deplasează de-a lungul unui coridor îngust, AI-ul lor poate simula rezultatele unor acțiuni suplimentare care vor împiedica coliziunea lor: virați la stânga, la dreapta sau continuați drept. Acest model intern va acționa, în esență, ca un „mecanism de consecință”, acționând ca un fel de „bun simț” care va ajuta direcționarea AI-ului pentru a corecta în continuare acțiunile prin predicția dezvoltării viitoare a situației.

Într-un studiu publicat la începutul acestui an, Winston a demonstrat un robot prototip capabil să obțină astfel de rezultate. Anticipând comportamentul celorlalți, robotul a trecut cu succes prin coridor fără coliziuni. De fapt, acest lucru nu este surprinzător, notează autorul, însă robotul „atent”, folosind o abordare simulată pentru rezolvarea problemei, a durat cu 50 la sută mai mult pentru a finaliza coridorul. Cu toate acestea, Winston a demonstrat că metoda sa de simulare internă funcționează: „Acesta este un punct de plecare foarte puternic și interesant în dezvoltarea teoriei inteligenței artificiale”, a concluzionat savantul.

Winston speră că, în cele din urmă, AI va dobândi capacitatea de a descrie, reproduce mental situații. Un model intern de sine și alții va permite unui astfel de AI să simuleze diverse scenarii și, mai important, să definească obiective și obiective specifice pentru fiecare dintre ele.

Acest lucru diferă semnificativ de algoritmii de învățare profundă, care, în principiu, nu sunt capabili să explice de ce au ajuns la această sau acea concluzie atunci când rezolvă o problemă. Modelul de cutie neagră al învățării profunde este de fapt adevărata problemă în a avea încredere în astfel de sisteme. Această problemă poate deveni mai accentuată, de exemplu, atunci când dezvoltăm roboți de asistență medicală pentru spitale sau pentru vârstnici.

O AI înarmată cu un model de stare mentală s-ar putea pune în pantofii stăpânilor săi și să înțeleagă corect ce se dorește de la ea. Apoi, el a putut identifica soluții adecvate și, după ce i-a explicat aceste decizii persoanei, acesta va îndeplini deja sarcina care i-a fost atribuită. Cu cât este mai mică incertitudinea în decizii, cu atât ar exista mai multă încredere în astfel de roboți.

Model de stare mentală într-o rețea neuronală

DeepMind adoptă o abordare diferită. În loc să preprogrameze un algoritm pentru mecanismul consecințelor, au dezvoltat mai multe rețele neuronale care prezintă o asemănare cu un model de comportament psihologic colectiv.

Algoritmul AI „ToMnet” poate învăța acțiuni prin observarea altor rețele de neutroni. ToMNet în sine este un colectiv format din trei rețele neuronale: prima se bazează pe particularitățile alegerii altor AI în funcție de ultimele acțiuni ale acestora. A doua formează un concept general al dispoziției actuale - credințele și intențiile lor la un moment dat în timp. Rezultatul colectiv al activității a două rețele neuronale este primit de către a treia, care prezice acțiuni suplimentare ale AI pe baza situației. Ca și în cazul învățării profunde, ToMnet devine mai eficient pe măsură ce câștigă experiență urmărindu-i pe alții.

Într-un experiment, ToMnet a „urmărit” trei agenți ai AI manevra într-o cameră digitală, colectând cutii colorate. Fiecare dintre aceste AI avea propria sa particularitate: unul era „orb” - nu putea determina forma și plasarea în cameră. Celălalt era un „sclerotic”: nu-și putea aminti ultimii pași. Al treilea putea vedea și aminti.

După antrenament, ToMnet a început să prezice preferințele fiecărui AI observând acțiunile sale. De exemplu, „orbul” se mișca constant doar de-a lungul pereților. ToMnet și-a amintit acest lucru. Algoritmul a fost, de asemenea, capabil să prezică corect comportamentul viitor al AI și, mai important, să înțeleagă când AI a întâlnit o reprezentare falsă a mediului.

Într-un test, o echipă de oameni de știință a programat o AI pentru „miopie” și a schimbat aspectul unei camere. Agenții cu viziune normală s-au adaptat rapid la noul aspect, dar omul miop a continuat să-și urmeze traseele inițiale, crezând în mod fals că încă se află în vechiul mediu. ToMnet a notat rapid această caracteristică și a prezis cu exactitate comportamentul agentului, punându-se la locul său.

Potrivit Dr. Alison Gopnik, psiholog de dezvoltare la Universitatea din California, Berkeley, care nu a fost implicat în aceste studii, dar care a fost familiarizat cu rezultatele, aceste rezultate arată că rețelele neuronale au o capacitate uimitoare de a învăța abilități singure, prin observarea altora. În același timp, potrivit expertului, este încă foarte devreme să spunem că aceste AI au dezvoltat un model artificial al stării mentale.

Potrivit Dr. Josh Tenebaum de la Institutul de Tehnologie din Massachusetts, care nu a fost implicat în studiu, „înțelegerea” lui ToMnet este puternic legată de contextul mediului de învățare - aceeași cameră și agenți AI specifici a căror sarcină era să colecteze cutii. Această constrângere într-un anumit cadru face ca ToMnet să fie mai puțin eficient la prezicerea comportamentului în medii radical noi, spre deosebire de aceiași copii care se pot adapta la situații noi. Algoritmul, potrivit savantului, nu va face față modelării acțiunilor unei AI sau a unei persoane complet diferite.

În orice caz, munca lui Winston și DeepMind demonstrează că calculatoarele încep să prezinte rudimente de „înțelegere” reciprocă, chiar dacă această înțelegere este încă doar rudimentară. Și pe măsură ce ei continuă să-și îmbunătățească această abilitate, înțelegându-se reciproc din ce în ce mai bine, va veni momentul când mașinile vor putea înțelege complexitatea și complexitatea propriei noastre conștiințe.

Nikolay Khizhnyak

Recomandat: