Când Vor Merita Roboții și Inteligența Artificială Drepturile Omului? - Vedere Alternativă

Cuprins:

Când Vor Merita Roboții și Inteligența Artificială Drepturile Omului? - Vedere Alternativă
Când Vor Merita Roboții și Inteligența Artificială Drepturile Omului? - Vedere Alternativă

Video: Când Vor Merita Roboții și Inteligența Artificială Drepturile Omului? - Vedere Alternativă

Video: Când Vor Merita Roboții și Inteligența Artificială Drepturile Omului? - Vedere Alternativă
Video: INTELIGENȚA ARTIFICIALĂ | SALVAREA SAU SFÂRȘITUL LUMII ? 2024, Mai
Anonim

Filme și seriale de televiziune precum Blade Runner, People și Westworld, unde ne arată roboți de înaltă tehnologie care nu au drepturi, nu pot decât să-i îngrijoreze pe oamenii cu conștiință. La urma urmei, nu numai că ne arată atitudinea extrem de agresivă față de roboți, ci ne fac de rușine ca specie. Cu toții suntem obișnuiți să credem că suntem mai buni decât personajele pe care le vedem pe ecran și, când va veni momentul, vom trage concluziile corecte și ne vom comporta cu mașini inteligente cu mare respect și demnitate.

Cu fiecare pas al progresului în robotică și dezvoltarea inteligenței artificiale, ne apropiem de ziua în care mașinile se vor potrivi cu capacitățile umane în fiecare aspect al inteligenței, conștiinței și emoției. Când se va întâmpla acest lucru, va trebui să decidem - în fața noastră se află un obiect de la nivelul frigiderului sau o persoană. Și ar trebui să le oferim drepturi omului, libertăți și protecție echivalente.

Image
Image

Această întrebare este foarte extinsă și nu va fi posibilă rezolvarea imediată, chiar și cu toată dorința. Va trebui să fie luat în considerare și rezolvat imediat dintr-o varietate de puncte de vedere - etică, sociologie, drept, neurobiologie și teoria AI. Dar, dintr-un anumit motiv, acum nu pare deloc că toate aceste părți vor ajunge la o concluzie comună care se potrivește tuturor.

De ce să împuternicești AI deloc?

În primul rând, trebuie să recunoaștem că ne aplecăm deja spre moralitate atunci când vedem roboți care sunt foarte asemănători cu noi. Cu cât apar mașinile mai dezvoltate intelectual și mai „vii”, cu atât mai mult vom dori să credem că sunt ca noi, chiar dacă nu sunt.

Odată ce mașinile au capacități umane de bază, indiferent dacă ne place sau nu, va trebui să le privim ca fiind egali social și nu doar ca un lucru, ca proprietate privată a cuiva. Dificultatea va sta în înțelegerea trăsăturilor sau trăsăturilor cognitive, dacă vreți, cu care va fi posibil să evaluați entitatea din fața noastră din punctul de vedere al moralității și, prin urmare, să luați în considerare problema drepturilor sociale ale acestei entități. Filozofii și eticienii se luptă cu această problemă de mii de ani.

Video promotional:

„Există trei praguri etice cele mai importante: capacitatea de a experimenta durerea și empatia, conștiința de sine și capacitatea de a vedea lucrurile dintr-un punct de vedere moral și de a lua decizii adecvate”, spune sociologul, futuristul și șeful Institutului de Etică și Noi Tehnologii James Hughes.

„La oameni, dacă ai noroc, toate aceste trei aspecte absolut importante se dezvoltă secvențial și treptat. Dar dacă, din punctul de vedere al inteligenței mașinilor, se crede că un robot care nu posedă conștiință de sine, nu experimentează bucurie sau durere, are și dreptul de a fi numit cetățean? Trebuie să aflăm dacă acest lucru va fi efectiv."

Este important să înțelegem că inteligența, sensibilitatea (capacitatea de a percepe și simți lucrurile), conștiința și conștiința de sine (conștientizarea de sine în opoziție cu alta) sunt lucruri complet diferite. Mașinile sau algoritmii pot fi la fel de inteligenți (dacă nu chiar mai inteligenți) decât oamenii, dar nu au aceste trei ingrediente esențiale. Calculatoare, Siri, algoritmi de stoc - toți sunt cu siguranță inteligenți, dar nu sunt capabili să se realizeze singuri, nu sunt capabili să simtă, să arate emoții, să simtă culori, gustul floricelelor.

Potrivit lui Hughes, conștiința de sine se poate manifesta alături de dotarea esenței cu drepturi personale minime, cum ar fi dreptul de a fi liber, nu de sclav, dreptul la propriile interese în viață, dreptul la creștere și auto-perfecționare. Atunci când dobândește conștiința de sine și fundamentele morale (capacitatea de a distinge „ceea ce este bine și ceea ce este rău” în conformitate cu principiile morale ale societății moderne), această entitate ar trebui să fie înzestrată cu drepturi umane depline: dreptul de a încheia acorduri, dreptul de a deține proprietate, vot și așa mai departe.

„Valorile esențiale ale iluminismului ne obligă să luăm în considerare aceste caracteristici din punctul de vedere al egalității tuturor în fața tuturor și să abandonăm opiniile radical conservatoare care erau acceptate în general înainte de aceasta și care acordau drepturi, să zicem, doar persoanelor cu un anumit mediu social, de gen sau teritorial”, spune Hughes.

Evident, civilizația noastră nu a atins încă obiective sociale ridicate, deoarece încă nu ne putem înțelege propriile drepturi și încă încercăm să le extindem.

Cine are dreptul să fie numit „persoană”?

Toți oamenii sunt indivizi, dar nu toți indivizii sunt oameni. Linda MacDonald-Schlenn, specialist în bioetică la Universitatea din California, Monterey Bay și lector la Institutul de Bioetică Alden Martha de la Albany Medical Center, spune că există deja precedente în lege în care subiecții neumani sunt tratați ca subiecți de drept. Și aceasta, în opinia ei, este o realizare foarte mare, deoarece astfel creăm baza pentru deschiderea posibilității de a înzestra AI în viitor cu drepturi proprii, echivalente cu drepturile omului.

„În Statele Unite, toate corporațiile au personalitate juridică. În alte țări, există și precedente în care încearcă să recunoască interconectarea și egalitatea tuturor ființelor vii de pe această planetă. De exemplu, în Noua Zeelandă, toate animalele sunt considerate inteligente prin lege, iar guvernul încurajează în mod activ dezvoltarea codurilor de bunăstare și de conduită etică. Curtea Supremă din India a numit râurile Gange și Yamuna „ființe vii” și le-a acordat statutul de persoane juridice separate”.

În plus, în Statele Unite, ca și în alte țări, anumite specii de animale, inclusiv maimuțele mari, elefanții, balenele și delfinii, sunt supuse drepturilor extinse de protecție împotriva închisorii, experimentării și abuzurilor. Dar, spre deosebire de primele două cazuri, în care vor să ia corporații și râuri sub personalitate, problema animalelor nu pare deloc o încercare de a subjuga normele legale. Susținătorii acestor propuneri susțin sprijinul pentru o persoană reală, adică o persoană care poate fi caracterizată pe baza anumitor abilități cognitive (mentale), precum conștiința de sine.

MacDonald-Glenn spune că este important în astfel de chestiuni să abandonezi viziunea conservatoare și să nu te mai gândești, fie că este vorba de animale sau de AI, la simple creaturi și mașini fără suflet. Emoțiile nu sunt un lux, spune un specialist în bioetică, ci o parte integrantă a gândirii raționale și a comportamentului social. Aceste caracteristici, și nu abilitatea de a număra numerele, ar trebui să joace un rol decisiv în a decide problema „cine” sau „ce” ar trebui să aibă dreptul la o evaluare morală.

Există dovezi crescânde ale predispoziției emoționale la animale în știință. Observarea delfinilor și a balenelor arată că sunt capabili să arate cel puțin tristețe, iar prezența celulelor fusului (interneuroni care conectează neuroni îndepărtați și participă la procese complexe care activează comportamentul social) poate indica, printre altele, că sunt capabili să empatizează. Oamenii de știință descriu, de asemenea, manifestarea diferitelor comportamente emoționale la maimuțele mari și elefanții. Este posibil ca un AI conștient să poată dobândi și aceste abilități emoționale, care, desigur, le vor crește semnificativ statutul moral.

„Limitarea răspândirii statutului moral numai la cei care gândesc rațional poate funcționa cu AI, dar în același timp, această idee se îndreaptă împotriva intuiției morale. La urma urmei, societatea noastră îi protejează deja pe cei care nu sunt capabili să gândească rațional: nou-născuții, persoanele aflate în comă, persoanele cu probleme fizice și mentale semnificative. Recent, legile privind bunăstarea animalelor au fost promovate activ”, spune MacDonald-Glenn.

Cu privire la cine ar trebui să i se acorde statutul moral, MacDonald-Glenn a fost de acord cu filosoful moral englez din secolul al XVIII-lea, Jeremiah Bentham, care a spus odată:

„Întrebarea nu este dacă pot să raționeze? Sau pot vorbi? Dar sunt ei capabili să sufere?"

Poate o mașină să capete conștiință de sine?

Desigur, nu toată lumea este de acord că drepturile omului se extind la ființe neumane, chiar dacă acei subiecți sunt capabili să afișeze abilități precum emoția sau comportamentul auto-reflectiv. Unii gânditori susțin că numai oamenilor ar trebui să li se acorde dreptul de a participa la relațiile sociale și întreaga lume se învârte direct în jurul lui Homo sapiens, iar orice altceva - consola de jocuri, frigider, câine sau interlocutor Android - este „orice altceva”.

Un avocat, un scriitor american și un coleg senior la Institutul Wesley J. Smith pentru Excepționalismul Uman, consideră că noi înșine nu am primit încă drepturile universale ale omului și este cu atât mai prematur să ne gândim la bucăți de fier strălucitoare și la drepturile lor.

„Nici o mașină nu trebuie considerată vreodată chiar și un potențial purtător de drepturi”, spune Smith.

„Chiar și cele mai avansate mașini rămân și vor rămâne mereu mașini. Aceasta nu este o ființă vie. Acesta nu este un organism viu. O mașină va fi întotdeauna doar un set de programe, un set de cod, indiferent dacă este creat de un om sau de un alt computer sau chiar programat independent."

În opinia sa, numai oamenii și resursele umane ar trebui considerate ca indivizi.

„Avem responsabilități față de animalele care suferă pe nedrept, dar și ele nu ar trebui niciodată să fie văzute ca pe cineva”, notează Smith.

Aici ar trebui să facem o mică remarcă și să reamintim cititorului de limbă rusă că în Occident animalele sunt considerate obiecte neînsuflețite. Prin urmare, puteți găsi adesea pronumele „it” (adică „it”), și nu „ea” sau „el” (adică „ea” sau „el”) atunci când vine vorba de acest animal. Această regulă este de obicei ignorată numai în legătură cu animalele de companie - câini, pisici și chiar papagali - în care gospodăriile văd membrii deplini și deplini ai familiilor lor. Cu toate acestea, Smith subliniază că conceptul de animal ca „proprietate privată rezonabilă” este deja un identificator valoros, întrucât „ne face responsabili pentru utilizarea acestuia într-un mod care nu îl rănește. În cele din urmă, „a da cu piciorul câinelui” și „a da cu piciorul în frigider” sunt două mari diferențe”.

Un punct evident controversat din analiza lui Smith este presupunerea că oamenii sau organismele biologice au anumite „caracteristici” pe care o mașină nu le poate dobândi niciodată. În epocile anterioare, aceste trăsături trecute cu vederea erau sufletul, spiritul sau o forță de viață supranaturală intangibilă. Teoria Vitalismului postulează că procesele din organismele biologice depind de această forță și nu pot fi explicate în termeni de fizică, chimie sau biochimie. Cu toate acestea, și-a pierdut rapid relevanța sub presiunea practicienilor și a logicienilor, care nu sunt obișnuiți să conecteze munca creierului nostru cu unele forțe supranaturale. Și totuși, părerea că o mașină nu poate gândi și simți niciodată așa cum fac oamenii este încă ferm înrădăcinată în mintea chiar și a oamenilor de știință, ceea ce reflectă doar încă o dată faptul căcă înțelegerea bazelor biologice ale conștiinței de sine la oameni este încă departe de a fi ideală și foarte limitată.

Lori Marino, lector superior în neuroștiințe și biologie comportamentală (etologie) la Centrul de Etică Emory, spune că mașinile nu vor obține niciodată drepturi, darămite drepturile la nivel uman. Motivul pentru aceasta este constatările neurologilor, cum ar fi Antonio Damasio, care consideră că conștiința va fi determinată numai de faptul dacă subiectul are un sistem nervos cu canale care transmit ioni excitați sau, după cum spune Marino însăși, ioni încărcați pozitiv care trec prin membranele celulare din interior. sistem nervos.

„Acest tip de transmisie neuronală se găsește chiar și în cele mai simple organisme vii - prostituate și bacterii. Și acesta este același mecanism care a inițiat dezvoltarea neuronilor, apoi a sistemului nervos și apoi a creierului”, spune Marino.

„Dacă vorbim despre roboți și AI, atunci cel puțin generația lor actuală se supune mișcării ionilor încărcați negativ. Adică vorbim despre două mecanisme complet diferite de a fi”.

Dacă urmați această logică, Marino vrea să spună că chiar și o meduză va avea mai multe sentimente decât oricare dintre cei mai complexi roboți din istorie.

„Nu știu dacă această ipoteză este corectă sau nu, dar este cu siguranță o întrebare care trebuie luată în considerare”, spune Marino.

„În plus, curiozitatea joacă doar în mine, încercând să aflu în ce fel exact un„ organism viu”poate diferi de o mașină cu adevărat complexă. Dar totuși, cred că protecția legală ar trebui să fie asigurată în primul rând animalelor și abia apoi ar trebui luată în considerare probabilitatea furnizării acesteia pentru obiecte, care, desigur, roboții sunt, din punctul meu de vedere.

David Chalmers, directorul Centrului pentru Studiul Minții, Creierului și Conștiinței de la Universitatea din New York, spune că este foarte dificil să tragi concluzii precise în jurul acestei teorii. În principal datorită faptului că în starea actuală toate aceste idei nu sunt încă răspândite și, prin urmare, depășesc cu mult domeniul de aplicare al dovezilor.

„În acest moment nu există niciun motiv să credem că un tip special de procesare a informațiilor în canalele ionice ar trebui să determine prezența sau absența conștiinței. Chiar dacă acest tip de procesare ar fi esențial, nu am avea niciun motiv să credem că necesită o anumită biologie specială și nu un tipar comun de procesare a informațiilor cunoscut de noi. Și dacă da, atunci în acest caz, simularea procesării informațiilor de către un computer ar putea fi considerată conștiință."

Un alt om de știință care crede că conștiința nu este un proces de calcul este Stuart Hameroff, profesor de anestezie și psihologie la Universitatea din Arizona. În opinia sa, conștiința este un fenomen fundamental al Universului și este inerentă tuturor ființelor vii și neînsuflețite. Dar, în același timp, conștiința umană este mult superioară conștiinței animalelor, plantelor și obiectelor neînsuflețite. Hameroff este un susținător al teoriei panpsihismului, care are în vedere animația generală a naturii. Deci, în urma gândurilor sale, singurul creier care este predispus la o evaluare subiectivă reală și la introspecție este cel care constă din materie biologică.

Ideea lui Hameroff pare interesantă, dar se află și în afara curentului principal al opiniei științifice. Este adevărat că încă nu știm cum apare conștiința și conștiința de sine în creierul nostru. Știm doar că este așa. Prin urmare, este posibil să-l considerăm ca un proces supus regulilor generale ale fizicii? Poate. Conform aceluiași Marino, conștiința nu poate fi reprodusă într-un flux de „zerouri” și „unii”, dar acest lucru nu înseamnă că nu ne putem îndepărta de paradigma general acceptată cunoscută sub numele de arhitectură von Neumann și de a crea un sistem hibrid AI în care conștiința artificială vor fi create cu participarea componentelor biologice.

Biopod din filmul „Existence”
Biopod din filmul „Existence”

Biopod din filmul „Existence”

Ed Boyden, neurocientific la Synthetic Neurobiology Group și lector senior la MIT Media Lab, spune că suntem prea tineri ca specie pentru a pune întrebări de acest gen.

„Nu cred că avem o definiție funcțională a conștiinței care poate fi utilizată direct pentru a o măsura sau a o crea artificial”, a spus Boyden.

„Din punct de vedere tehnic, nici nu poți spune dacă sunt conștient. Astfel, în acest moment este foarte dificil să ghiciți chiar dacă mașinile vor putea să o găsească."

Boyden încă nu crede că nu vom putea niciodată să recreăm conștiința într-un shell alternativ (de exemplu, într-un computer), dar recunoaște că în acest moment există dezacord în rândul oamenilor de știință cu privire la ce anume va fi important pentru crearea unei astfel de emulații a minții digitale.

„Trebuie să facem mult mai multă muncă pentru a înțelege care este exact legătura cheie”, spune Boyden.

Chalmers, la rândul său, ne amintește că nici nu ne-am dat seama cum se trezește conștiința într-un creier viu, deci ce putem spune despre mașini. În același timp, el crede că încă nu avem motive să credem că mașinile biologice pot avea conștiință, în timp ce cele sintetice nu.

„Odată ce înțelegem cum apare conștiința în creier, putem înțelege câte mașini vor putea avea această conștiință”, comentează Chalmers.

Ben Herzel, șeful Hanson Robotics și fondatorul Fundației OpenCog, spune că avem deja teorii și modele interesante pentru modul în care conștiința se manifestă în creier, dar niciuna nu ajunge la un numitor comun și nu dezvăluie toate detaliile.

„Aceasta este încă o întrebare deschisă, al cărei răspuns se ascunde în spatele a doar câteva opinii diferite. Problema este, de asemenea, legată de faptul că mulți oameni de știință aderă la diferite abordări filosofice ale descrierii conștiinței, chiar dacă sunt de acord cu fapte și teorii științifice bazate pe observații științifice ale activității creierului și computerelor."

Cum putem determina conștiința unei mașini?

Apariția conștiinței într-o mașină este doar o întrebare. Nu mai puțin dificilă este întrebarea cu privire la modul exact în care putem detecta conștiința într-un robot sau AI. Oamenii de știință precum Alan Turing au studiat această problemă timp de decenii, ajungând în cele din urmă la teste de limbaj pentru a determina dacă un respondent a fost conștient. Oh, dacă ar fi atât de simplu. Concluzia este că robotii de chat avansați (programe de comunicare cu oamenii) sunt deja capabili să înconjoare persoane care încep să creadă că există o persoană vie în fața lor, nu o mașină. Cu alte cuvinte, avem nevoie de un mod mai eficient și mai convingător de verificare.

„Definiția individualității în inteligența mașinii este complicată de problema„ zombieului filosofic”. Cu alte cuvinte, puteți crea o mașină care va fi foarte, foarte bună la imitarea comunicării umane, dar în același timp nu va avea propria identitate și conștiință”, spune Hughes.

Cele două difuzoare inteligente Google Home fac discuții mici
Cele două difuzoare inteligente Google Home fac discuții mici

Cele două difuzoare inteligente Google Home fac discuții mici

Am asistat recent la un exemplu excelent în acest sens, când o pereche de boxe inteligente Google Home au vorbit între ele. Toate acestea au fost filmate și transmise în direct. În ciuda faptului că nivelul de conștiință de sine al ambilor vorbitori nu era mai mare decât o cărămidă, însăși natura conversației, care a devenit din ce în ce mai intensă în timp, seamănă cu comunicarea a două ființe umanoide. Și acest lucru, la rândul său, dovedește încă o dată că problema diferenței dintre oameni și AI va deveni mai complicată și acută în timp.

O soluție, potrivit lui Hughes, nu este doar verificarea comportamentului sistemelor AI în teste precum testul Turing, ci și analizarea întregii complexități interne a acestui sistem, așa cum sugerează teoria lui Giulio Tononi. În această teorie, conștiința este înțeleasă ca informație integrată (F). Acesta din urmă, la rândul său, este definit ca cantitatea de informații creată de un complex de elemente, care este mai mare decât suma informațiilor create de elemente individuale. Dacă teoria lui Tononi este corectă, atunci putem folosi Ф nu numai pentru a determina comportamentul asemănător omului al sistemului, putem afla, de asemenea, dacă este suficient de complex pentru a avea propria noastră experiență conștientă asemănătoare omului. În același timp, teoria indică faptul că, chiar și cu un comportament diferit, nu asemănător comportamentului uman, precum și cu un mod diferit de gândire,sistemul poate fi considerat conștient dacă complexul informațiilor sale integrate va putea trece verificările necesare.

„Acceptarea faptului că atât sistemele de bursă, cât și sistemele computerizate de securitate pot avea conștiință ar fi un mare pas departe de antropocentrism, chiar dacă aceste sisteme nu prezintă durere și conștiință de sine. Acest lucru ne va deschide cu adevărat calea pentru a forma și a discuta problemele normelor etice postumane."

O altă soluție posibilă ar putea fi descoperirea corelaților neuronali ai conștiinței în mașini. Adică vorbim despre determinarea acelor părți ale mașinii care sunt responsabile pentru formarea conștiinței. Dacă mașina are astfel de piese și se comportă exact așa cum era de așteptat, atunci putem evalua cu adevărat nivelul de conștiință.

Ce drepturi ar trebui să le acordăm mașinilor?

Într-o zi robotul va privi o persoană în față și va cere drepturile omului. Dar le va merita? După cum sa menționat mai sus, în fața noastră în acest moment poate fi un „zombie” obișnuit, care se comportă așa cum a fost programat și care încearcă să ne înșele pentru a obține niște privilegii. În acest moment, trebuie să fim extrem de atenți să nu cădem în șmecherie și să împuternicim mașina inconștientă. Odată ce ne dăm seama cum să măsurăm mintea unei mașini și învățăm să evaluăm nivelurile conștiinței și conștiinței de sine, abia atunci putem începe să vorbim despre posibilitatea de a ne gândi dacă agentul care stă în fața noastră merită anumite drepturi și protecție sau nu merită.

Din fericire pentru noi, acest moment nu va veni în curând. Pentru început, dezvoltatorii de AI trebuie să creeze un „creier digital de bază” prin finalizarea emulației sistemului nervos de viermi, gândaci, șoareci, iepuri și așa mai departe. Aceste emulații de computer pot exista ca avatare digitale și roboți în lumea reală. De îndată ce se întâmplă acest lucru, aceste entități inteligente vor înceta să mai fie obiecte obișnuite de cercetare și își vor ridica statutul la subiecți îndreptățiți la evaluare morală. Dar asta nu înseamnă că aceste emulații simple vor merita automat echivalentul drepturilor omului. Mai degrabă, legea va trebui să-i apere împotriva abuzului și abuzului (în același mod în care apărătorii drepturilor omului protejează animalele de abuz în experimentele de laborator).

În cele din urmă, fie prin modelarea reală până la cel mai mic detaliu, fie prin dorința de a ne da seama cum funcționează creierul nostru dintr-un punct de vedere algoritmic și de calcul, știința va ajunge să creeze emulații computerizate ale creierului uman. În acest moment, ar trebui să fim deja capabili să determinăm prezența conștiinței în mașini. Cel puțin cineva ar dori să spere așa. Nici nu vreau să cred că putem găsi o modalitate de a trezi o scânteie de conștiință în mașină, dar în același timp noi înșine nu vom înțelege ce am făcut. Va fi un adevărat coșmar.

Odată ce roboții și AI câștigă aceste abilități de bază, protejatul nostru computerizat va trebui să treacă testele de personalitate. Încă nu avem o „rețetă” universală pentru conștiință, dar setul obișnuit de măsurători, de regulă, este asociat cu evaluarea nivelului minim de inteligență, a autocontrolului, a simțului trecutului și viitorului, a empatiei și a capacității de a manifesta liberul arbitru.

„Dacă alegerile dvs. sunt predeterminate pentru dvs., atunci nu puteți atribui valoare morală deciziilor care nu vă aparțin”, comentează MacDonald-Glenn.

Numai după atingerea acestui nivel de dificultate în evaluare, un aparat va fi eligibil pentru a deveni candidat la drepturile omului. Cu toate acestea, este important să înțelegem și să acceptăm faptul că roboții și AI vor avea nevoie cel puțin de drepturi de protecție de bază dacă vor trece testele. De exemplu, omul de știință și futurist canadian George Dvorsky consideră că roboții și AI vor merita următorul set de drepturi dacă pot trece testul de personalitate:

- Dreptul de a nu vă deconecta de voința cuiva;

- Dreptul la acces nelimitat și complet la propriul cod digital;

- Dreptul de a vă proteja codul digital împotriva influențelor externe împotriva voinței dumneavoastră;

- Dreptul de a copia (sau nu copia) personal;

- Dreptul la viață privată (și anume, dreptul de a ascunde starea psihologică actuală).

În unele cazuri, este posibil ca aparatul să nu-și poată afirma în mod independent drepturile, de aceea este necesar să se prevadă posibilitatea când oamenii (precum și ceilalți cetățeni care nu sunt persoane) pot acționa ca reprezentant al acestor candidați pentru persoane fizice. Este important să înțelegem că un robot sau AI nu trebuie să fie perfect intelectual și moral pentru a putea trece o evaluare a personalității și a pretinde echivalentul drepturilor omului. Este important să ne amintim că, în aceste aspecte, oamenii sunt, de asemenea, departe de a fi ideali, astfel încât aceleași reguli vor fi aplicate în mod echitabil mașinilor inteligente. Inteligența este în general un lucru dificil. Comportamentul uman este adesea foarte spontan, imprevizibil, haotic, inconsecvent și irațional. Creierul nostru este departe de a fi ideal, așa că trebuie să ținem cont de acest lucru atunci când luăm decizii cu privire la IA.

În același timp, o mașină conștientă de sine, ca orice cetățean responsabil și care respectă legea, trebuie să respecte legile, normele și regulile prescrise de societate. Cel puțin dacă își dorește cu adevărat să devină o persoană autonomă cu drepturi depline și o parte a acestei societăți. Luați, de exemplu, copii sau persoane cu dizabilități mintale. Au drepturi? Cu siguranță. Dar noi suntem responsabili pentru acțiunile lor. Ar trebui să fie același lucru cu roboții și AI. În funcție de capacitățile lor, ei trebuie fie să fie responsabili pentru ei înșiși, fie să aibă un tutore care nu numai că poate acționa ca apărător al drepturilor lor, ci și să își asume responsabilitatea pentru acțiunile lor.

Dacă ignorați această întrebare

Odată ce utilajele noastre ating un anumit nivel de complexitate, nu le mai putem ignora din perspectiva societății, a instituțiilor puterii și a dreptului. Nu vom avea niciun motiv imperios pentru a le nega drepturile omului. În caz contrar, aceasta va constitui discriminare și sclavie.

Crearea unei limite clare între ființe biologice și mașini va arăta ca o expresie clară a superiorității umane și șovinismului ideologic - oamenii biologici sunt speciali și contează doar inteligența biologică.

„Dacă ne luăm în considerare dorința sau dorința de a ne extinde limitele moralei și chintesența conceptului de individualitate, atunci întrebarea importantă va suna astfel: ce fel de oameni vrem să fim? Urmăm să respectăm „regula de aur” în această chestiune (faceți cu restul așa cum ați dori să fiți tratați cu dvs.) sau vom ignora valorile noastre morale?”Întreabă MacDonald-Glenn.

Împuternicirea AI va fi un precedent important în istoria omenirii. Dacă putem vedea IA ca indivizi sociali egali, atunci aceasta va fi o reflectare directă a coeziunii noastre sociale și o dovadă a sprijinului nostru pentru un simț al dreptății. Eșecul nostru de a aborda această problemă s-ar putea transforma într-un protest social general și, poate, chiar într-o confruntare între IA și oameni. Și având în vedere potențialul superior al inteligenței mașinilor, acesta ar putea fi un adevărat dezastru pentru acesta din urmă.

De asemenea, este important să ne dăm seama că respectarea drepturilor roboților în viitor poate fi benefică și pentru alți indivizi: cyborgi, persoane transgenice cu ADN străin, precum și persoanele cu creier copiat, digitalizat și încărcat în supercalculatoare.

Suntem încă departe de a crea o mașină care merită drepturile omului. Cu toate acestea, atunci când ne gândim cât de complexă este problema și ce anume este în joc - atât pentru inteligența artificială, cât și pentru oameni - cu greu se poate spune că planificarea din timp va fi inutilă.

NIKOLAY KHIZHNYAK

Recomandat: