Construirea Unei Mașini Morale: Cine Va Fi Responsabil Pentru Etica Mașinilor Care Se Conduc Cu Sine? - Vedere Alternativă

Cuprins:

Construirea Unei Mașini Morale: Cine Va Fi Responsabil Pentru Etica Mașinilor Care Se Conduc Cu Sine? - Vedere Alternativă
Construirea Unei Mașini Morale: Cine Va Fi Responsabil Pentru Etica Mașinilor Care Se Conduc Cu Sine? - Vedere Alternativă

Video: Construirea Unei Mașini Morale: Cine Va Fi Responsabil Pentru Etica Mașinilor Care Se Conduc Cu Sine? - Vedere Alternativă

Video: Construirea Unei Mașini Morale: Cine Va Fi Responsabil Pentru Etica Mașinilor Care Se Conduc Cu Sine? - Vedere Alternativă
Video: ASA se munceste in AUTORULOTA - Vlog 1081 2024, Martie
Anonim

Mergi pe o autostradă când un bărbat iese pe un drum aglomerat. Mașinile se mișcă în jurul tău și ai o secundă separată pentru a lua o decizie: încearcă să eviți o persoană și să creezi riscul de accident? Continuați să conduceți în speranța că va avea timp? A frana? Cum evaluați șansele de a avea un copil legat pe bancheta din spate? În multe privințe, aceasta este o „dilemă morală” clasică, o problemă cu căruciorul. Are un milion de opțiuni diferite care vă permit să identificați prejudecățile umane, dar esența este aceeași.

Te afli într-o situație în care viața și moartea sunt în joc, nu există o alegere simplă, iar decizia ta va determina, de fapt, cine trăiește și cine moare.

Dilema căruciorului și inteligența artificială

Noua lucrare a MIT, publicată săptămâna trecută în revista Nature, încearcă să vină cu o soluție de lucru pentru problema căruciorului prin recrutarea a milioane de voluntari. Experimentul a început în 2014 și a fost un succes, primind peste 40 de milioane de răspunsuri din 233 de țări, ceea ce îl face unul dintre cele mai mari studii morale efectuate vreodată.

O persoană poate lua astfel de decizii în mod inconștient. Este dificil să cântărești toate sistemele etice și cerințele morale atunci când mașina ta circulă pe drum. Dar în lumea noastră, deciziile sunt luate din ce în ce mai mult de algoritmi, iar calculatoarele pot răspunde mai repede decât noi.

Situațiile ipotetice cu mașini cu autovehicule nu sunt singurele decizii morale pe care algoritmii trebuie să le ia. Algoritmii medicali vor alege cine primește tratament cu resurse limitate. Dronele automate vor alege cât de „daune colaterale” sunt acceptabile într-un angajament militar individual.

Video promotional:

Nu toate principiile morale sunt egale

„Soluțiile” pentru cărucior sunt la fel de variate ca și problemele în sine. Cum vor lua mașinile decizii morale atunci când fundamentele moralei și eticii nu sunt universal acceptate și s-ar putea să nu aibă soluții? Cine poate determina dacă un algoritm face bine sau greșit?

Abordarea de crowdsourcing adoptată de oamenii de știință Moral Machine este destul de pragmatică. În cele din urmă, pentru ca publicul să accepte autovehicule, trebuie să accepte fundamentul moral din spatele deciziilor lor. Nu va fi bine dacă eticienii sau avocații vor găsi o soluție care este inacceptabilă sau inacceptabilă pentru șoferii obișnuiți.

Rezultatele conduc la concluzia curioasă că prioritățile morale (și de aici deciziile algoritmice pe care oamenii le pot lua) depind de locul în care vă aflați.

În primul rând, oamenii de știință recunosc că este imposibil de știut frecvența sau natura acestor situații în viața reală. Oamenii care au fost implicați într-un accident foarte des nu pot spune ce s-a întâmplat exact, iar gama de situații posibile împiedică o clasificare simplă. Prin urmare, pentru ca problema să poată fi urmărită, aceasta trebuie defalcată în scenarii simplificate, căutând reguli și principii morale universale.

Când faceți un sondaj, vi se prezintă treisprezece întrebări care necesită o simplă alegere da sau nu, încercând să restrângeți răspunsurile la nouă factori.

Ar trebui ca mașina să se transforme într-o altă bandă sau să continue mișcarea? Ar trebui să salvezi tineri, nu bătrâni? Femei sau bărbați? Animale sau oameni? Ar trebui să încercați să salvați cât mai multe vieți sau un copil „merită” doi vârstnici? Salvați pasagerii într-o mașină, nu pietoni? Cei care nu respectă regulile sau cei care nu respectă regulile? Ar trebui să salvezi oameni care sunt mai puternici din punct de vedere fizic? Dar oamenii cu statut social mai ridicat, cum ar fi medicii sau oamenii de afaceri?

În această lume ipotetică aspră, cineva trebuie să moară, iar tu vei răspunde la fiecare dintre aceste întrebări - cu diferite grade de entuziasm. Totuși, luarea acestor decizii dezvăluie, de asemenea, norme și prejudecăți culturale profund înrădăcinate.

Prelucrarea imensului set de date examinat de oamenii de știință produce reguli universale, precum și excepții curioase. Cei mai importanți trei factori, mediați în întreaga populație, au fost că toată lumea prefera să salveze mai multe vieți decât mai puține, oameni mai degrabă decât animale și tineri decât bătrâni.

Diferențe regionale

Puteți fi de acord cu aceste puncte, dar cu cât vă gândiți mai adânc la ele, cu atât concluziile morale vor fi mai tulburătoare. Mai mulți respondenți au ales să salveze criminalul peste pisică, dar, în general, au preferat să salveze câinele peste criminal. În media mondială, a fi bătrân este evaluat mai mare decât a fi fără adăpost, dar persoanele fără adăpost au fost mai puțin salvate decât oamenii grași.

Iar aceste reguli nu au fost universale: respondenții din Franța, Regatul Unit și Statele Unite au preferat tinerii, în timp ce respondenții din China și Taiwan erau mai dispuși să salveze persoanele în vârstă. Respondenții din Japonia au preferat să salveze pietonii peste pasageri, în timp ce în China preferă pasagerii decât pietonii.

Cercetătorii au descoperit că ar putea grupa răspunsurile pe țări în trei categorii: „Vest”, în special America de Nord și Europa, unde moralitatea se bazează în mare parte pe doctrina creștină; „Orientul” - Japonia, Taiwan, Orientul Mijlociu, unde predomină confucianismul și islamul; Țările „sudice”, inclusiv America Centrală și de Sud, alături de o puternică influență culturală franceză. Există o preferință mai puternică pentru sacrificiul feminin în segmentul Sud decât în orice altă parte. În segmentul estic, există o tendință mai mare de a salva tinerii.

Filtrarea după diferite atribute ale respondentului oferă opțiuni interesante interminabile. Este puțin probabil ca respondenții „foarte religioși” să preferă salvarea unui animal, dar atât respondenții religioși, cât și cei non-religioși exprimă o preferință aproximativ egală pentru salvarea persoanelor cu statut social ridicat (deși se poate spune că ar fi contrar unor doctrine religioase). Bărbații și femeile preferă să salveze femeile, dar bărbații sunt mai puțin înclinați să facă acest lucru.

Întrebări fără răspuns

Nimeni nu susține că această cercetare „rezolvă” cumva toate aceste probleme morale grele. Autorii studiului remarcă faptul că datele online de tip crowdsourcing implică prejudecăți. Dar chiar și cu o dimensiune mare a eșantionului, numărul de întrebări a fost limitat. Ce se întâmplă dacă riscurile se schimbă în funcție de decizia luată? Ce se întâmplă dacă algoritmul poate calcula că ai doar o șansă de 50% de a ucide pietoni, având în vedere viteza cu care te mișcai?

Edmond Awad, unul dintre autorii studiului, și-a exprimat prudență cu privire la interpretarea excesivă a rezultatelor. Discuția, în opinia sa, ar trebui să se transforme în analiza riscurilor - cine este mai mult sau mai puțin la risc - în loc să decidă cine moare și cine nu.

Dar rezultatul cel mai important al studiului a fost discuția care s-a arătat pe pământul său. Deoarece algoritmii încep să ia decizii din ce în ce mai importante care afectează viața oamenilor, este imperativ să avem o discuție continuă despre etica AI. Proiectarea unei „conștiințe artificiale” trebuie să includă opinia tuturor. Deși răspunsurile s-ar putea să nu fie întotdeauna ușor de găsit, cel mai bine este să încercați să formați un cadru moral pentru algoritmi, nepermițând algoritmilor să modeleze lumea singură fără control uman.

Recomandat: