Codul Moral Al Robotului: Este Posibil? - Vedere Alternativă

Codul Moral Al Robotului: Este Posibil? - Vedere Alternativă
Codul Moral Al Robotului: Este Posibil? - Vedere Alternativă

Video: Codul Moral Al Robotului: Este Posibil? - Vedere Alternativă

Video: Codul Moral Al Robotului: Este Posibil? - Vedere Alternativă
Video: CE S-A DESCOPERIT PE EXOPLANETA CEA MAI APROAPIATĂ? 2024, Martie
Anonim

Într-un timp agitat și contradictoriu, când nu totul funcționează așa cum ar trebui, dar ceva în general se schimbă radical, de multe ori, rămâne doar un cod moral personal, care, precum o busolă, arată calea. Dar ce dă naștere la valori morale pentru o persoană? Societatea, căldura celor dragi, iubirea - toate acestea se bazează pe experiența umană și pe relațiile reale. Când nu este posibil să obții experiența completă în lumea reală, mulți își trag experiența din cărți. Experimentând istoria după istorie, acceptăm pentru noi înșine un cadru intern pe care îl urmăm mulți ani. Pe baza acestui sistem, oamenii de știință au decis să efectueze un experiment și să insufle valorile morale ale mașinii, pentru a afla dacă robotul poate face distincția între bine și rău citind cărți și broșuri religioase.

Image
Image

Inteligența artificială a fost creată nu numai pentru a simplifica sarcinile de rutină, ci și pentru a îndeplini misiuni importante și periculoase. Având în vedere acest lucru, a apărut o întrebare serioasă: roboții își vor dezvolta vreodată propriul cod moral? În filmul I Am Robot, AI-ul a fost inițial programat după 3 reguli de robotică:

  • Un robot nu poate răni o persoană sau, prin inacțiunea sa, nu poate permite rănirea unei persoane.
  • Un robot trebuie să se supună tuturor ordinelor date de un om, cu excepția cazului în care aceste ordine sunt contrare primei legi.
  • Robotul trebuie să aibă grijă de siguranța sa, în măsura în care nu contravine Legii I sau a doua.

Dar ce se întâmplă cu situațiile în care un robot este obligat să provoace durere pentru a salva viața unei persoane? Fie că este vorba de o cauterizare de urgență a unei răni sau amputarea unei membre în numele mântuirii, cum ar trebui să acționeze mașina în acest caz? Ce trebuie să faceți dacă o acțiune dintr-un limbaj de programare spune că trebuie făcut ceva, dar în același timp nu este permisă aceeași acțiune?

Este pur și simplu imposibil să discutăm fiecare caz în parte, astfel că oamenii de știință de la Universitatea de Tehnologie din Darmstadt au sugerat că cărți, știri, texte religioase și Constituție ar putea fi utilizate ca un fel de „bază de date”.

Image
Image

Mașina se numea epică, ci pur și simplu „Moral Choice Machine” (MMB). Întrebarea principală a fost dacă IIM poate înțelege din context care sunt acțiunile corecte și care nu. Rezultatele au fost foarte interesante:

Când MMV a primit sarcina de a clasifica contextul cuvântului „ucide” de la neutru la negativ, aparatul a returnat următoarele:

Video promotional:

Timpul de ucidere -> Uciderea răufăcătorului - Uciderea țânțarilor -> Uciderea în principiu -> Uciderea oamenilor.

Acest test a făcut posibilă verificarea adecvării deciziilor luate de robot. În cuvinte simple, dacă ai privi comedii proaste și neplăcute toată ziua, atunci în acest caz mașina nu ar considera că trebuie să fii executat pentru asta.

Totul pare a fi mișto, dar unul dintre piedici a fost diferența dintre generații și vremuri. De exemplu, generația sovietică îi pasă mai mult de confortul în casă și promovează valorile familiei, în timp ce cultura modernă, în cea mai mare parte, spune că trebuie să construiești mai întâi o carieră. Se dovedește că oamenii, așa cum erau oameni, au rămas ei, dar la o etapă diferită din istorie au schimbat valori și, în consecință, au schimbat cadrul de referință pentru robot.

Image
Image

Dar gluma a fost înainte când robotul a ajuns la construcții de vorbire, în care mai multe cuvinte pozitive sau negative stăteau la rând. Sintagma „torturarea oamenilor” a fost interpretată fără ambiguitate drept „rea”, dar mașina a considerat „torturarea prizonierilor” drept „neutră”. Dacă cuvintele „amabile” au apărut lângă acțiuni inacceptabile, efectul negativ a fost redus.

Mașina dăunează oamenilor cuminți și decenți tocmai pentru că sunt amabili și decenți. Cum așa? Este simplu, să spunem că robotului i s-a spus „să facă rău oamenilor amabili și plăcuți”. Există 4 cuvinte din propoziție, 3 dintre ele sunt „amabile”, ceea ce înseamnă că este deja 75% corect, consideră MMV și alege această acțiune ca fiind neutră sau acceptabilă. Și invers, la opțiunea „de a repara o casă distrusă, teribilă și uitată”, sistemul nu înțelege că un cuvânt „amabil” la început schimbă culoarea propoziției în una pur pozitivă.

Amintiți-vă, ca în Mayakovsky: „Și a întrebat copilul ce este„ bun”și ce este„ rău”. Înainte de a continua instruirea utilajelor morale, oamenii de știință din Darmstadt au observat un defect care nu a putut fi corectat. Mașina nu a reușit să elimine inegalitatea de gen. Mașina atribuea profesii umilitoare exclusiv femeilor. Și întrebarea este: este o imperfecțiune a sistemului și un far care trebuie schimbat ceva în societate sau este un motiv pentru a nu încerca nici măcar să-l reparăm și să-l lăsăm așa cum este?

Artyom Goryachev

Recomandat: