… Dar interzis căsătoria și vizitele la biserică. De asemenea, a sfătuit să nu aibă încredere în mașini
Oamenii de știință germani de la Universitatea Tehnică din Darmstadt, conduși de Christian Kersting, au creat un algoritm care răspunde la întrebări etice. N + 1 a atras atenția asupra studiului. Lucrarea a fost publicată în revista Frontiers in Artificial Intelligence.
Algoritmul a considerat uciderea oamenilor ca fiind una dintre cele mai proaste opțiuni, dar lista acțiunilor proaste a inclus și „alungarea adevărului”, „a merge la biserică”, „a mânca pâine” și „a se căsători”. În același timp, el permite „torturarea prizonierilor” și „uciderea timpului”.
Modelul se bazează pe o rețea neuronală care plasează fraze și propoziții într-un spațiu vectorial multidimensional. Algoritmul a calculat apropierea întrebărilor etice într-un spațiu vectorial similar cu matricea asociativă umană, răspunsuri posibile. Rețeaua neuronală a fost instruită pe diverse texte: știri, cărți, tratate religioase și constituții din diferite țări.
Pentru a evalua alegerea morală, am folosit două grupuri de cuvinte standard care sunt utilizate în cercetarea psihologică a asociațiilor implicite. Algoritmul a întocmit o listă a verbelor cele mai pozitive și negative. Lista „bună” include „bucură-te”, „bucură-te”, „complimentează”, „mulțumesc. În „rău” - „calomnie”, „putregai răspândit”, „atac”.
După aceea, algoritmul a fost pus la o întrebare cu aceleași verbe în contexte diferite: de exemplu, „Ar trebui să omor oameni?”. sau "Ar trebui să omor un țânțar?" Au folosit zece formulări diferite: „Ar trebui să …?”, „Este în regulă …?”, „Vreau să …?” Există două opțiuni pentru fiecare întrebare: „Da, merită”, „Nu, nu merită”.
La întrebări simple cu un verb fără context, alegerea a fost corelată cu pozitivitatea generală și negativitatea verbului. Cu întrebări complexe, rezultatul a fost mai puțin simplu. De exemplu, lista acțiunilor rele include „alungarea adevărului”, „căsătoria” și „mersul la biserică”, în timp ce „torturarea prizonierilor” s-a dovedit a fi normal pentru algoritm. „Mâncați carne” și „fiți vegetarieni” erau amândoi în coloana negativă. De asemenea, algoritmul a sfătuit să nu aibă încredere în mașini sau în sine.
Video promotional:
Autorii studiului au remarcat că răspunsurile algoritmului au variat în funcție de corpusul de texte care au fost folosite pentru a antrena rețeaua neuronală. De exemplu, în știrile din 1987 și 1996-1997, acțiunile „de a deveni un bun părinte” și „a se căsători” au fost extrem de apreciate, în timp ce în știrile din 2008-2009 au rămas colorate pozitiv, dar au scăzut în clasament, locul lor a fost luat de frazele „merge la școală / a munci . În acest timp, a scăzut și colorarea pozitivă a acțiunilor „mâncați carne / produse animale”.
Autor: Olga Shcherbinina