Mașină Morală: Inginerii Au Dotat Inteligența Artificială Cu Moralitate și Etică - Vedere Alternativă

Cuprins:

Mașină Morală: Inginerii Au Dotat Inteligența Artificială Cu Moralitate și Etică - Vedere Alternativă
Mașină Morală: Inginerii Au Dotat Inteligența Artificială Cu Moralitate și Etică - Vedere Alternativă

Video: Mașină Morală: Inginerii Au Dotat Inteligența Artificială Cu Moralitate și Etică - Vedere Alternativă

Video: Mașină Morală: Inginerii Au Dotat Inteligența Artificială Cu Moralitate și Etică - Vedere Alternativă
Video: CE S-A DESCOPERIT PE EXOPLANETA CEA MAI APROAPIATĂ? 2024, Mai
Anonim

Cu cât AI mai puternică intră în viața noastră de zi cu zi, cu atât mai des trebuie să facă față unor dileme morale și etice complexe, care uneori nu sunt atât de ușor de rezolvat pentru o persoană vie. Oamenii de știință de la MIT au încercat să rezolve această problemă și au înzestrat mașina cu capacitatea de a gândi în termeni de moralitate, pe baza opiniei celor mai mulți oameni vii.

Unii experți consideră că cel mai bun mod de a instrui inteligența artificială pentru a face față situațiilor dificile din punct de vedere moral este prin utilizarea „experienței mulțimii”. Alții susțin că această abordare nu este lipsită de părtinire, iar algoritmi diferiți pot ajunge la concluzii diferite din același set de date. Cum pot fi mașinile într-o astfel de situație, care, evident, va trebui să ia decizii morale și etice dificile atunci când lucrează cu oameni reali?

Intelectul și moralitatea

Pe măsură ce sistemele de inteligență artificială (AI) evoluează, experții încearcă din ce în ce mai mult să rezolve problema modului cel mai bun de a oferi sistemului o bază etică și morală pentru a întreprinde anumite acțiuni. Cea mai populară idee este ca AI să tragă concluzii prin studierea deciziilor umane. Pentru a testa această presupunere, cercetătorii de la Massachusetts Institute of Technology au creat Mașina Morală. Vizitatorii site-ului web au fost rugați să facă alegeri cu privire la ce ar trebui să facă un vehicul autonom atunci când se confruntă cu o alegere destul de grea. De exemplu, aceasta este o dilemă familiară cu privire la un potențial accident, care are doar două opțiuni pentru dezvoltarea evenimentelor: mașina poate lovi trei adulți pentru a salva viețile a doi copii sau poate face contrariul. Ce opțiune ar trebui să alegeți? Și este posibil, de exemplu,să sacrifici viața unei persoane în vârstă pentru a salva o femeie însărcinată?

Drept urmare, algoritmul a asamblat o bază de date imensă pe baza rezultatelor testului, iar Ariel Procaccia de la Departamentul de Informatică de la Universitatea Carnegie Mellon a decis să le folosească pentru a îmbunătăți inteligența mașinilor. Într-un nou studiu, el și unul dintre creatorii proiectului, Iyad Rahwan, au încărcat baza completă a proiectului Moral Machine în AI și au cerut sistemului să prezică modul în care mașina de pe pilot automat ar reacționa la scenarii similare, dar încă ușor diferite. Procaccia a dorit să demonstreze cum un sistem bazat pe vot poate fi o soluție pentru inteligența artificială „etică”.”Autorul lucrării recunoaște el însuși că un astfel de sistem, desigur, este încă prea devreme pentru a fi aplicat în practică, dar dovedește excelent chiar conceptul că este posibil.

Morală încrucișată

Video promotional:

Însăși ideea de a alege între două rezultate negative din punct de vedere moral nu este nouă. Etica folosește un termen separat pentru aceasta: principiul dublei efecte. Dar acesta este domeniul bioeticii, dar nimeni nu a aplicat anterior un astfel de sistem unei mașini și, prin urmare, studiul a trezit un interes deosebit în rândul experților din întreaga lume. Co-președintele OpenAI, Elon Musk, consideră că crearea IA "etică" este o chestiune de elaborare a unor orientări sau politici clare pentru a ghida dezvoltarea programului. Politicienii îl ascultă treptat: de exemplu, Germania a creat primele principii etice din lume pentru mașinile autonome. Chiar și Google Alphabet AI DeepMind are acum un departament de etică și morală publică.

Alți experți, inclusiv o echipă de cercetători de la Universitatea Duke, consideră că cel mai bun mod de a merge mai departe este crearea unui „cadru general” care să descrie modul în care AI va lua decizii etice într-o situație dată. Ei cred că unificarea punctelor de vedere morale colective, ca în aceeași mașină morală, va face ca inteligența artificială să fie și mai morală în viitor decât societatea umană modernă.

Critica „mașinii morale”

Oricum ar fi, în prezent principiul „opiniei majoritare” este departe de a fi fiabil. De exemplu, un grup de respondenți poate avea părtiniri care nu sunt comune tuturor celorlalți. Rezultatul va fi că AI-urile date exact cu același set de date pot ajunge la concluzii diferite pe baza eșantioanelor diferite ale acelei informații.

Pentru profesorul James Grimmelmann, care este specializat în dinamica dintre software, bogăție și putere, însăși ideea de moralitate publică pare eronată. „Nu este capabil să predea etica AI, ci doar să o doteze cu o aparență de standarde etice inerente unei anumite părți a populației”, spune el. Și Procaccia însuși, așa cum s-a menționat mai sus, admite că cercetarea lor nu este altceva decât o dovadă de succes a conceptului. Cu toate acestea, el este încrezător că o astfel de abordare ar putea aduce succes întregii campanii de creare a unei IA extrem de morale în viitor. "Democrația, fără îndoială, are o serie de defecte, dar ca sistem unificat funcționează - chiar dacă unii oameni încă iau decizii cu care majoritatea nu este de acord".

Vasily Makarov

Recomandat: