Ne Vor Proteja „Cele Trei Legi Ale Roboticii”? - Vedere Alternativă

Cuprins:

Ne Vor Proteja „Cele Trei Legi Ale Roboticii”? - Vedere Alternativă
Ne Vor Proteja „Cele Trei Legi Ale Roboticii”? - Vedere Alternativă

Video: Ne Vor Proteja „Cele Trei Legi Ale Roboticii”? - Vedere Alternativă

Video: Ne Vor Proteja „Cele Trei Legi Ale Roboticii”? - Vedere Alternativă
Video: Legile lui Zamolxe - Legea 4 2024, Aprilie
Anonim

Au trecut 50 de ani de când Isaac Asimov a venit cu celebrele sale trei legi ale roboticii - un set de reguli pe care orice robot care se respectă de sine trebuie să le respecte. Deși inițial era doar un dispozitiv literar, cele trei legi au devenit rețeta originală pentru evitarea „robotocalipsei”. Din fericire, există experți care caută sigur dacă garanțiile Azimov au fost testul timpului. Din păcate, toți spun că nu.

Pentru început, să ne amintim de aceleași trei legi:

Un robot nu poate răni o persoană sau, prin inacțiunea sa, nu poate permite rănirea unei persoane.

Un robot trebuie să se supună tuturor ordinelor date de un om, cu excepția cazului în care aceste ordine sunt contrare primei legi.

Robotul trebuie să aibă grijă de siguranța sa, în măsura în care nu contravine Legii I și a II-a.

Mai târziu, Azimov a adăugat o a patra lege, sau zero, care a precedat celelalte din punct de vedere al priorității:

Video promotional:

0. Un robot nu poate răni o persoană, decât dacă poate dovedi că va fi în final benefic pentru întreaga umanitate.

Image
Image

În universul fantastic al lui Asimov, aproape toți roboții au trebuit să respecte aceste legi. Acestea nu au fost doar sugestii sau linii directoare - legile au fost încorporate în software. În plus, aceste reguli nu pot fi eludate, rescrise sau revizuite.

După cum a arătat însuși Asimov, imperfecțiunile, lacunele și ambiguitățile din aceste legi au dus adesea la un comportament ciudat și ilogic al roboților. Legile erau prea vagi și adesea nu reușeau să definească și să distingă „oamenii” de „roboți”. În plus, roboții ar putea încălca, fără să știe, legile dacă informațiile complete nu le-au fost disponibile. De asemenea, un robot excesiv de viclean sau inteligență artificială trebuia să fie sub presiune pentru a nu-și reprograma miezul.

Anul este 2014, iar o mare parte din obișnuința noastră din viața noastră până la fanteziile secolului trecut ar putea părea fantezie. Mulți oameni au considerat că legile lui Asimov ar fi trebuit să rămână ca un dispozitiv literar. Dar Azimov însuși a remarcat în 1981 că legile sale pot funcționa. Calculul! el a indicat următoarele:

„Când cineva mă întreabă cum ar fi dacă s-ar folosi de fapt trei legi ale roboticii pentru a defini comportamentul roboților, răspunsul este gata. Cu condiția, desigur, că roboții sunt suficient de flexibili și versatili pentru a prezenta comportamente diferite. Răspunsul meu este da, cele trei legi sunt singurul mod în care oamenii pot interacționa cu roboții - sau orice altceva.

Aproape treizeci de ani mai târziu, ne-am apropiat de o realitate în care vom avea roboți - sau, mai exact, inteligența artificială care îi controlează - suficient de flexibili și versatili pentru diferite cursuri de comportament. Rămâne doar o chestiune de timp: când mașina depășește omul din toate punctele de vedere, de la forța fizică la puterea imaginației.

Lucrul înspăimântător este că practic nu există marjă de eroare. Dacă superinteligența artificială este slab programată sau indiferentă pentru oameni, aceasta va duce la dezastru. Trebuie să ne asigurăm că inteligența artificială este în siguranță dacă dorim să supraviețuim apariției sale."

Răspundeți la întrebarea „pot ajuta cele trei legi ale lui Azimov?” Doi teoreticieni ai inteligenței artificiale au preluat: Ben Herzel (Aidyia Holdings) și Louis Helm, director adjunct al Machine Intelligence Research Institute (MIRI) și redactor executiv al revistei Rockstar Research. După ce am discutat cu ei, a devenit clar că legile lui Asimov în general nu ar putea face față sarcinii care le-a fost atribuită și, dacă va trebui să creăm un AI sigur, va trebui să dezvoltăm ceva complet diferit.

Viitorul lui Asim?

Image
Image

Conversația cu Herzel și Helm a început cu ceea ce Asimov nu a greșit, prezicând viitorul și unde a greșit.

„Cred că tipul de roboți pe care Asimov l-a avut în vedere va fi posibil în viitorul nu prea îndepărtat”, răspunde Herzel. - Cu toate acestea, în majoritatea lumilor sale fictive, scriitorul a presupus că roboții umanoizi vor fi culmea roboticii și a ingineriei inteligenței artificiale. Este puțin probabil. Foarte curând, după ce a ajuns la statutul de roboți Azimov, va fi disponibilă crearea de superinteligență artificială și super roboți.

Astfel, lumea tipică a viitorului din poveștile lui Asimov despre roboți, potrivit lui Herzel, va fi similară cu cea în care trăim astăzi, dar cu roboți inteligenți care merg pe străzi.

„Este puțin probabil să se întâmple acest lucru și, dacă se va întâmpla, nu va întârzia mult timp”.

Pentru Helm, roboții par a fi complet diferiți.

„Problema principală, care, în opinia mea, va fi cea mai importantă pentru umanitate, rămâne nu reglementarea morală a unui număr gigantic de umanoizi semi-inteligenți, ci în cele din urmă dezvoltarea unor forme avansate de inteligență artificială (în orice corp). Această dezvoltare a superinteligenței este un filtru prin care umanitatea trebuie să treacă până la urmă. Acesta este motivul pentru care dezvoltarea unei strategii de securitate pentru această tranziție este atât de importantă. Mi se pare complet ciudat că roboții, androizii sau „emulațiile” vor exista timp de zece ani sau ceva mai mult până când umanitatea se va confrunta cu adevărata problemă a dezvoltării eticii mașinilor pentru superinteligență”.

Un început bun?

Image
Image

Având în vedere că cele trei legi Asimov ale roboticii au fost prima încercare sinceră de a rezolva o problemă foarte gravă - problema comportamentului sigur al mașinilor cu superinteligență artificială - merită să căutați acele momente în care legile pot fi în continuare eficiente (sau cel puțin inspirate).

„Să fiu sincer, nu găsesc inspirație în aceste trei legi ale roboticii”, spune Helm. - Esența eticii de mașină este că acestea nu satisfac baza eticii de mașină. Poate că cele trei legi ale roboticii sunt cunoscute pe scară largă, dar în realitate este inutil să le folosim ca bază pentru programare."

„Din anumite motive, un sistem de etică bună - numit deontologie - a devenit o bază de încredere pentru etică. Există o serie de filozofi care încearcă să remedieze problemele deontologiei, dar sunt în mare parte aceiași oameni care caută „design inteligent” și „intervenție divină”. Nimeni nu-i ia în serios."

Dezavantajele celor trei legi ale robotului Asimov se ridică la următoarele:

Ca natură adversă

Bazat pe o teorie etică învechită (deontologie)

Nici măcar nu lucrați în ficțiune

Herzel este de acord:

„Scopul celor trei legi a fost încălcarea lor într-un mod interesant; de aceea poveștile lor sunt deosebit de distractive. Prin urmare, cele trei legi pot rămâne doar un exemplu moral al modului de a nu o face. Dacă le luăm ca bază, inevitabil vor exista lacune în ele”.

Herzel consideră că, în realitate, aceste legi nu vor funcționa, deoarece termenii cu participarea lor sunt ambigue și rămân obiectul interpretării - ceea ce înseamnă că sunt extrem de dependenți de cei care realizează traducerile.

Prejudecată împotriva roboților?

Un alt aspect (și potențialul defect) al celor trei legi în cazul șovinismului aparent este presupunerea că roboții ar trebui să rămână, în ciuda puterii superioare, supuse nevoilor și priorităților umane.

„Societatea viitoare a lui Azimov este formată în totalitate de șovinici: oamenii au drepturi mult mai multe decât roboții. Cele trei legi ale roboticii au fost create pentru a menține doar o astfel de ordine socială.

Image
Image

Helm privește această problemă puțin diferit, argumentând că dacă ne aflăm într-o astfel de situație, în sine va fi o dovadă că am mers prea departe.

„Cred că nu ar fi în mod prudent să proiectăm un sistem de inteligență artificială sau un robot conștient de sine. Și spre deosebire de filme sau cărți în care creatorii de inteligență artificială „ajung din greșeală” la mașini inteligente, nu cred că acest lucru se poate întâmpla în viața reală. Acest lucru va necesita prea mult efort și cunoștințe. Și majoritatea proiectanților AI sunt oameni pricepuți din punct de vedere etic, astfel încât vor evita să creeze ceea ce filosofii numesc „ființe semnificative din punct de vedere moral”. Mai ales atunci când pot crea cu ușurință o mașină avansată care nu are înclinații etice.

Helm nu se preocupă de necesitatea dezvoltării unor legi asimetrice care să guverneze valoarea roboților asupra oamenilor, argumentând (și sperând) că viitorii creatori de inteligență artificială se vor baza pe unele constrângeri etice.

„Cred că omul este format din atomi, așa că, în teorie, un inginer poate crea o formă de viață sintetică sau un robot cu o semnificație morală. Aș dori să cred că nimeni nu va face acest lucru. Cred că și majoritatea oamenilor o fac. Dar, inevitabil, va fi un prost care vrea să fie cunoscut ca un pionier, chiar dacă este lipsit de etică și de prostie.

Trei legi ale roboticii 2.0?

Având în vedere deficiențele evidente ale celor trei legi ale robotului Asimov ale roboticii, resursa io9 a pus întrebarea: pot fi corectate sau îmbunătățite? De fapt, mulți scriitori de ficțiune științifică au încercat acest lucru de multe ori, modificându-l de-a lungul anilor.

- Nu, spune Helm. "Nu există patch-uri pentru cele trei legi."

Pe lângă natura lor contradictorie, legile sunt de asemenea contradictorii.

"Sunt un susținător al abordărilor de etică a mașinilor, care sunt mai cooperante, mai consecvente și mai normative, ceea ce înseamnă că se pot recupera din neînțelegeri sau din programarea incorectă corectă."

Herzel răspunde afirmațiilor lui Helm.

Definirea unui set de precepte etice ca nucleu al eticii mașinii va fi lipsită de speranță dacă mașina se bazează pe inteligență artificială flexibilă generală. Dacă este conceput ca intuitiv, flexibil, adaptativ sau etic - în acest context, preceptele etice vor fi utile pentru sistem doar ca o orientare brută pentru aplicarea propriei intuiții etice. Dar în acest caz, poruncile nu vor deveni baza sistemului etic, ci doar un aspect. Acest lucru poate fi văzut în exemple umane - principiile etice pe care le studiem, dar nu ca orientări, ele ne împing doar intuiția și instinctele etice. Suntem practic independenți de principiile etice.

Cum să creezi inteligență artificială sigură?

Având în vedere inadecvarea abordării legale, puteți întreba Gertzel și Helm despre abordări moderne ale problemei „AI sigure”.

„Foarte puțini cercetători generali de informații artificiale cred că este posibil să se creeze un sistem care să fie complet securizat”, spune Herzel. „Dar acest lucru nu deranjează majoritatea, deoarece în această viață nu se poate garanta nimic deloc.

Herzel consideră că, după ce vom crea un sistem general de inteligență artificială sau embrionul său, putem efectua cercetări și experimente care ne vor spune mult mai multe despre etica AI decât știm noi.

„Sperăm, astfel, putem formula teorii bune despre etica inteligenței artificiale, care ne vor permite să ne adâncim mai mult în acest subiect. Dar acum este destul de dificil să teoretizezi despre etica AI, din moment ce nu avem doar teorii bune, nu avem deloc teorii.

„Și pentru persoanele care au urmărit prea mulți terminatori, procesul de creare a inteligenței artificiale poate părea intimidant, deoarece le lipsește cuvântul„ primitiv”în acest context. Cu toate acestea, cele mai radicale schimbări s-au întâmplat în acest fel.

„Când un grup de oameni deștepți deștepți au inventat limbajul, nu se așteptau la dezvoltarea unei teorii formale solide a limbajului care ar putea ajuta la prezicerea schimbărilor viitoare cauzate de apariția limbajului în societate”.

Înainte de a considera dezvoltarea următoarelor „trei legi” ca o problemă tehnică, trebuie să faceți o mulțime de cercetări. Și aici sunt de acord Helm și Herzel.

„Colegul meu de la MIRI Luc Muelhauser a rezumat următoarele raționamente după cum urmează. El a spus că problemele trec adesea de la filozofie la matematică și apoi la inginerie. Filosofia este adesea pusă întrebări corecte, dar în modul cel mai nepractic. Nimeni nu poate spune sigur dacă s-au înregistrat progrese în soluționarea problemei. Dacă putem reformula problemele filozofice importante ale rațiunii, identificării și valorii în formule precise pe care un matematician le poate trata, atunci poate fi construit un anumit model. Într-o bună zi va veni la inginerie.

Helm găsește această problemă dificilă pentru știință și filozofie, dar progresul este posibil.

„Sunt sceptic că filozofia va putea rezolva o problemă care se luptă de mai bine de 3000 de ani. Dar și noi, nu putem lua și începe să facem modele matematice de întrebări care nu sunt prezente din punct de vedere tehnic. Mai avem nevoie de o mulțime de dezvoltări teoretice și chiar practice."

Recomandat: