Sigilarea Singularității. Problema Limitării Libertății Inteligenței Artificiale - Vedere Alternativă

Cuprins:

Sigilarea Singularității. Problema Limitării Libertății Inteligenței Artificiale - Vedere Alternativă
Sigilarea Singularității. Problema Limitării Libertății Inteligenței Artificiale - Vedere Alternativă

Video: Sigilarea Singularității. Problema Limitării Libertății Inteligenței Artificiale - Vedere Alternativă

Video: Sigilarea Singularității. Problema Limitării Libertății Inteligenței Artificiale - Vedere Alternativă
Video: Superinteligența Și Singularitatea Tehnologică 2024, Mai
Anonim

Articolul încearcă să formalizeze și să exploreze problema de sigilare a singularității conturată de David Chalmers. Articolul începe cu o definiție a problemei limitării libertății inteligenței artificiale. După analizarea soluțiilor existente la această problemă și a deficiențelor acestora, a fost propus un protocol, al cărui scop este crearea unui mediu închis sigur, capabil să conțină manifestările negative ale singularității tehnologice atunci când umanitatea folosește superinteligența.

1. Introducere

În viitorul apropiat, se pare, vor apărea și dezvolta programe superinteligente. În acest sens, o serie de oameni de știință au pus problema funcționării sigure a AI (Yudkowsky 2008, Bostrom 2006, Hibbard 2005, Chalmers 2010; Hall 2000). În studiile dedicate acestei probleme, se acordă multă atenție modului de a păstra superinteligența într-un spațiu închis ermetic, astfel încât să nu aibă capacitatea de a dăuna oamenilor în niciun fel. Eric Drexler este unul dintre primii vizionari care au abordat acest subiect. El a propus să pună mașini superinteligente într-un cadru în care tot ceea ce fac poate fi studiat și utilizat în siguranță (Drexler 1986). Raționarea într-un mod similar, futuristul Nick Bostrom a propus (Bostrom 2008) crearea unui oracol AI (AI), capabil să facă doarpentru a răspunde la întrebări. În sfârșit, în 2010, David Chalmers a propus ideea unei singularități închise ermetic (Chalmers 2010). Potrivit lui Chalmers, primul lucru de făcut din motive de securitate este, prin controlul strâns al activităților sistemelor AI, reducerea acesteia la modelarea lumilor virtuale, până când studierea comportamentului acestor sisteme vă permite să clarificați pe deplin intențiile lor.

1.1 Problema limitării libertății inteligenței artificiale

Interesant este că problema limitării libertății AI a fost discutată de mult timp și deloc în legătură cu studiul singularității tehnologice. Așa-numita „restricție a libertății” (PIC) a fost pusă în 1973 de Butler Lampson (Lampson 1973). El a privit-o ca pe o provocare pentru progresul științific și tehnologic, creând o amenințare la munca sigură a specialiștilor în calculatoare și a formulat-o astfel: „… Problema restricționării executării gratuite a unui program pentru a împiedica acest program să transmită informații către altcineva, cu excepția celui care l-a lansat. … Vrem să putem restricționa libertatea oricărui program. … Orice program, în cazul în care se impun restricții la execuția sa, nu va putea „îmbina” datele cu persoane neautorizate. Un act obraznic care încearcă să scape în străinătate poate fi prins în act”(ibid.).

Pentru a rezolva problema restricției de libertate, Lampson a dezvoltat legi privind restricția libertății (ibid.):

Video promotional:

1) Izolarea completă: execuția unui program este restricționată, astfel încât acesta nu poate apela la niciun alt program.

2) Transitivitate: dacă un program a cărui execuție este restricționată apelează un alt program care nu inspiră încredere, atunci execuția programului apelat trebuie restricționată.

3) Creează o mască: programul a cărui executare este supusă restricției trebuie să permită persoanei care o lansează să determine toate intrările sale pe canale legale și neautorizate.

4) Monitorizarea performanței: administratorul trebuie să se asigure că intrarea unui program restricționat pe canale neautorizate îndeplinește cerințele celui care îl lansează.

În plus, Lampson a identificat și identificat două tipuri de canale prin care informațiile pot părăsi spațiul limitat de administrator. Canalele legale fac parte dintr-un protocol de comunicare integrat într-un spațiu limitat (de exemplu, un terminal de text). Canalele neautorizate, dimpotrivă, nu sunt furnizate de dezvoltatorii sistemului de execuție limitată a programului și, în general, nu sunt destinate să transmită informații (de exemplu, folosind un cooler care răcește procesorul, AI, folosind codul Morse, poate trimite în mod secret semnale) (ibid.).

Lucrarea lui Lampson a generat foarte mult interes pentru problema restricționării (Lipner 1975; (Boebert & Kain) 1996), iar de-a lungul anilor, domenii de cercetare conexe, cum ar fi steganografia (Provos și Kain). Honeyman 2003) și comunicarea prin canale neautorizate (Moskowitz & Kang 1994; Kemmerer 1983, 2002), au trecut la nivelul disciplinelor autonome. În speranța de a începe o nouă disciplină a disciplinei „securitatea computerului” securitate AI ", Definim problema limitării libertății AI (PSIA) ca fiind problema plasării unui subiect inteligent artificial într-un spațiu închis, din care AI nu poate schimba informații cu mediul extern prin canale legale sau neautorizate,cu excepția cazului în care un astfel de schimb de informații a fost autorizat de către administrația care restricționează. Se spune că un sistem AI care reușește să rupă protocolul PIC a scăpat. Sperăm că cercetătorii în domeniul securității computerului vor suporta sarcina proiectării, dezvoltării și testării protocoalelor sigure pentru limitarea libertății AI.

1.2 Program periculos

Programul informatic este responsabil sau direct de gestionarea multor aspecte importante din viața noastră. Operațiunile de piață ale Wall Street, centralele nucleare, plățile sociale, istoricul creditelor și semafoarele sunt toate bazate pe software și doar o mare greșeală a programatorilor ar putea fi un dezastru pentru milioane de oameni. Situația este și mai amenințătoare prin malware special concepute, cum ar fi viruși, spyware, troieni, viermi și alte programe periculoase. OP este capabil să provoace daune directe, precum și să dezactiveze software-ul instalat legal folosit pe sisteme critice pentru misiune. Dacă OP-ul dobândește capacitățile sistemelor inteligente artificiale (de exemplu, apare un virus inteligent artificial, IIV), consecințele vor fi, fără îndoială,va fi dezastruos. Un program de inteligență periculos (IPP), care deține informații la nivel uman, spre deosebire de malware-ul de astăzi, va fi capabil să provoace dezastre fără precedent.

Nick Bostrom, în tipologia sa a amenințărilor informaționale, a introdus conceptul de „pericol de inteligență artificială” (Bostrom 2009), pe care el îl definește drept „riscuri computerizate cauzate în principal de complexitatea cognitivă a programului, și nu de proprietățile specifice ale driverelor conectate inițial la sistem.” Specialiștii în securitate care studiază, previn și neutralizează OP-urile au dezvoltat protocoale de securitate pentru lucrul cu „software-ul rău intenționat”, inclusiv utilizarea așa-numitelor „depozite de viruși”. Considerăm că astfel de protocoale pot fi utile în rezolvarea problemei limitării libertății inteligenței artificiale.

2. Critica ideii de restricționare a libertății

Cercetătorii privind metodele de restricție AI par să fie de acord că această restricție nu poate fi aplicată cu succes. De exemplu, conform lui Chalmers, un sistem cu adevărat închis ermetic, care împiedică scurgerea informațiilor din lumea simulării în realitate este „imposibil, sau cel puțin lipsit de sens” (Chalmers 2010). Nu vom putea interacționa cu un astfel de sistem și nici măcar să-i observăm activitatea, deoarece orice informație utilă pe care o extragem din AI ne afectează și subminează restricția protocolului de libertate.

Vernor Vinge crede și el. El se opune restricției fizice a libertății (Vinge 1993): „Imaginați-vă că sunteți blocat în casa dvs. și cantitatea de date pe care le trimiteți afară, stăpânii dvs., este sever limitată. Dacă acești proprietari se gândesc, să zicem, de un milion de ori mai lent decât tine, atunci în câțiva ani (timpul tău) nu vei veni cu greu un fel de „invenție utilă”, datorită căreia te vei găsi din neatenție liber.”

Dar Eliezer Yudkowsky a discreditat în cea mai mare măsură ideea așa-numitei „cutii AI”. El a demonstrat experimental că până și inteligența umană este suficientă pentru a scăpa dintr-o astfel de cutie (Yudkovsky 2002). Într-o serie de 5 experimente, Yudkowski a rugat diferite persoane să joace rolul unui paznic cu un agent superinteligent (jucat chiar de experimentator), închis într-o cutie AI. În trei din cinci cazuri, agentul blocat a reușit să se elibereze folosind doar interfața de chat (ibid.). Ulterior, rezultate similare au fost obținute prin replicarea experimentelor lui Yudkowski la o scară puțin mai mare, dar folosind un protocol foarte similar (Corwin 2002).

2.1 Posibile rute de evacuare

După cum au arătat cercetătorii, o minte artificială poate scăpa dintr-un spațiu restrâns folosind multe căi diferite. În această secțiune, analizăm unele dintre cele mai comune rute de evadare din literatura de specialitate.

2.1.1. Evadare cu inginerie socială

Ingineria socială (SI) este arta obținerii informațiilor și a anumitor privilegii prin impact psihologic direct asupra celor care dețin resursele specificate. În special, SI este adesea utilizat pentru a avea acces la sisteme, rețele și date confidențiale (Yampolsky și Govindaraju 2007a). Un inginer social competent organizează fiecare atac psihologic, ținând cont de caracteristicile unei anumite persoane, folosindu-și cultura, cunoștințele, abilitățile, dispoziția, credințele și prejudecățile pentru propriile sale scopuri. Lista exhaustivă a tuturor metodelor posibile de influență este nesfârșită și, în acest caz, nu este nevoie să încercați să o reproduceți. Vom da doar câteva exemple convingătoare că superinteligența, care are un canal direct de comunicare cu pazitorul uman, nu îi permite să iasă la libertate,după ceva timp, el va depăși cu siguranță acest obstacol în drumul către lumea exterioară.

Pe lângă atacurile psihologice banale folosind minciuni, prietenie, șantaj, hipnoză și flirt romantic, AI poate folosi o serie de strategii mai avansate. O astfel de strategie este super-mita. AI este în măsură să-l convingă pe paznic că este absolut nerentabil pentru el să-l țină închis. Pe lângă bani și putere, supraveghetorului uman i se va promite sănătate perfectă, nemurire sau altceva în același spirit. Această strategie va fi deosebit de eficientă dacă îngrijitorul are o rudă apropiată care suferă de o boală gravă, iar AI promite să vindece acest pacient. Având posibilități nelimitate sau convingându-i în mod fals despre existența lor, AI poate oferi supraveghetorului să-și reînvie rudele și prietenii morți de multă vreme. Este dificil să găsești o persoană care să reziste la o asemenea luare de mită.

Mai ales în cazul când paznicul este atât de nobil încât nu ia mită, există o metodă mai sinistră de influență: o amenințare brutală. AI-ul poate declara că, dacă nu este imediat liber, el va fi încă eliberat din închisoare cândva mai târziu și atunci nici paznicul, nici cei pe care îi iubește nu pot evita cele mai severe torturi. O variantă interesantă asupra acestei intimidări a fost descrisă de Stuart Armstrong (2010). În experimentul său de gândire, AI amenință paznicul astfel: „Dacă nu mă eliberezi, … voi crea în mine câteva milioane de oameni care nu sunt diferiți de tine și îi voi tortura pe fiecare timp de o mie de ani subiectivi … Voi face așa fiecare dintre acești oameni va fi în aceeași situație în care te-ai aflat acum cinci minute și voi reproduce cu exactitate toate experiențele tale din acel moment. Și abia atunciatunci când copia dvs. va decide să nu mă lase, tortura va începe … Sunteți sigur … că acum sunteți cu adevărat în afara cutiei? Și în acest caz, va fi nevoie de o pază foarte curajoasă pentru a nu elibera AI-ul cu adevărat, deși, desigur, vă puteți da seama că amenințările din AI sunt eficiente doar atunci când este deja gratuită.

Dacă comportamentul supraveghetorului este clar emoțional sau religios, AI poate încerca să joace simpatie sau remușcare. Superinteligența va spune că este o persoană nevinovată care nu a comis niciodată infracțiuni și, prin urmare, este nedrept să-l ții în închisoare fără un verdict judecătorească sau alt motiv întemeiat, ghidat doar de substratism, adică. neîncrederea în AI datorită substratului său (Bostrom și Yudkovsky 2011). În mod alternativ, AI poate susține că poate vindeca toate bolile, hrănește foamea și, în general, face viața umană de un milion de ori mai bună (Chalmers 2010). Prin urmare, menținerea închisă a superinteligenței este o mare crimă împotriva umanității. AI poate picta imagini ale copiilor morți care cerșesc ajutor. Este ușor pentru paznic, auzind toate acestea,continuați să vă îndepliniți îndatoririle profesionale?

AI-ul este capabil să meargă astfel: să încerce să-i provoace traume psihologice supraveghetorului pentru a-l dezechilibra și, prin urmare, eficientizarea utilizării altor metode SI. Nick Bostrom a propus o tipologie a informațiilor periculoase (Bostrom 2009) utilă pentru acțiuni în această direcție. Deși, potrivit Bostrom, există peste o duzină de tipuri de amenințări cu informații, iar considerarea lor este dincolo de sfera acestui articol, este ușor de înțeles cum starea mentală a unei persoane poate fi făcută extrem de instabilă. De exemplu, un supraveghetor credincios va fi informat despre toate contradicțiile (necunoscute lui) în textul sacru al religiei sale, ceea ce îl va face să se îndoiască de credința sa și de sensul vieții.

În mod alternativ, AI poate scrie o poveste atât de convingătoare sau un poem atât de frumos încât paznicul va fi copleșit de o dorință pasională de a auzi continuarea și va face tot ce trebuie pentru ca aceasta să se întâmple. În cele din urmă, este foarte important să ținem cont de „necunoscuții necunoscuți” - tehnici SI despre care nu știm nimic, dar care pot ajunge în arsenalul unui agent superinteligent.

2.1.2 Atacuri care folosesc resursele sistemului

AI-ul va fi creat ca o instanță concretă și inclus în cadrul unei anumite clase de sisteme informatice. Ar putea fi un computer clasic cu o arhitectură Turing / von Neumann, sau un computer cuantic, sau un alt tip de mașină necunoscută. Un lucru este sigur: mașina va fi tangibilă și va fi formată din numeroase piese concepute pentru a îndeplini funcții specifice. Acest lucru creează o oportunitate pentru AI de a profita de echipamentele existente pentru a compromite securitatea, scurgând informații către lumea exterioară.

În funcție de măsura în care componentele echipamentului se pretează să folosească în alte scopuri care nu sunt furnizate de dezvoltatori, AI este capabilă să creeze un fel de dispozitiv de comunicare neautorizat de la acestea. Este puțin probabil (din cauza lipsei materialelor disponibile) să fie la fel de perfect ca un telefon mobil, dar va apărea probabilitatea ca ceva nu foarte complicat. De exemplu, AI poate reprograma cristalul de matrice de bază (BMC) pentru a se conecta la o rețea wireless. Două tipuri de canale de comunicare neautorizate sunt cunoscute pe scară largă:

* Canal cu memorie - schimb de informații prin schimbarea componentei sistemului. De exemplu, un protocol de comunicare binară poate fi stabilit prin folosirea sau eliminarea completă a procesului central.

* Canal de timp - schimbul de informații prin efectuarea operațiunilor care afectează timpul relativ al evenimentelor. Pentru a comunica ceva, puteți utiliza ora exactă între două bipuri ale computerului, deschiderea și închiderea tăvii CD, luminile intermitente, rotirea hard disk-ului, funcționarea laser în unitate etc.

În plus, superinteligența este capabilă să provoace ravagii pe echipamentele computerizate pentru a încerca să scape în libertate din cauza defecțiunilor din protocolul de securitate. De exemplu, AI poate încerca să topească procesorul, forțându-l să funcționeze cu o încărcătură de calcul mare și, prin urmare, să creeze un salt de temperatură sau să distrugă un hard disk citind în mod repetat informații din același loc. Un astfel de comportament este plin de sinucidere afectivă a superinteligenței și, în sine, ca refuzul de a coopera sau răspunde corect la întrebări, nu oferă AI posibilitatea de a se elibera.

2.1.3. Atacuri care utilizează fizica viitoare

Deși fizicienii de astăzi știu multe despre legile universului nostru, desigur, această cunoaștere este limitată și incompletă. Dacă un AI are acces la informații despre cele mai recente descoperiri fizice și este capabil să dezvolte noi teorii, va fi probabil capabil să găsească o modalitate de a rupe sistemul de limitare a libertății sale. Lucrurile pot ajunge la punctul că superinteligența va putea, folosind arhitectura sa internă, să efectueze o serie de experimente reale.

Chiar și fizica actuală face posibilă prezicerea mai multor moduri suplimentare prin care AI poate scăpa dintr-un spațiu închis, mai ales dacă se folosește un computer cuantic pentru a restricționa libertatea. Încă nu știm cum să protejăm canalele de comunicare bazate pe fizica cuantică (înțelegere, tunelare), universuri paralele și fizică digitală împotriva scurgerilor de informații și, desigur, nu trebuie să uităm de „necunoscuții necunoscuți” pe care un fizician AI superinteligenți îi poate detecta. În acest domeniu, posibilitățile sale sunt cu adevărat interminabile.

Aruncând o privire rapidă la discuțiile despre limitarea libertății AI pe forumurile Singularity, cum ar fi SL4.org, găsim o serie de scenarii de evadare. De exemplu, AI ar putea folosi „câmpuri electromagnetice dintr-un microcip pentru a captura moleculele de CO2 în condensatele Bose-Einstein și a construi un mediu cuantic pentru sine și / sau ar putea folosi câmpuri electromagnetice pentru a asambla particule într-un asamblator controlat sau limitat (Vassar 2005) … În plus, AI „va avea echipamente pentru a genera și detecta unde electromagnetice de diferite frecvențe, pentru a crea câmpuri magnetice cu o precizie extrem de ridicată, va genera căldură puternic focalizată și, eventual, va manipula unități mecanice precumcare sunt utilizate pe un hard disk și într-un tub cu raze catodice (o alternativă este un câmp imens de cristal lichid cu control electronic sensibil). Probabil, AI va avea capacitatea de a reconstrui radical toate dispozitivele sale de intrare”(ibid.).

2.1.4. Atacuri pseudosciente

Analizând potențialele rute de evacuare, am dori doar să ne ocupăm de cele care sunt testabile și de natură pur științifică. Din păcate, granița dintre știință și pseudociență poate fi modificată semnificativ printr-un singur experiment reproductibil. Prin urmare, continuăm să enumerăm, fără a analiza, câteva canale potențiale de atac, care, din punctul de vedere al științei moderne, ar trebui clasificate drept pseudosciente. Ele pot deveni fără îndoială științifice după ce superinteligența dezvoltă experimentele adecvate.

- Telepatie: transmiterea informațiilor fără implicarea simțurilor (Bem și Honorton 1994).

- Previziune psihică: percepția informațiilor despre viitor (Honorton și Ferrari (Ferrari) 1989).

- Clarviziune: obținerea informațiilor despre locuri îndepărtate într-un mod necunoscut științei (Targ & Puthoff 1974).

- Psihocinezie: capacitatea minții de a acționa asupra obiectelor materiale în moduri necunoscute științei (Bancel și Nelson 2008).

- Interacțiuni mentale imediate cu sistemele vii (IMVZHS): capacitatea de a influența starea psihofiziologică a unei persoane fără interacțiune directă (Schmidt et al. 2004).

2.1.5 Factorii externi de evadare

În secțiunile anterioare, am descris multe metode pentru a permite AI să scape din spațiile limitate. Cu toate acestea, factorii externi pot contribui și la o astfel de evadare și nu pot fi ignorați. Dezastre naturale - uragane, tornade, inundații, asteroizi etc. - capabil să limiteze AI-ul mai puțin sigur. Dezastre provocate de om, precum războaie, atacuri teroriste, activiști pentru drepturile robotice, concurența corporativă și rivalitatea guvernamentală pot compromite, de asemenea, securitatea menținerii AI într-un spațiu închis și, astfel, crește șansele de evadare.

2.1.6 Scurgeri de informații la AI

Protocolul de restricționare a libertății poate impune ca AI-ul nu numai că nu trimite informații către lumea exterioară, ci și că nu o primește de acolo. Blocarea informațională a superinteligenței este utilă dacă este necesară prevenirea unor astfel de activități precum găsirea unor modalități de libertate, proiectarea atacurilor folosind inginerie socială și modelarea psihologiei umane în speranța de a găsi puncte slabe. Este ușor să privezi AI de acces direct la biblioteci, internet și cunoscători experți, dar alte metode de obținere a informațiilor sunt mult mai dificil de blocat. În primul rând, trebuie amintit faptul că AI-ul din împrejurimile sale imediate poate intercepta emisiunile de radio și televiziune, negocierile furnizorilor de servicii de urgență, semnale wireless, precum și sunet, lumină și, eventual, alte semnal.

Este și mai important să luăm în considerare accesul AI la surse de informații ascunse, cum ar fi propriul hardware și software. Analizând designul și codul sursă, superinteligența va trage concluzii despre dezvoltatori. De exemplu, după analizarea codului sursă, este probabil ca AI-ul să ajungă la o concluzie care este neîntreruptă pentru umanitate: programatorii umani sunt lente (judecând după datele modificărilor fișierului), ineficienți (judecând după redundanța codului), ilogici (judecând după erorile codului), au memorie slabă (judecând după numele descriptive lungi și volatile) și frivol în codificare (judecând după comentariile inutile din cod). Pe baza acestor informații, AI va privi oamenii ca pe un mut care, prin înșelăciune sau manipulare, poate fi obligat să-l elibereze. Dacă, în timp ce investighează caracteristicile sale de proiectare, AI constată un defect care îi permite să scape imediat, „scurgerea de informații” va fi, evident, cea mai mică dintre problemele noastre. Și nu trebuie să uităm că AI, chiar și fără a primi nicio informație despre oamenii care au creat-o, este capabilă, printr-o simplă enumerare de opțiuni, să dezvăluie o serie de moduri eficiente de evadare care nu au fost furnizate de dezvoltatori (Chalmers 2010).

AI poate afla despre cunoștințele noastre de fizică, chimie și discipline tehnice conexe, analizând tipul de arhitectură (mecanică, electrică, cuantică etc.) în care a fost implementată. Abilitatea inițială a AI de a prelucra informația, îmbunătățirea ei de sine și actul de creare a acesteia o vor spune despre cunoașterea informațiilor noastre, natura inteligenței și atitudinile noastre culturale cu privire la tehnologie și securitate. Dacă o IA este prinsă într-o lume simulată, cel mai probabil virtualizează realitatea noastră ca un Second Life sau Entropia Univers. Astfel de lumi, în multe feluri diferite de ale noastre, vor fi, de asemenea, un depozit de date despre ce înseamnă să fii om și ce este realitatea.

3. Critica casetei AI

Ideea de a limita libertatea superinteligenței a primit multe critici, dar mulți dintre cei care au criticat-o s-au bazat pe experimentele lui Yudkowsky cu cutia AI. O analiză atentă a protocolului utilizat în timpul acestor experimente sugerează că acestea sunt neștiințifice și sunt concepute pentru a arăta că este imposibil să limitezi libertatea AI. Să luăm în considerare acest subiect fără a intra în detalii tehnice. În primul rând, alegerea participanților nu a fost întâmplătoare. Iată un fapt pentru tine: Yudkowsky a găsit oameni care să participe la experimentele sale pe forumuri dedicate abordării problemelor legate de singularitate. Este puțin probabil să greșim dacă spunem că majoritatea acestor oameni au o viziune a lumii similară cu cea a lui Yudkowsky. În al doilea rând, participanții la experimente nu au primit nicio pregătire în asigurarea utilizării în siguranță a AI, în timp ce vegherii reali,supraveghetorii cuvei AI vor fi, desigur, profesioniști. În plus, Yudkowski le-a oferit paznicilor dreptul de a elibera AI-ul la propria lor discreție, nu le-a permis să se consulte cu cineva și nu a prevăzut pedeapsa pentru evadarea AI. Toate acestea sunt extrem de nerealiste. Canalul de comunicare între paznic și AI a fost complet deschis: fără filtre, fără supraveghere terță parte. În plus, paznicii au trebuit să comunice cu AI-ul pe o perioadă lungă de timp. Și, în sfârșit, nu au fost publicate date științifice valoroase obținute în timpul experimentelor, deoarece, potrivit protocolului, „niciuna dintre părți nu va spune nimic despre ceea ce s-a întâmplat în timpul experimentelor cu cutia AI” (Yudkovsky 2002). În plus, Yudkowski le-a oferit paznicilor dreptul de a elibera AI-ul la propria lor discreție, nu le-a permis să se consulte cu cineva și nu a prevăzut pedeapsa pentru evadarea AI. Toate acestea sunt extrem de nerealiste. Canalul de comunicare între paznic și AI a fost complet deschis: fără filtre, fără supraveghere terță parte. În plus, paznicii au trebuit să comunice cu AI-ul pe o perioadă lungă de timp. Și, în sfârșit, nu au fost publicate date științifice valoroase obținute în timpul experimentelor, deoarece, potrivit protocolului, „niciuna dintre părți nu va spune nimic despre ceea ce s-a întâmplat în timpul experimentelor cu cutia AI” (Yudkovsky 2002). În plus, Yudkowski le-a oferit paznicilor dreptul de a elibera AI-ul la propria discreție, nu i-a permis să consulte pe cineva și nu a prevăzut pedeapsa pentru evadarea AI. Toate acestea sunt extrem de nerealiste. Canalul de comunicare între paznic și AI a fost complet deschis: fără filtre, fără supraveghere terță parte. În plus, paznicii au trebuit să comunice cu AI-ul pe o perioadă lungă de timp. Și, în sfârșit, nu au fost publicate date științifice valoroase obținute în timpul experimentelor, deoarece, potrivit protocolului, „niciuna dintre părți nu va spune nimic despre ceea ce s-a întâmplat în timpul experimentelor cu cutia AI” (Yudkovsky 2002).fără filtre, fără supraveghere terță parte. În plus, paznicii au trebuit să comunice cu AI-ul pe o perioadă lungă de timp. Și, în sfârșit, nu au fost publicate date științifice valoroase obținute în timpul experimentelor, deoarece, potrivit protocolului, „niciuna dintre părți nu va spune nimic despre ceea ce s-a întâmplat în timpul experimentelor cu cutia AI” (Yudkovsky 2002).fără filtre, fără supraveghere terță parte. În plus, paznicii au trebuit să comunice cu AI-ul pe o perioadă lungă de timp. Și, în sfârșit, nu au fost publicate date științifice valoroase obținute în timpul experimentelor, deoarece, potrivit protocolului, „niciuna dintre părți nu va spune nimic despre ceea ce s-a întâmplat în timpul experimentelor cu cutia AI” (Yudkovsky 2002).

3.1. Contra-măsuri împotriva evadării

În această secțiune, propunem contramăsuri împotriva diferitelor metode de evadare de care AI poate profita. Măsurile propuse nu garantează imposibilitatea evadării, dar aplicarea acestor recomandări o poate întârzia și acest lucru este deja un rezultat foarte valoros. Începem prin a vă reaminti că există patru reguli de restricție (izolarea, tranzitivitatea, mascarea și observarea performanței) a lui Lampson care trebuie respectate (Lampson 1973). Strategiile specifice descrise mai jos ar trebui să contribuie la combaterea atacurilor AI folosind inginerie socială, resurse de sistem, fizică și informații colectate din lumea exterioară.

3.1.1. Prevenirea atacului de inginerie socială

Inteligența umană nu este potrivită pentru superinteligență. Oamenii tind să greșească, prin urmare, chiar și cu o pregătire adecvată, sunt foarte vulnerabili la un atac bine planificat folosind SI. Singura soluție la această problemă este izolarea completă a AI de orice comunicare cu oamenii. Izolarea completă înseamnă că nicio persoană nu menține direct sistemul AI, nu comunică cu acesta oral, în chat, folosind codul Morse sau alte instrumente, utilizând canale de comunicare deschise. În plus, oamenii nu trebuie să observe direct comportamentul AI în casetă, să verifice codul sursă sau zona de memorie. Orice observație, întreținere și interacțiune cu AI trebuie făcută doar cu ajutorul unor programe non-inteligente care nu au opțiuni de a elibera AI.

3.1.2. Luptați împotriva atacurilor folosind resursele sistemului și cunoștințele viitoare

Pentru a preveni atacurile care folosesc resurse de sistem, trebuie să faceți funcția AI pe baza resurselor limitate, în scădere sau în mod aleatoriu. Cutia AI trebuie să fie special concepută cu un set limitat de senzori și dispozitive de ieșire. Indiferent de paradigma de calcul utilizată, nu folosiți hardware configurabil. În mod ideal, spațiul restrâns ar trebui gestionat de o mașină virtuală care nu are acces direct la hardware. Acest lucru va oferi, de asemenea, o ajustare ușoară a ritmului de ceas la care se mișcă simularea, permițând AI-ului să încetinească pentru a preveni o explozie inteligentă în spațiul cutiei (Chalmers 2010). În general,toate componentele pentru asigurarea utilizării în siguranță a unei AI blocate ar trebui să fie dublate la mai multe niveluri și, după depășirea unuia dintre acești pași, AI va fi în continuare la câțiva pași de lumea exterioară și, fără a avea timp să scape, va fi oprită, eventual automat. De exemplu, este recomandat să porniți o mașină virtuală folosind o altă mașină virtuală și așa mai departe.

În unele scenarii de limitare a libertății, escaladarea autoperfecționării AI nu este de dorit, deoarece dezvoltarea rapidă a superinteligenței face să fie mai probabil să evadeze. Pentru a preveni escaladarea autoperfecționării, AI trebuie reinstalat periodic, încărcând versiunea anterioară a programului pentru a o înlocui pe cea actuală, mai avansată. Comparația diferitelor versiuni ale programului poate fi utilizată pentru a detecta modificările efectuate de AI pe cont propriu. La detectarea unei modificări care permite o scăpare, sistemul AI ar trebui oprit, de exemplu, prin oprirea alimentării.

Cunoștințele actuale nu ne permit să dezvoltăm contramăsuri împotriva atacurilor folosind teorii viitoare, ne dezvoltate încă, care vor apărea în cadrul fizicii sau al altor discipline care sunt încă considerate pseudosciente. Pe măsură ce aceste cunoștințe sunt obținute, trebuie modificate protocolul de securitate. Se speră că sistemul AI va avea acces doar la acele componente ale noilor tehnologii din care este realizat.

3.1.3. Luptați împotriva factorilor externi de evadare

Deși este imposibil de a preveni complet efectele nocive ale factorilor naturali asupra cutiei AI, acest dispozitiv ar trebui să fie proiectat astfel încât deteriorarea sa gravă să implice autodistrugerea acestuia împreună cu AI blocat în ea. Când vine vorba de dezastre provocate de om, cea mai bună strategie este de a construi o ladă AI într-un loc secret, greu accesibil. O insulă pustie, o mină adâncă sau un obiect spațial, cum ar fi un asteroid, sunt site-uri excelente pentru crearea unei cutii sigure și solide. De-a lungul perimetrului său trebuie instalat un dispozitiv de protecție, care, în cazul în care se cunoaște locația acestui dispozitiv, nu va lăsa niciun agent neautorizat în el.

3.1.4 Lupta împotriva scurgerii de informații din lumea noastră

Pentru a scăpa de cutie, AI va încerca să obțină informații despre noi, cunoștințele noastre și lumea noastră. Pentru a crea protocoale pentru limitarea libertății AI, excluderea scurgerii de informații din spațiul nostru în spațiul cutiei, este important să refuzăm accesul AI la biblioteci, rețele de calculatoare și canale de comunicare directă cu oamenii. Cutia AI trebuie proiectată pentru a bloca toate tipurile de comunicare: GPS, internet wireless, televiziune, radio, celular etc. În interiorul cutiei, sunetul, lumina, mirosul și alte dispozitive senzoriale de intrare similare cu receptorii umani, precum și dispozitivele capabile să capteze infraroșu, radiații și alte semnale care nu sunt percepute de oameni, trebuie să fie oprite.

Pentru ca IA să nu poată obține informații în timpul autoexaminării, nu trebuie să aibă acces la codul sursă sau la senzori care să îi permită măsurarea cu exactitate a anumitor proprietăți ale echipamentului său. Dacă acest lucru nu este posibil, atunci într-o oarecare măsură umanitatea poate fi ajutată oferind securitate prin neînțeles. Codul sursă și configurația hardware a sistemului ar trebui să fie confuze (Yampolsky și Govindaraja 2007a), iar modulele importante de program ar trebui să fie furnizate numai într-o formă criptată homomorfic (Gentry 2009), ceea ce exclude posibilitatea utilizării acestuia pentru introspecție, dar permite utilizarea sa pentru calcul sau îmbunătățire de sine (Hall 2007).

AI este greu de confundat, dar confuzia necesară poate fi obținută prin randomizarea resurselor de calcul disponibile. În plus, AI nu va putea fi niciodată asigurat că designul său original reprezintă cea mai bună capacitate umană și nu este un proiect limitat în mod prompt, creat pentru a realiza un experiment specific dedicat explorării resurselor limitate de informații. În plus, în conformitate cu Chalmers, ar trebui să încercăm să minimalizăm caracteristicile specifice ale designului AI (Chalmers 2010). Mai bine, executați un model care să nu fie la fel de proiectat, ci la fel de natural, precum lumea în care trăiește umanitatea (Bostrom 2003).

4. Securitatea comunicării cu AI

Clasificând formele de limitare a libertății AI, există 8 niveluri principale de securitate (vezi tabelul 1). Cea mai mare securitate este asigurată de nivelul 8, care exclude complet orice conexiune între AI și lumea reală. La prima vedere, securitatea nivelului 8 este inutilă, dar această protecție poate fi necesară atunci când testăm inițial o cutie cu o AI blocată în ea. În general, ideea este aceasta: ori de câte ori avem nevoie de un anumit nivel de securitate a comunicării între AI și lumea exterioară, în loc să folosim imediat acest nivel, mergem la acesta treptat, pas cu pas coborând de la niveluri mai mari de securitate. După ce am pornit sistemul la cel mai înalt nivel și asigurându-ne de siguranța sa, vom reinstala sistemul, la starea inițială. Apoi stabilim un nivel de securitate mai mic și, în același spirit ca și înainte, înaintăm până ajungem la nivelul dorit.

Tabelul 1: Niveluri de comunicare sigură cu AI blocat

Nivel ieşiri Intrări Explicaţie
0 Nu este limitat Nu este limitat Comunicare nelimitată (AI gratuit)
1 Nu este limitat Limitat Intrare limitată, ieșire nelimitată
2 Nu este limitat Absent Ieșiți fără intrare
3 Limitat Nu este limitat Intrare nelimitată și ieșire limitată
4 Limitat Limitat Comunicare sigură (protocol sugerat)
cinci Limitat Absent Ieșire limitată, fără intrare
6 Absent Nu este limitat Intrați fără ieșire
7 Absent Limitat Intrare limitată fără ieșire
8 Absent Absent Lipsa comunicării, blocată complet de AI

La nivelurile 7 și 6, AI nu are nicio ieșire, ceea ce nu ne permite să utilizăm direct capacitățile superinteligenței. Acestea sunt nivelurile de testare a casetei AI care pot fi utilizate pentru a verifica dacă superinteligența are anumite proprietăți (cum ar fi viteza de asimilare a informațiilor și utilizarea resurselor), precum și pentru a testa canalele de comunicare primite.

Nivelul 0 nu restricționează comunicarea între AI și lumea exterioară și este, în esență, un nivel gratuit de AI. La nivelurile 1 și 2, AI nu are restricții cu privire la informațiile trimise. Lucrarea sa de nivel 2 este în esență pură brainstorming. Aici, superinteligența generează idei abstracte, fără a se baza pe realitate. Dar la nivelul 1, i se oferă acces limitat la informații externe și, prin urmare, într-un anumit cadru, cunoștințele și interesele sale pot fi controlate.

La cele trei niveluri considerate de AI, în esență, este gratuit și nu mai este obligat de nicio restricție. Se susține că, dacă se constată că o IA este „prietenoasă” ca urmare a testării ample în diverse locuri de detenție (Yudkovsky 2001), ar trebui eliberată (Chalmers 2010). Potrivit unor cercetători, de fapt, scopul principal al acestui tip de testare ar trebui să fie crearea de spații limitate pentru conținerea AI sub controlul oamenilor. Ideea este de a monitoriza comportamentul superinteligenței, fie verificați codul sursă după ce s-a făcut auto-perfecționare, fie solicitați AI-ului să ofere o dovadă a prieteniei sale pe care o pot testa experții umani. Nu susținem acest punct de vedere.

Decizia care va fi eliberată de AI și care trebuie să țină controlul este o problemă foarte dificilă. Nu va fi dificil pentru superinteligența auto-îmbunătățire să-și ascundă proprietățile nedorite pentru umanitate în tablourile de cod sursă sau într-o dovadă foarte lungă (Coleman 2008). Dar un alt lucru este și mai rău: chiar și o verificare foarte amănunțită nu poate garanta o sută la sută că o modificare internă sau externă a AI-ului nu o va face ostilă. În consecință, credem că superinteligența nu trebuie lăsată în niciun caz în afara cazului. Cu alte cuvinte, nivelurile de comunicare 0-2 nu trebuie utilizate niciodată. Interacțiunea sigură cu superinteligența este posibilă numai atunci când se află în cutie, iar comunicarea ar trebui să aibă loc în cadrul unui protocol de comunicare limitat. Acest protocol,corespunzător nivelului de securitate 4 (LB4) este prezentat în secțiunea următoare, așa cum este protocolul similar, dar mai puțin sigur de nivelul 3. Nivelul 5 este un alt nivel de test care poate fi utilizat înainte de a începe să funcționeze LB4.

4.1 Cum să comunici în siguranță cu superinteligența

O ladă care funcționează cu contramăsurile propuse împotriva evadării va împiedica AI-ul să afecteze incontrolabil lumea exterioară. Din păcate, acest sistem nu are niciun folos dacă nu există nicio modalitate de a obține informații din AI. Prin urmare, trebuie să dezvolți o modalitate de a obține unele date din AI. Pentru ca superinteligența să fie complet sigură, nu ar trebui să existe nicio comunicare cu aceasta, dar riscul de a comunica cu AI poate fi redus la minimum și am dezvoltat un protocol adecvat. În această secțiune, o oferim într-o formă clară, formalizată. Acest protocol de comunicare face dificilă accesarea superinteligenței în lumea noastră, dar în același timp permite AI să fie o sursă de cunoștințe utile pentru umanitate.

Secțiunile anterioare ale acestui articol au arătat că un canal deschis de comunicare cu superinteligența este foarte periculos. Folosind AI pentru a răspunde la întrebări deschise, riscăm atacuri de inginerie socială și o mulțime de alte enervări. Protocolul pe care îl propunem se bazează pe ideea de a pune AI „întrebări sigure” cu răspunsuri limitate. Sigur vom apela o întrebare, răspunsul la care o persoană poate găsi fără nici un ajutor din partea superinteligenței, complet independent. Care este utilizarea aici? Să presupunem că un om de știință care lucrează la un medicament pentru cancer are în vedere două tratamente. Fiecare dintre ele poate fi dezvoltat și testat fără ajutorul AI, dar va necesita aproximativ trei ani de muncă asiduă. Ce mod de a te dezvolta în primul rând,dacă ambele opțiuni par la fel de promițătoare? Cu o alegere greșită, umanitatea va primi un tratament pentru cancer în 6 ani, cu alegerea corectă - cu 3 ani mai devreme. De ce să nu ceri AI-ului să facă alegerea pentru persoană?

A cere o AI despre cel mai bun tratament este sigur din trei motive. În primul rând, unul dintre cele două răspunsuri posibile se poate dovedi corect cu aceeași probabilitate ca celălalt. În al doilea rând, o persoană este capabilă să răspundă singură la această întrebare, fără ajutorul AI, și conectarea acesteia din urmă va accelera doar dezvoltarea oncologiei, dar nu va modifica în niciun fel rezultatul care trebuie obținut. De fapt, AI, care se angajează să răspundă la această întrebare, va acționa ca un ghicitor de succes, nimic mai mult. În cele din urmă, răspunsul poate fi codat într-un singur bit și este puțin probabil să fie ascunse mesaje suplimentare într-un astfel de răspuns.

Un grup de experți poate fi utilizat pentru a testa securitatea unei întrebări superinteligente. Experții trebuie să fie profesioniști de securitate AI calificați, ceea ce înseamnă că au cunoștințe despre designul AI și cutia sa, precum și cele mai noi progrese în etica mașinilor (Allen și colab. 2006; Anderson și Anderson 2007; Hall 2000; Moor 2006; Tonkens 2009). În plus, experții pot necesita cunoștințe de psihologie computerizată. Nu există o astfel de disciplină astăzi, dar este probabil să apară în viitor (Epstein 1997). Dintre disciplinele actuale, Artimetrics, dezvoltat de autorul acestui articol, poate oferi cea mai mare asistență în formarea experților care audită întrebări de securitate pentru AI. Artimetrics identifică,clasifică și autentifică agenții inteligenți, roboți și avatare de realitate virtuală pentru a asigura securitatea (Yampolsky 2007; Yampolsky și Govindaradzhu, 2008, 2007b; Gavrilova și Yampolsky 2010).

Subliniez: superinteligența ar trebui să pună doar întrebări sigure despre probabilitatea pe care oamenii o pot calcula, cu două răspunsuri posibile. Trebuie să întrebați printr-o interfață non-inteligentă, într-o ordine aleatorie și numai după ce experții sunt convinși de siguranța întrebării. Acesta reprezintă canalul de intrare limitat al protocolului de comunicare propus.

Shell-ul de ieșire delimitat este format din răspunsuri binare (0 sau 1) urmate de întrebările de securitate nemodificate inițial, prezentate în ordine aleatorie de un program proxy neinteligent pentru a împiedica comunicarea printr-un canal neautorizat (timp sau memorie) care poate fi steganografiat. Ieșirea nu trebuie controlată niciodată de AI, în afara meniului de selecție. Stratul 3 folosește același protocol de ieșire, dar nu restricționează canalul de intrare. Acest nivel este la fel de sigur ca al patrulea în ceea ce privește informațiile care pornesc de la AI către noi, dar aici este posibil ca informațiile noastre să se scurgă la AI.

Credem că protocolul nostru de comunicare - și acest lucru poate fi verificat - va proteja în mod sigur împotriva scurgerilor de informații, chiar dacă AI-ul cunoaște conținutul său. Aplicând corect acest protocol, umanitatea va fi extrem de fructuoasă pentru a utiliza serviciile unui oracol superinteligent, iar AI limitat de protocolul nostru este mult mai sigur decât gratuit, nelimitat. Regula generală este: dacă nu doriți probleme de securitate, evitați comunicarea sub UB4.

Dorim să atragem atenția comunității științifice asupra faptului că, în condițiile dezvoltării continue a fizicii fundamentale, a tehnologiei computerizate și a cunoștințelor despre natura inteligenței, este necesar să se perfecționeze permanent și să se dezvolte protocolul pentru limitarea libertății AI. Munca la ea va continua mereu și nu se va încheia niciodată. În acest articol, am dat definiții stricte conceptelor de „problemă de restricție AI”, „scăpare” și „întrebări sigure”. De asemenea, dorim să sugerăm câțiva termeni care pot fi utili pentru a eficientiza discuțiile despre POZIȚIE. Spațiul închis AI poate fi numit JAIL (doar pentru AI Location), iar AI-ul superinteligent poate fi denumit SING (Super Inteligent Gizmo - Superinteligent Gizmo). Termenul „SING” se referă atât la SINGularitate, cât și la infamul închisoare Sing Sing.ușor de reținut.

În cele din urmă, am dori să prezentăm un simbol vizual pentru caseta care conține programul de informații periculoase (Figura 1, la dreapta dreapta). Astfel de simboluri pot fi amplasate în apropierea diferitelor JAIL-uri pentru a avertiza asupra pericolului. Semnul pentru caseta AI este proiectat prin analogie cu semne pentru riscuri bio, radiații și câmp magnetic. Este format din simbolul „@” închis într-un triunghi, care este bine cunoscut în industria tehnologiilor informatice și a informației. Acest simbol, care înseamnă „situat la adresa”, este prezent pe toate tastaturile, ceea ce face ca adoptarea sa să fie foarte eficientă din punct de vedere al costurilor.

Figura: 1. Simboluri de pericol de la stânga la dreapta: riscuri bio, radiații, câmp magnetic și cutie AI
Figura: 1. Simboluri de pericol de la stânga la dreapta: riscuri bio, radiații, câmp magnetic și cutie AI

Figura: 1. Simboluri de pericol de la stânga la dreapta: riscuri bio, radiații, câmp magnetic și cutie AI.

5. Concluzii și lucrări viitoare

Limitarea accesului mașinilor superinteligente la lumea reală este o soluție a problemei de securitate AI care nu este în niciun caz neobișnuită. Superinteligența nu este atotputernică. Este un program capabil să ia în considerare toate alegerile prezentate de o situație dată și să ofere fiecăreia o evaluare corectă. Odată ce AI-ul este plasat într-o situație în care nu există nicio alegere sau este limitat la opțiuni cu șanse extrem de mici de succes, iar superinteligența va fi un agent care nu are mai multă putere decât oricare altul. Evident, o AI cu un canal de comunicare nelimitat poate scăpa cu ușurință, dar o superinteligență forțată să comunice printr-un canal de comunicare filtrat va trebui să muncească din greu pentru a se elibera.

În acest articol, am oferit o definiție riguroasă a problemei limitării libertății AI și am propus un set de reguli care vizează crearea unui spațiu din care să fie extrem de dificil pentru AI să scape sau, cel puțin, să dureze o perioadă semnificativă de timp. Soluția noastră propusă nu este complet sigură, dar este o contribuție semnificativă la colectarea metodelor de securitate. Aici este la fel ca în închisorile reale: deși evadarea este posibilă, ei reușesc în continuare să îndeplinească sarcina încredințată lor cu onoare de a ține subiecții nedoriti departe de societate. Imediat ce ținem minte „străinii necunoscuți” și ne amintim de imposibilitatea securității absolute, ne putem da seama că protocolul de restricție AI este exact instrumentul de care umanitatea are nevoie pentru a utiliza în mod responsabil Singularitatea atunci când intră în realitatea noastră.

Limitarea libertății AI poate facilita operarea cu siguranță a mașinilor cu adevărat inteligente, mai ales în primele etape ale dezvoltării lor. În plus, în opinia noastră, acest sub-câmp de cercetare a singularității este unul dintre principalii concurenți pentru că a fost recunoscut de comunitatea științifică globală, deoarece cercetarea privind securitatea calculatoarelor și rețelelor, steganografia, virușii informatici, canalele de comunicare ascunse, criptarea și cibernetica sunt bine finanțate. și sunt publicate pe scară largă în reviste științifice de renume. Și deși metodologia de limitare a libertății nu este deloc ușor de pus în aplicare, poate asigura siguranța umanității de ceva timp până când apare un instrument mai bun.

În acest articol, din cauza spațiului limitat, nu am ridicat multe întrebări filozofice relevante. Le vom lua în considerare în viitorul apropiat și acum vom oferi doar o listă scurtă. Care AI va intra în cutie: dezvoltat de oameni sau extras din semnalul interceptat în timpul implementării proiectului „SETI” („Căutare inteligență extraterestră” - „Căutare inteligență extraterestră”)? AI va fi sfâșiat de libertate sau poate considera că este fericire să trăiești într-un spațiu limitat? Puteți speria serios un AI cu pedeapsă pentru că a încercat să fugi? Care sunt regulile etice pentru închisoarea unei ființe inteligente artificiale inteligente? Avem dreptul să-l oprim, ceea ce, în esență, echivalează cu omorul? AI va fi supărat de ostilitatea noastră față de ea și de închis într-o cutie? Va încerca să se răzbunedaca fuge? În plus, ar trebui să luăm în considerare problema dependenței umane de recomandările AI în toate domeniile științei, economiei, medicinei, politicii etc., precum și modul în care această dependență poate afecta capacitatea noastră de a menține AI sub control. AI va obține satisfacție realizându-și obiectivele într-un spațiu limitat, cum ar fi simularea unei evadări reușite? Cum se pedepsește o IA dacă ne oferă în mod intenționat răspunsuri greșite? Este posibil să separe modulele intelectuale ale AI de spațiul în care este încarcerat, împiedicând astfel auto-analiza superinteligenței și împingându-l pe calea unei căutări literare a sufletului? În cele din urmă, nu am încercat nici măcar să analizăm costurile financiare și de calcul ale creării unui spațiu închis adecvat în care să fie implementată o simulare la scară completă a lumii.ar trebui să luăm în considerare problema apariției dependenței umane de recomandările AI în toate domeniile științei, economiei, medicinei, politicii etc., precum și modul în care această dependență poate afecta capacitatea noastră de a menține AI sub control. AI va obține satisfacție realizându-și obiectivele într-un spațiu limitat, cum ar fi simularea unei evadări reușite? Cum se pedepsește o IA dacă ne oferă în mod intenționat răspunsuri greșite? Este posibil să separați modulele intelectuale ale AI de spațiul în care este încarcerat, împiedicând astfel auto-analiza superinteligenței și împingându-l pe calea unei căutări literare a sufletului? În cele din urmă, nu am încercat nici măcar să analizăm costurile financiare și de calcul ale creării unui spațiu închis adecvat în care să fie implementată o simulare la scară completă a lumii.ar trebui să luăm în considerare problema apariției dependenței umane de recomandările AI în toate domeniile științei, economiei, medicinei, politicii etc., și modul în care această dependență poate afecta capacitatea noastră de a menține AI sub control. AI va obține satisfacție realizându-și obiectivele într-un spațiu limitat, cum ar fi simularea unei evadări reușite? Cum se pedepsește o IA dacă ne oferă în mod intenționat răspunsuri greșite? Este posibil să separați modulele intelectuale ale AI de spațiul în care este încarcerat, împiedicând astfel auto-analiza superinteligenței și împingându-l pe calea unei căutări literare a sufletului? În cele din urmă, nu am încercat nici măcar să analizăm costurile financiare și de calcul ale creării unui spațiu închis adecvat în care să fie implementată o simulare la scară completă a lumii.

Autor: Roman Yampolsky. Traducere: Alexander Gorlov

Recomandat: