Inteligență Artificială. Partea A Doua: Stingerea Sau Nemurirea? - Vedere Alternativă

Cuprins:

Inteligență Artificială. Partea A Doua: Stingerea Sau Nemurirea? - Vedere Alternativă
Inteligență Artificială. Partea A Doua: Stingerea Sau Nemurirea? - Vedere Alternativă

Video: Inteligență Artificială. Partea A Doua: Stingerea Sau Nemurirea? - Vedere Alternativă

Video: Inteligență Artificială. Partea A Doua: Stingerea Sau Nemurirea? - Vedere Alternativă
Video: CONȘTIENTUL ȘI PERSONALITATEA. DE LA INEVITABIL MORT LA VEȘNIC VIU 2024, Septembrie
Anonim

Înainte de tine este a doua parte a unui articol din seria „Așteaptă, cum toate acestea pot fi reale, de ce nu se vorbește încă la fiecare colț”. În seria anterioară, a devenit cunoscut faptul că o explozie de inteligență se îndreaptă treptat către oamenii planetei Pământ, încearcă să se dezvolte de la inteligența îngustă la inteligența universală și, în final, la superinteligența artificială.

„Poate că ne confruntăm cu o problemă extrem de dificilă și nu se știe cât timp se acordă soluției sale, dar viitorul umanității poate depinde de soluția sa.” - Nick Bostrom.

Prima parte a articolului a început destul de inocent. Am discutat despre inteligența artificială strict concentrată (AI, care este specializată în rezolvarea unei probleme specifice, cum ar fi determinarea rutelor sau jocul de șah), în lumea noastră există multe. Apoi au analizat de ce este atât de dificil să crești inteligența artificială direcțională generală (AGI, sau AI, care, în ceea ce privește capacitățile intelectuale, se poate compara cu un om în rezolvarea oricărei probleme), este atât de dificil. Am ajuns la concluzia că ritmul exponențial al avansării tehnologice sugerează faptul că AGI poate fi în curând. În cele din urmă, am decis că imediat ce mașinile au ajuns la informațiile umane, se pot întâmpla imediat următoarele:

Image
Image
Image
Image
Image
Image
Image
Image

Ca de obicei, ne uităm la ecran, fără a crede că superinteligența artificială (ISI, care este mult mai inteligentă decât orice persoană) poate apărea în timpul vieții noastre și alegem emoții care ar reflecta cel mai bine părerea noastră despre această problemă.

Video promotional:

Înainte de a ne afunda în specificul ISI, să ne reamintim ce înseamnă pentru o mașină să fie superinteligent.

Principala diferență constă între superinteligența rapidă și superinteligența de calitate. Adesea, primul lucru care îmi vine în minte atunci când te gândești la un computer superinteligent este că poate gândi mult mai repede decât o persoană - de milioane de ori mai rapid și în cinci minute va înțelege ce ar fi nevoie de o persoană zece ani. („Știu kung fu!”)

Pare impresionant, iar ISI ar trebui să se gândească mai repede decât oricare dintre oameni - dar principala caracteristică de separare va fi calitatea intelectului său, care este cu totul altul. Oamenii sunt mult mai deștepți decât maimuțele, nu pentru că gândesc mai repede, ci pentru că creierul lor conține o serie de module cognitive ingenioase care realizează reprezentări lingvistice complexe, planificare pe termen lung, gândire abstractă, de care maimuțele nu sunt capabile. Dacă accelerezi creierul unei maimuțe de o mie de ori, aceasta nu va deveni mai inteligentă decât noi - chiar și după zece ani nu va putea să asambleze un constructor conform instrucțiunilor, ceea ce ar dura o persoană maxim de câteva ore. Există lucruri pe care o maimuță nu le va învăța niciodată, indiferent de câte ore petrec sau cât de repede își funcționează creierul.

În plus, o maimuță nu știe cât de uman, deoarece creierul său pur și simplu nu este în stare să realizeze existența altor lumi - o maimuță poate ști ce este o persoană și ce este un zgârie-nori, dar nu va înțelege niciodată că un zgârie-nori a fost construit de oameni. În lumea ei, totul aparține naturii, iar macacul nu numai că nu poate construi un zgârie-nori, dar și înțelege că oricine îl poate construi. Și acesta este rezultatul unei mici diferențe în calitatea inteligenței.

În schema generală de inteligență despre care vorbim, sau pur și simplu de standardele ființelor biologice, diferența de calitate a inteligenței dintre oameni și maimuțe este minusculă. În articolul precedent, am plasat abilitățile cognitive biologice pe o scară:

Image
Image

Pentru a înțelege cât de serioasă va fi o mașină superinteligentă, așezați-o cu două crestături mai înalte decât persoana de pe scara respectivă. Această mașină poate fi doar puțin superinteligentă, dar superioritatea ei față de abilitățile noastre cognitive va fi aceeași ca a noastră - față de maimuțe. Și la fel cum un cimpanzeu nu va înțelege niciodată că un zgârie-nori poate fi construit, este posibil să nu înțelegem niciodată ce va înțelege o mașină cu câțiva pași mai mari, chiar dacă mașina încearcă să ni-o explice. Dar aceasta este doar câțiva pași. O mașină mai inteligentă va vedea furnici în noi - ne va învăța cele mai simple lucruri din poziția sa ani de zile, iar aceste încercări vor fi complet fără speranță.

Tipul de superinteligență despre care vom vorbi astăzi se află mult dincolo de această scară. Aceasta este o explozie de inteligență - atunci când o mașină mai inteligentă devine o mașină, cu atât mai rapidă își poate crește propria inteligență, crescând treptat impulsul. Poate dura ani de zile ca o mașină ca aceasta să depășească cimpanzeii în inteligență, dar poate câteva ore să ne depășească cu câțiva pași. Din acest moment, mașina poate sări deja peste patru trepte în fiecare secundă. De aceea, ar trebui să înțelegem că foarte curând după apariția primei știri că mașina a ajuns la nivelul inteligenței umane, este posibil să ne confruntăm cu realitatea coexistenței pe Pământ cu ceva care va fi mult mai mare decât noi pe această scară (sau poate și de milioane de ori mai mare):

Image
Image

Și din moment ce am stabilit că este complet inutil să încercăm să înțelegem puterea unei mașini care este doar la doi pași deasupra noastră, să definim o dată pentru totdeauna că nu există nicio modalitate de a înțelege ce va face ISI și care sunt consecințele acestui lucru pentru noi. Oricine susține contrariul pur și simplu nu înțelege ce înseamnă superinteligența.

Evoluția a evoluat lent și treptat creierul biologic de-a lungul a sute de milioane de ani, iar dacă oamenii creează o mașină superinteligentă, într-un sens, vom transcende evoluția. Sau va face parte din evoluție - poate că evoluția funcționează astfel încât inteligența să se dezvolte treptat până când ajunge la un moment de cotitură care anunță un nou viitor pentru toate lucrurile vii:

Image
Image

Din motive pe care le vom discuta mai târziu, o secțiune uriașă a comunității științifice consideră că nu se pune problema dacă vom ajunge la acest punct, ci când.

Unde ajungem după asta?

Cred că nimeni pe această lume, nici eu, nici tu, nu vom putea spune ce se va întâmpla când vom ajunge la punctul de vârf. Filozoful Oxford și teoreticianul principal al AI, Nick Bostrom consideră că putem fierbe toate rezultatele posibile în două mari categorii.

Mai întâi, analizând istoria, știm următoarele despre viață: speciile apar, există pentru o anumită perioadă de timp, apoi, inevitabil, cad din echilibrul vieții și mor.

Image
Image

„Toate speciile mor” a fost o regulă la fel de fiabilă în istorie ca „toți oamenii mor într-o zi”. 99,9% din specii au căzut dintr-un jurnal de viață și este destul de clar că dacă o specie rămâne pe acest jurnal prea mult timp, o rafală de vânt natural sau un asteroid brusc va întoarce jurnalul. Bostrom numește stingerea stării unui atrăgător - un loc în care toate speciile se echilibrează pentru a nu cădea acolo unde nicio specie nu a revenit.

Și deși majoritatea oamenilor de știință recunosc că ISI va avea capacitatea de a dispărea oamenii, pentru a dispărea, mulți cred, de asemenea, că utilizarea capabilităților ISI va permite indivizilor (și speciilor în ansamblu) să atingă a doua stare a atractorului - nemurirea speciilor. Bostrom consideră că nemurirea unei specii este la fel de atrăgătoare ca dispariția unei specii, adică, dacă vom ajunge la acest lucru, vom fi sortiți existenței veșnice. Astfel, chiar dacă toate speciile de până acum au căzut din acest băț în maelstromul dispariției, Bostrom consideră că buștenul are două laturi și pur și simplu nu a apărut pe Pământ o astfel de inteligență care ar înțelege să cadă în cealaltă parte.

Image
Image

Dacă Bostrom și alții au dreptate și, în funcție de toate informațiile disponibile, ar putea fi așa, trebuie să acceptăm două fapte foarte șocante:

1. Apariția ISI pentru prima dată în istorie va deschide posibilitatea unei specii de a realiza nemurirea și de a renunța la ciclul fatal de dispariție.

2. Apariția ISI va avea un impact atât de imens de mare încât, cel mai probabil, va împinge umanitatea de pe această rază într-o direcție sau în cealaltă.

Este posibil ca atunci când evoluția atinge un asemenea moment de cotitură, să pună capăt întotdeauna relației oamenilor cu fluxul vieții și să creeze o lume nouă, cu sau fără oameni.

Acest lucru ridică o întrebare interesantă, pe care numai un bummer nu i-ar pune-o: când vom ajunge la acest punct și unde ne va pune? Nimeni din lume nu știe răspunsul la această dublă întrebare, dar mulți oameni deștepți au încercat să-și dea seama de zeci de ani. Pentru restul articolului, ne vom da seama de unde provin.

* * *

Să începem cu prima parte a acestei întrebări: când trebuie să ajungem la punctul de basculare? Cu alte cuvinte: cât timp mai rămâne până când prima mașină ajunge la superinteligență?

Opiniile variază de la caz la caz. Mulți, inclusiv profesorul Vernor Vinge, omul de știință Ben Herzel, co-fondatorul Sun Microsystems Bill Joy, futuristul Ray Kurzweil, au fost de acord cu expertul în învățare automată Jeremy Howard atunci când a prezentat următorul grafic la TED Talk:

Image
Image

Acești oameni împărtășesc părerea că ISI vine în curând - această creștere exponențială, care ni se pare lentă astăzi, va exploda literalmente în următoarele câteva decenii.

Alții, cum ar fi co-fondatorul Microsoft, Paul Allen, psihologul de cercetare Gary Marcus, expertul în calculator Ernest Davis și antreprenorul tehnologic Mitch Kapor, cred că gânditorii precum Kurzweil subestimează serios amploarea problemei și cred că nu suntem aproape atât de aproape de un punct de înclinare.

Tabăra lui Kurzweil susține că singura subestimare care apare este nesocotirea creșterii exponențiale, iar dubii pot fi comparați cu cei care au privit Internetul în plină expansiune în 1985 și au susținut că nu va avea niciun impact asupra lumii în viitorul apropiat.

Îndoielile pot preveni că este mai dificil ca progresul să facă fiecare pas ulterior atunci când vine vorba de dezvoltarea exponențială a inteligenței, care neutralizează natura exponențială tipică a progresului tehnologic. Etc.

A treia tabără, în care se află Nick Bostrom, nu este de acord cu prima sau a doua, argumentând că a) toate acestea se pot întâmpla în viitorul apropiat; și b) nu există nicio garanție că acest lucru se va întâmpla deloc sau că va dura mai mult.

Alții, precum filosoful Hubert Dreyfus, cred că toate cele trei grupuri cred în mod naiv că va exista un moment de cotitură și că cel mai probabil nu vom ajunge niciodată la ISI.

Ce se întâmplă când punem toate aceste păreri?

În 2013, Bostrom a efectuat un sondaj în care a intervievat sute de experți în domeniul inteligenței artificiale în cadrul unei serii de conferințe pe următorul subiect: „Care vor fi previziunile dvs. pentru realizarea AGI la nivel uman?” și ne-a cerut să denumim un an optimist (în care vom avea AGI cu o șansă de 10 la sută), o presupunere realistă (anul în care vom avea AGI cu o probabilitate de 50 la sută) și o bănuială încrezătoare (primul an în care AGI va apărea începând cu 90 -probabilitate în procente). Iată rezultatele:

- Anul optimist mediu (10%): 2022

- An realist mediu (50%): 2040

- Anul pesimist mediu (90%): 2075

Respondenții obișnuiți consideră că în 25 de ani vom avea AGI mai degrabă decât nu. O șansă de 90% de apariție a AGI până în 2075 înseamnă că, dacă ești încă destul de tânăr acum, cel mai probabil se va întâmpla în viața ta.

Un studiu separat realizat recent de James Barratt (autorul apreciatei și foarte bune cărți Our Latest Invention, extrase din care am adus în atenția cititorilor Hi-News.ru) și Ben Hertzel la conferința AGI, o conferință anuală AGI, a arătat pur și simplu opiniile oamenilor raportat la anul ajungem la AGI: 2030, 2050, 2100, mai târziu sau niciodată. Iată rezultatele:

- Până în 2030: 42% dintre respondenți

- Până în 2050: 25%

- Până în anul 2100: 20%

- După 2100: 10%

- Niciodată: 2%

Similar cu rezultatele lui Bostrom. În sondajul lui Barratt, mai mult de două treimi dintre cei chestionați consideră că AGI va fi aici până în 2050 și mai puțin de jumătate cred că AGI va apărea în următorii 15 ani. De asemenea, este izbitor faptul că doar 2% dintre respondenți, în principiu, nu văd AGI în viitorul nostru.

Dar AGI nu este un punct de basculare ca ISI. Când, potrivit experților, vom avea ISI?

Bostrom a întrebat experții când vom ajunge la ASI: a) la doi ani de la atingerea AGI (adică aproape instantaneu din cauza unei explozii de informații); b) după 30 de ani. Rezultate?

Opinia medie este că tranziția rapidă de la AGI la ISI va avea loc cu o probabilitate de 10%, dar în 30 de ani sau mai puțin se va produce cu o probabilitate de 75%.

Din aceste date, nu știm la ce dată s-ar numi respondenții o șansă de 50 la sută de ASI, dar pe baza celor două răspunsuri de mai sus, să presupunem că este 20 de ani. Adică, cei mai importanți experți ai AI din lume consideră că punctul de cotitură va veni în 2060 (AGI va apărea în 2040 + va trece 20 de ani pentru trecerea de la AGI la ISI).

Image
Image

Desigur, toate statisticile de mai sus sunt speculative și reprezintă doar părerea experților în domeniul inteligenței artificiale, dar indică, de asemenea, că majoritatea persoanelor în cauză sunt de acord că până în 2060 AI va fi probabil să ajungă. În doar 45 de ani.

Să trecem la a doua întrebare. Când vom ajunge la punctul de basculare, ce parte a alegerii fatale ne va determina?

Superinteligența va avea cea mai puternică putere, iar întrebarea critică pentru noi va fi următoarea:

Cine sau ce va controla această putere și care va fi motivația lor?

Răspunsul la această întrebare va depinde dacă ISI va avea o dezvoltare incredibil de puternică, o dezvoltare incomensurabil terifiantă sau ceva între ele.

Desigur, comunitatea de experți încearcă să răspundă și la aceste întrebări. Sondajul Bostrom a analizat probabilitatea consecințelor posibile ale impactului AGI asupra umanității și s-a dovedit că, cu o șansă de 52 la sută, totul va merge foarte bine și cu o șansă de 31 la sută totul va merge fie prost, fie extrem de rău. Sondajul atașat la sfârșitul părții anterioare a acestui subiect, realizat între voi, dragi cititori ai Hi-News, a arătat cam aceleași rezultate. Pentru un rezultat relativ neutru, probabilitatea a fost de doar 17%. Cu alte cuvinte, cu toții credem că AGI va fi o afacere mare. De menționat, de asemenea, că acest sondaj se referă la apariția AGI - în cazul ISI, procentul de neutralitate va fi mai mic.

Înainte să ne adâncim să ne gândim la părțile bune și cele rele ale întrebării, să combinăm ambele părți ale întrebării - „când se va întâmpla asta?” și "este bine sau rău?" într-un tabel care acoperă opiniile majorității experților.

Image
Image

Vom vorbi despre tabăra principală într-un minut, dar mai întâi, decideți-vă poziția. Cel mai probabil, sunteți în același loc în care am fost înainte de a începe să lucrez la acest subiect. Există mai multe motive pentru care oamenii nu se gândesc deloc la acest subiect:

- După cum am menționat în prima parte, filmele au confundat în mod serios oamenii și faptele, prezentând scenarii nerealiste cu inteligență artificială, ceea ce a dus la faptul că nu ar trebui să luăm AI în serios deloc. James Barratt a asemănat această situație cu faptul că a fost emis de Centrele pentru Controlul Bolilor (CDC) cu un avertisment serios despre vampiri în viitorul nostru.

- Datorită așa-numitelor prejudecăți cognitive, este foarte greu pentru noi să credem că ceva este real până nu avem dovezi. Ne putem imagina cu încredere că oamenii de informatică din 1988 discută în mod regulat despre consecințele de amploare ale Internetului și despre ce ar putea deveni, dar oamenii credeau cu greu că își va schimba viața până nu se va întâmpla. Doar că calculatoarele nu au știut să facă asta în 1988, iar oamenii s-au uitat pur și simplu la calculatoarele lor și s-au gândit: „Serios? Este aceasta ce va schimba lumea? Imaginațiile lor erau limitate de ceea ce le-a învățat experiența personală, știau ce este un computer și era dificil să-ți imaginezi ce computer ar fi capabil în viitor. La fel se întâmplă și acum cu AI. Am auzit că va deveni un lucru seriosDar, deoarece nu am întâlnit-o încă față în față și, în general, observăm manifestări destul de slabe ale AI în lumea noastră modernă, ne este destul de dificil să credem că ne va schimba radical viața. Împotriva acestor prejudecăți, numeroși experți din toate taberele, precum și persoanele interesate, se opun încercării de a ne atrage atenția prin zgomotul egocentrismului colectiv de zi cu zi.

- Chiar dacă am crezut în toate acestea - de câte ori astăzi v-ați gândit la faptul că veți petrece restul eternității în nimic? Puțin, de acord. Chiar dacă acest fapt este mult mai important decât orice faceți zi de zi. Acest lucru se datorează faptului că creierul nostru este concentrat, de obicei, pe lucruri mici, de zi cu zi, indiferent cât de delirantă este situația pe termen lung în care ne aflăm. Doar că suntem făcuți.

Unul dintre obiectivele acestui articol este să te scoată din tabăra numită „Îmi place să mă gândesc la alte lucruri” și să te pun în tabăra de experți, chiar dacă stai doar la răscruce între cele două linii punctate din caseta de mai sus, complet nedecis.

În cursul cercetărilor, devine evident că opiniile majorității oamenilor se îndreaptă rapid spre „tabăra principală”, iar trei sferturi dintre experți se încadrează în două subcampe din tabăra principală.

Image
Image

Vom vizita ambele aceste tabere în întregime. Să începem cu distracția.

De ce ar putea fi viitorul cel mai mare vis al nostru?

În timp ce explorăm lumea AI, găsim surprinzător de mulți oameni în zona noastră de confort. Oamenii din pătratul din dreapta sus zâmbesc de emoție. Ei cred că vom cădea de partea bună a jurnalului și, de asemenea, cred că vom ajunge inevitabil la acest lucru. Pentru ei, viitorul este numai cel mai bun la care nu putem decât să visezi.

Ideea care îi disting pe acești oameni de alți gânditori nu este că vor să fie pe partea fericită - ci că sunt siguri că ea ne așteaptă.

Această încredere iese din controverse. Criticii consideră că provine de la entuziasmul amețitor care suprapune potențialele părți negative. Dar susținătorii spun că predicțiile sumbre sunt întotdeauna naive; tehnologia continuă și ne va ajuta întotdeauna mai mult decât să ne dăunăm.

Sunteți liber să alegeți oricare dintre aceste opinii, dar lăsați deoparte scepticismul și aruncați o privire bună asupra părții fericite a fasciculului de echilibru, încercând să acceptați faptul că tot ce ați citit s-a întâmplat deja. Dacă arătați vânătorilor-culegători lumea noastră de confort, tehnologie și abundență nesfârșită, li s-ar părea o ficțiune magică - și ne comportăm destul de modest, incapabil să admitem că aceeași transformare de neînțeles ne așteaptă în viitor.

Nick Bostrom descrie trei căi pe care le poate lua un sistem AI superinteligent:

Un oracol care poate răspunde oricărei întrebări exacte, inclusiv întrebări complexe la care oamenii nu pot răspunde - de exemplu, „cum să eficientizăm un motor auto?” Google este un tip primitiv de „oracol”.

Un geniu care va executa orice comandă la nivel înalt - folosind asamblatorul molecular pentru a crea o versiune nouă, mai eficientă a unui motor auto - și va aștepta următoarea comandă.

Un suveran care va avea acces larg și capacitatea de a funcționa liber în lume, luând propriile decizii și îmbunătățind procesul. El va inventa un mod de transport privat mai ieftin, mai rapid și mai sigur decât o mașină.

Aceste întrebări și sarcini, care ni se par dificile, vor părea pentru sistemul superinteligent ca și cum cineva ar cere să îmbunătățească situația „creionul meu a căzut de pe masă”, în care pur și simplu îl ridicați și îl puneți înapoi.

Eliezer Yudkowski, un expert american în inteligență artificială, a spus bine:

„Nu există probleme grele, doar probleme dificile pentru un anumit nivel de inteligență. Mergeți cu un pas mai sus (în ceea ce privește inteligența), iar unele probleme se vor deplasa brusc din categoria „imposibilului” în tabăra „evident”. Cu un pas mai mare - și toate vor deveni evidente."

Există mulți oameni de știință, inventatori și antreprenori nerăbdători, care au ales o zonă de confort încrezător de pe masa noastră, dar avem nevoie de un singur ghid pentru a merge mai bine în ceea ce este mai bun din lumi.

Ray Kurzweil este ambiguu. Unii îi idolizează ideile, alții disprețuiesc. Unii stau la mijloc - Douglas Hofstadter, discutând ideile cărților lui Kurzweil, a remarcat elocvent că „este ca și cum ai lua o mulțime de mâncare bună și un pic de câine, apoi ai amestecat totul în așa fel încât este imposibil să înțelegi ce este bine și ce este rău”.

Indiferent că îți plac ideile sau nu, este imposibil să le treci fără o umbră de interes. A început să inventeze lucruri ca adolescent, iar în anii următori a inventat mai multe lucruri importante, printre care primul scaner cu plat, primul scaner care a convertit textul în vorbire, cunoscutul sintetizator muzical Kurzweil (primul pian electric real) și primul recunoscător de vorbire cu succes comercial. Este, de asemenea, autorul a cinci cărți senzaționale. Kurzweil este apreciat pentru previziunile sale îndrăznețe, iar palmaresul său este destul de bun - la sfârșitul anilor 80, când Internetul era încă la început, a presupus că până în anii 2000 Web-ul va deveni un fenomen global. Wall Street Journal a numit Kurzweil un „geniu neliniștit”, Forbes a „mașină de gândire globală”, Inc. Revista - „Moștenitorul de drept al lui Edison”, Bill Gates - „cel mai bun dintre aceștiacare prezice viitorul inteligenței artificiale”. În 2012, cofondatorul Google Larry Page l-a invitat pe Kurzweil la postul de CTO. În 2011, el a co-fondat Universitatea Singularitate, care este găzduită de NASA și este parțial sponsorizată de Google.

Biografia lui contează. Când Kurzweil vorbește despre viziunea lui despre viitor, sună ca un nebun nebun, dar lucrul cu adevărat nebunesc despre el este că este departe de a fi nebun - este o persoană incredibil de inteligentă, educată și sănătoasă. Poate credeți că greșește în predicțiile sale, dar nu este un prost. Previziunile lui Kurzweil sunt împărtășite de mulți experți din zona de confort, Peter Diamandis și Ben Herzel. Aceasta este ceea ce crede că se va întâmpla.

Cronologie

Kurzweil consideră că calculatoarele vor atinge nivelul de inteligență artificială generală (AGI) până în 2029, iar până în 2045 nu vom avea doar superinteligență artificială, ci și o lume complet nouă - timpul așa-numitei singularități. Cronologia sa de AI este încă considerată exagerat de exagerată, dar în ultimii 15 ani, dezvoltarea rapidă a sistemelor de inteligență artificială (AI) extrem de concentrată a obligat mulți experți să se alăture Kurzweil. Previziunile sale rămân în continuare mai ambițioase decât sondajul lui Bostrom (AGI până în 2040, ISI până în 2060), dar nu de mult.

Potrivit lui Kurzweil, trei revoluții simultane în biotehnologie, nanotehnologie și, mai important, AI determină singularitatea anului 2045. Dar înainte să mergem mai departe - și nanotehnologia urmărește îndeaproape inteligența artificială - să luăm un minut pentru nanotehnologie.

Image
Image

Câteva cuvinte despre nanotehnologie

De obicei apelăm la tehnologii nanotehnologice care se ocupă de manipularea materiei în intervalul de 1-100 nanometri. Un nanometru este o miliardime de metru sau o milionime de milimetru; în intervalul 1-100 nanometri, se pot adăuga virusuri (100 nm în diametru), ADN (10 nm lățime), molecule de hemoglobină (5 nm), glucoză (1 nm) și altele. Dacă nanotehnologia va deveni vreodată subiectul nostru, următorul pas va fi manipularea atomilor individuali cu mai puțin de un ordin de mărime (~, 1 nm).

Pentru a înțelege unde oamenii se confruntă cu probleme care încearcă să manipuleze materia pe o asemenea scară, să sărim la o scară mai mare. Stația Spațială Internațională este la 481 de kilometri deasupra Pământului. Dacă oamenii ar fi giganti și s-ar lovi de ISS cu capul lor, ei ar fi de 250.000 de ori mai mari decât acum. Dacă măriți ceva de la 1 la 100 nanometri de 250.000 de ori, obțineți 2,5 centimetri. Nanotehnologia este echivalentul unui om, care orbitează pe ISS, încercând să manipuleze lucrurile de mărimea unui bob de nisip sau a unui glob ocular. Pentru a trece la nivelul următor - controlarea atomilor individuali - gigantul va trebui să poziționeze cu atenție obiecte cu un diametru de 1/40 milimetru. Oamenii obișnuiți vor avea nevoie de un microscop pentru a le vedea.

Pentru prima dată, Richard Feynman a vorbit despre nanotehnologie în 1959. Apoi a spus: „Principiile fizicii, din câte îmi dau seama, nu vorbesc împotriva posibilității de a controla lucrurile atom de atom. În principiu, un fizician ar putea sintetiza orice substanță chimică pe care un chimist a notat-o. Cum? Prin plasarea atomilor în care chimistul spune să obțină substanța Aceasta este întreaga simplitate. Dacă știi să miști molecule sau atomi individuali, poți face aproape orice.

Nanotehnologia a devenit un domeniu științific serios în 1986, când inginerul Eric Drexler și-a prezentat bazele în cartea sa originală, Machines of Creation, dar însuși Drexler consideră că cei care vor să afle mai multe despre ideile moderne în nanotehnologie ar trebui să citească cartea sa din 2013. Abundență deplină (Abundanță radicală).

După ce ajungem în partea de jos a nanotehnologiei, îl putem folosi pentru a crea dispozitive tehnice, îmbrăcăminte, alimente, bioproduse - celule din sânge, luptători de virus și cancer, țesut muscular și așa mai departe. Și într-o lume care folosește nanotehnologia, costul unui material nu va mai fi legat de deficitul său sau de complexitatea procesului său de fabricație, ci mai degrabă de complexitatea structurii sale atomice. În lumea nanotehnologiei, un diamant ar putea fi mai ieftin decât o radieră.

Încă nu suntem aproape. Și nu este în totalitate clar dacă subestimăm sau supraestimăm complexitatea acestei căi. Totuși, totul merge până la punctul în care nanotehnologia nu este departe. Kurzweil presupune că până în anii 2020 îi vom avea. Statele din lume știu că nanotehnologia poate promite un viitor mare și, prin urmare, investesc multe miliarde în ele.

Imaginează-ți ce posibilități ar avea un computer superinteligent dacă ar ajunge la un asamblator nano-scala de încredere. Dar nanotehnologia este ideea noastră și încercăm să o călărim, ne este greu. Ce se întâmplă dacă sunt doar o glumă pentru sistemul ISI și ISI în sine va veni cu tehnologii care vor fi de multe ori mai puternice decât orice putem presupune în principiu? Am fost de acord: nimeni nu își poate imagina de ce va fi capabil supraînțelepciunea artificială? Se crede că creierul nostru nu este capabil să prezică nici măcar minimul a ceea ce se va întâmpla.

Ce ar putea face AI pentru noi?

Înarmat cu superinteligență și cu toată tehnologia pe care superinteligența le-ar putea crea, ISI va putea, probabil, să rezolve toate problemele umanității. Încălzire globală? ISI va opri mai întâi emisiile de carbon, inventând o serie de combustibili ne-fosili eficienți pentru generarea de energie. El va veni apoi cu un mod eficient și inovator de a elimina excesul de CO2 din atmosferă. Cancer și alte boli? Nu este o problemă - asistența medicală și medicamentul se vor schimba în moduri imposibil de imaginat. Foamea mondială? ISI va folosi nanotehnologia pentru a crea carne care este identică cu cea naturală, de la zero, a cărnii reale.

Image
Image

Nanotehnologia va putea transforma o grămadă de gunoi într-o cuvă de carne proaspătă sau alte alimente (nu neapărat chiar în forma obișnuită - imaginați-vă un cub gigant de mere) și să distribui toată această mâncare în întreaga lume folosind sisteme avansate de transport. Desigur, acest lucru va fi excelent pentru animalele care nu mai trebuie să moară pentru mâncare. ISI poate face, de asemenea, multe alte lucruri, cum ar fi conservarea speciilor pe cale de dispariție sau chiar readucerea celor dispărute din ADN-ul conservat. ISI ne poate rezolva cele mai dificile probleme macroeconomice - dezbaterile noastre economice cele mai dificile, problemele etice și filozofice, comerțul global - toate acestea vor fi dureros evidente pentru ISI.

Dar există ceva foarte special pe care ISI l-ar putea face pentru noi. Atrăgătoare și înduioșătoare care ar schimba totul: ISI ne poate ajuta să facem față mortalității. Înțelegând treptat capacitățile AI, poate veți reconsidera toate ideile dvs. despre moarte.

Nu a existat niciun motiv ca evoluția să ne extindă durata de viață mai mult decât o face acum. Dacă trăim destul de mult pentru a da naștere și a crește copiii până la punctul în care se pot preface pentru ei înșiși, evoluția este suficientă. Din punct de vedere evolutiv, 30+ ani sunt suficienți pentru dezvoltare și nu există niciun motiv ca mutațiile să prelungească viața și să reducă valoarea selecției naturale. William Butler Yates a numit specia noastră „un suflet atașat unui animal pe moarte”. Nu prea distractiv.

Și întrucât toți murim într-o zi, trăim cu ideea că moartea este inevitabilă. Ne gândim la îmbătrânire în timp - continuând să avansez și să nu putem opri acest proces. Dar gândul la moarte este trădător: capturat de ea, uităm să trăim. Richard Feynman a scris:

„Există un lucru minunat în biologie: nu există nimic în această știință care să vorbească despre necesitatea morții. Dacă dorim să creăm o mașină perpetuă de mișcare, ne dăm seama că am găsit suficiente legi în fizică care indică imposibilitatea acestui lucru, fie că legile sunt greșite. Dar în biologie nu există nimic care să indice inevitabilitatea morții. Acest lucru mă determină să cred că nu este atât de inevitabil și este doar o chestiune de timp înainte ca biologii să descopere cauza acestei probleme, această boală universală teribilă, va fi vindecată.

Cert este că îmbătrânirea nu are nicio legătură cu timpul. Îmbătrânirea este atunci când materialele fizice ale corpului se uzează. Piesele auto se degradează și ele - dar este inevitabilă îmbătrânirea? Dacă reparați mașina pe măsură ce piesele se uzează, aceasta va dura pentru totdeauna. Corpul uman nu este diferit - doar mai complex.

Kurzweil vorbește despre nanoboturi inteligente, conectate Wi-Fi în fluxul sanguin, care ar putea efectua nenumărate sarcini pentru sănătatea umană, inclusiv repararea regulată sau înlocuirea celulelor uzate oriunde în corp. Îmbunătățirea acestui proces (sau găsirea unei alternative sugerate de o ASI mai inteligentă) nu numai că menține corpul sănătos, ci poate inversa îmbătrânirea. Diferența dintre corpul unui tânăr de 60 de ani și al unui 30 de ani constă într-o mână de probleme fizice care ar putea fi corectate cu tehnologia potrivită. ISI ar putea construi o mașină pe care o persoană ar intra atunci când va avea 60 de ani și va pleca când are 30 de ani.

Chiar și un creier degradat ar putea fi reînnoit. ISI ar ști cu siguranță să facă acest lucru fără a afecta datele creierului (personalitate, amintiri etc.). Un bărbat în vârstă de 90 de ani care suferă de degradare completă a creierului ar putea suferi recalificare, reînnoire și revenire la începutul vieții sale. Poate părea absurd, dar corpul este o mână de atomi și ISI cu siguranță le-ar putea manipula cu ușurință, orice structuri atomice. Nu este atât de absurd.

De asemenea, Kurzweil consideră că materialele artificiale se vor integra din ce în ce mai mult în corp pe măsură ce trece timpul. Pentru început, organele ar putea fi înlocuite cu versiuni de mașini super-avansate, care vor dura pentru totdeauna și nu vor eșua niciodată. Apoi am putea face o reproiectare completă a corpului, înlocuind globulele roșii cu nanoboturi perfecte care se mișcă de la sine, eliminând nevoia unei inimi cu totul. Am putea, de asemenea, să ne îmbunătățim abilitățile cognitive, să începem să gândim miliarde de ori mai rapid și să accesăm toate informațiile disponibile umanității prin cloud.

Posibilitățile de a înțelege noi orizonturi ar fi cu adevărat interminabile. Oamenii au reușit să înzestreze sexul cu un nou scop, o fac pentru plăcere, nu doar pentru reproducere. Kurzweil crede că putem face același lucru cu mâncarea. Nanobotii ar putea furniza nutriția ideală direct către celulele corpului, permițând trecerea substanțelor nesănătoase prin corp. Teoreticianul Nanotehnologiei, Robert Freitas, a dezvoltat deja un înlocuitor pentru celulele sanguine care, atunci când sunt implementate în corpul uman, îi pot permite să nu respire timp de 15 minute - iar acest lucru a fost inventat de o persoană. Imaginează-ți când ISI va câștiga putere.

La urma urmei, Kurzweil crede că oamenii vor ajunge în punctul în care vor deveni complet artificiali; perioada în care ne uităm la materialele biologice și ne gândim cât de primitive au fost; perioada în care vom citi despre etapele timpurii ale istoriei umane, uimiți de modul în care germenii, accidentele, bolile sau pur și simplu bătrânețea ar putea ucide o persoană împotriva voinței sale. În cele din urmă, oamenii își vor învinge propria biologie și vor deveni veșnici - aceasta este calea către partea fericită a fasciculului de echilibru despre care am vorbit de la bun început. Și oamenii care cred în acest lucru sunt, de asemenea, siguri că un astfel de viitor ne așteaptă foarte curând.

Probabil că nu va fi surprins că ideile lui Kurzweil au atras critici dure. Singuritatea sa din 2045 și viața eternă ulterioară pentru oameni a fost numită „ascensiunea tocilarilor” sau „crearea inteligentă a oamenilor cu un coeficient de coeficiență de 140”. Alții au pus sub semnul întrebării termenul optimist, înțelegerea corpului și a creierului uman, amintind de legea lui Moore, care nu a dispărut încă. Pentru fiecare expert care crede în ideile lui Kurzweil, există trei care cred că greșește.

Dar cel mai interesant lucru în acest sens este faptul că majoritatea experților care nu sunt de acord cu el în general nu spun că acest lucru este imposibil. În loc să spună „prostii, acest lucru nu se va întâmpla niciodată”, ei spun ceva de genul „toate acestea se vor întâmpla dacă ajungem la ISI, dar aceasta este problema”. Bostrom, unul dintre apreciatii experți ai AI care avertizează asupra pericolului AI, admite, de asemenea:

„Nu mai există aproape nicio problemă pe care superinteligența nu o poate rezolva sau chiar ne poate ajuta să rezolvăm. Boala, sărăcia, distrugerea mediului, suferințe de tot felul - toată această superinteligență cu ajutorul nanotehnologiei se poate rezolva într-o clipă. Superinteligența ne poate oferi, de asemenea, o viață nelimitată prin oprirea și inversarea procesului de îmbătrânire folosind nanomedicina sau capacitatea de a ne încărca în cloud. Superinteligența poate crea, de asemenea, oportunități pentru creșteri interminabile ale capacităților intelectuale și emoționale; El ne poate ajuta să creăm o lume în care vom trăi în bucurie și înțelegere, apropiindu-ne de idealurile noastre și făcând în mod regulat visele noastre să devină realitate."

Acesta este un citat al unuia dintre criticii lui Kurzweil, care admite că toate acestea sunt posibile dacă putem crea o ASI sigură. Kurzweil a definit, pur și simplu, ce ar trebui să devină superinteligența artificială. Și dacă este un bun zeu.

Cea mai evidentă critică a susținătorilor zonei de confort este aceea că pot fi condamnați greșit în evaluarea viitorului ISI. În cartea sa Singularitatea, Kurzweil a dedicat 20 de pagini din 700 de potențiale amenințări ISI. Întrebarea nu este când ajungem la ISI, întrebarea este care va fi motivația sa. Kurzweil răspunde la această întrebare cu precauție: „ISI provine din multe eforturi disparate și va fi profund integrat în infrastructura civilizației noastre. De fapt, va fi strâns încorporat în corpul și creierul nostru. El va reflecta valorile noastre pentru că va fi unul cu noi."

Dar dacă răspunsul este, de ce sunt atât de mulți oameni deștepți din această lume îngrijorați de viitorul inteligenței artificiale? De ce spune Stephen Hawking că dezvoltarea ISI „ar putea însemna sfârșitul rasei umane”? Bill Gates spune că „nu înțelege oamenii care nu sunt deranjați” despre asta. Elon Musk se teme că „invocăm un demon”. De ce mulți experți consideră că ISI este cea mai mare amenințare pentru umanitate?

Bazat pe materiale de la waitbutwhy.com, compilare de Tim Urban Articolul folosește materiale din lucrările lui Nick Bostrom, James Barratt, Ray Kurzweil, Jay Niels-Nilsson, Stephen Pinker, Vernor Vinge, Moshe Vardy, Russ Roberts, Stuart Armstrog și Kai Sotal, Susan Schneider, Stuart Russell și Peter Norvig, Theodore Modis Marcus, Karl Schulman, John Searle, Jaron Lanier, Bill Joy, Kevin Keley, Paul Allen, Stephen Hawking, Kurt Andersen, Mitch Kapor, Ben Herzel, Arthur Clark, Hubert Dreyfus, Ted Greenwald, Jeremy Howard.

Autor: Ilya Khel

Partea a treia: de ce ar putea fi ultima noastră invenție?

Recomandat: