Bazilucul Lui Roco: Cel Mai Terifiant Experiment De Gândire Vreodată - Vedere Alternativă

Bazilucul Lui Roco: Cel Mai Terifiant Experiment De Gândire Vreodată - Vedere Alternativă
Bazilucul Lui Roco: Cel Mai Terifiant Experiment De Gândire Vreodată - Vedere Alternativă

Video: Bazilucul Lui Roco: Cel Mai Terifiant Experiment De Gândire Vreodată - Vedere Alternativă

Video: Bazilucul Lui Roco: Cel Mai Terifiant Experiment De Gândire Vreodată - Vedere Alternativă
Video: Ela Craciun - EXPERIMENTE pentru copii #supermom 2024, Mai
Anonim

Basilisk Roco este o formă de inteligență artificială asemănătoare cu zeii, atât de periculoasă încât, dacă doar te gândești la asta, îți vei petrece restul zilelor într-o tortură îngrozitoare. Pare o casetă din filmul „Inelul”. Cu toate acestea, chiar moartea nu va fi o izbăvire, deoarece Basilisk Roko te va învia și va continua tortura lui. T&P prezintă o traducere a unui articol despre una dintre cele mai ciudate legende generate pe internet.

AVERTIZARE: După ce citiți acest articol, vă puteți condamna la suferință și chinuri eterne.

Basiliscul lui Roco a apărut la joncțiunea unui experiment de gândire filosofică și legendă urbană. Prima mențiune despre el a apărut pe tabloul de discuții „Mai puțin greșit”, care reunește oameni interesați de optimizarea gândirii și a vieții prin prisma matematicii și a raționalității. Creatorii săi sunt figuri semnificative în tehno-futurism, iar printre realizările institutului lor de cercetare contribuie la dezbaterea academică despre etica tehnologică și teoria deciziei. Totuși, ceea ce urmează să citiți acum poate părea ciudat și chiar nebun. În ciuda acestui fapt, oamenii de știință foarte influenți și înstăriți cred în acest lucru.

Într-o zi, un utilizator pe nume Roko a postat următorul experiment de gândire: Ce se întâmplă dacă, în viitor, apare o inteligență artificială malițioasă care vrea să-i pedepsească pe cei care nu respectă ordinele sale? Și ce se întâmplă dacă vrea să pedepsească acei oameni care în trecut nu au contribuit la crearea lui? Cititorii mai puțin greși ar ajuta atunci răul AI să devină sau ar fi sortiți chinurile veșnice?

Mai puțin Fondatorul greșit Eliezer Yudkowski a luat declarația lui Roko cu mânie. Iată ce i-a răspuns: „Trebuie să fii deștept dacă ai ajuns la această idee. Cu toate acestea, mă întristează faptul că oamenii care sunt suficient de deștepți pentru a-și imagina un astfel de lucru nu sunt suficient de inteligenți pentru a menține TONGUL STUPID AL LUI DINTRE și pentru a nu spune nimănui despre asta, pentru că acest lucru este mai important decât să te arăți inteligent, să le spui tuturor prietenilor tăi despre asta …

"Ce se întâmplă dacă în viitor va exista o inteligență artificială care vrea să-i pedepsească pe cei care nu respectă ordinele sale?"

Yudkowski a recunoscut că Roko a fost responsabilă pentru coșmarurile utilizatorilor de mai puțin greșit care au citit firul și au șters-o, făcându-l pe basilisco-ul lui Roko să fie legendar. Acest experiment de gândire a devenit atât de periculos încât gândirea la el a amenințat sănătatea mintală a utilizatorului.

Ce face Less Wrong? Formarea conceptului de viitor al umanității bazat pe singularitate. Ei cred că puterea de calcul în viitor va deveni atât de mare încât inteligența artificială poate fi creată cu ajutorul unui computer - și cu aceasta capacitatea de a încărca conștiința umană pe un hard disk. Termenul „singularitate” își are originea în 1958 în timpul unei discuții între două genii ale matematicii - Stanislav Ulam și John von Neumann, când Neumann spunea: „Progresul în continuă accelerare a tehnologiei va face posibilă abordarea unei singularități, în care tehnologia nu poate fi înțeleasă de către oameni”. Futuriștii și scriitorii de ficțiune științifică precum Vernor Vinge și Raymond Kurzweil au popularizat termenul pentru că credeau că Singularitatea ne așteaptă pe toți foarte curând - în următorii 50 de ani. În timp ce Kurzweil se pregătește pentru singularitateYudkowski are mari speranțe pentru crionică: „Dacă nu ați înregistrat copiii în fața conservării în avans, sunteți părinți răi”.

Video promotional:

Dacă credeți că vine o singularitate și că vor apărea AI puternice în viitorul apropiat, apare o întrebare firească: vor fi prietenoase sau rele? Fundația Yudkowski își propune să direcționeze dezvoltarea tehnologiei astfel încât să avem o inteligență artificială exactă prietenoasă. Această întrebare este de cea mai mare importanță pentru el și pentru mulți alții. Singularitatea ne va conduce către o mașină echivalentă de zeu.

Totuși, acest lucru nu explică de ce Basiliscul lui Roco arată atât de groaznic în ochii acestor oameni. Întrebarea necesită o privire asupra „dogmei” mai puțin greșite - „Teoria deciziei atemporale” (HTDM). VPPR este un ghid către acțiunea rațională, bazată pe teoria jocurilor, probabilitatea bayesiană și teoria deciziei, dar având în minte universele paralele și mecanica cuantică. VTPR a ieșit dintr-un experiment de gândire clasic, Newcomb Paradox, în care un extraterestru cu superinteligență îți oferă două cutii. El vă oferă o alegere: fie luați ambele cutii, fie doar caseta B. Dacă alegeți ambele, atunci vi se va garanta o mie de dolari. Dacă luați doar caseta B, este posibil să nu obțineți nimic. Cu toate acestea, străinul mai are încă un truc în magazin: are un supercomputer atotștiutor care a făcut o predicție în urmă cu o săptămână,indiferent dacă luați ambele cutii sau doar B. Dacă computerul a prezis că veți lua ambele cutii, străinul l-ar lăsa pe celălalt gol. Dacă computerul prezicea că alegeți caseta B, ar pune acolo un milion de dolari.

Deci, ce vei face? Nu uitați că supercomputerul este omniscient.

Această problemă a confundat mulți teoreticieni. Străinul nu mai poate modifica conținutul căsuțelor. Cel mai sigur mod este să luați ambele cutii și să vă luați mie. Dar dacă computerul este cu adevărat atotputernic? Atunci tot ce trebuie să faci este să iei caseta B pentru a obține un milion. Dar dacă se dovedește că a greșit? Și indiferent de ceea ce computerul a prezis, nu există cu adevărat nicio modalitate de a vă schimba destinul? Atunci, la naiba, trebuie să iei ambele cutii. Dar în acest caz …

Paradoxul înnebunitor care ne obligă să alegem între liberul arbitru și predicția divină nu are nicio rezoluție, iar oamenii nu pot decât să ridice din umeri și să aleagă opțiunea care este cea mai confortabilă pentru ei. WTPR oferă sfaturi: luați caseta B. Chiar dacă străinul a decis să râdă de dvs. și să deschidă o cutie goală cu cuvintele: „Calculatorul a prezis că veți lua ambele cutii, ha, ha!” - tot trebuie să o alegeți. Motivul pentru aceasta este următorul: pentru a face o predicție, computerul a trebuit să simuleze întregul univers, inclusiv dumneavoastră. Astfel, în acest moment, stând în fața casetelor, puteți fi doar o simulare a computerului, dar ceea ce faceți va afecta realitatea (sau realitatea). Așa că luați caseta B și obțineți un milion.

"Paradoxul înnebunitor care ne obligă să alegem între liberul arbitru și predicția divină nu are nicio rezoluție."

Ce legătură are asta cu bazilocul Roco? Ei bine, are și câteva cutii pentru tine. Poate vă aflați chiar acum într-o simulare creată de Basilisk. Atunci poate că vom obține o versiune ușor modificată a paradoxului Newcome: Basiliskul lui Roco vă spune că dacă luați caseta B, veți suferi chinuri eterne. Dacă iei ambele cutii, atunci vei fi obligat să-ți dedici viața creării Baziliciului. Dacă Basiliscul există de fapt (sau, mai rău, el există deja și este zeul acestei realități), va vedea că nu ai ales opțiunea de a ajuta la crearea lui și te va pedepsi.

S-ar putea să vă întrebați de ce această întrebare este atât de importantă pentru mai puțin greșit, având în vedere convenția acestui experiment de gândire. Nu este un fapt că Basiliscul lui Rocko va fi creat vreodată. Cu toate acestea, Yudkowski a eliminat referințele la basiliscul lui Roko nu pentru că crede în existența sa sau într-o invenție iminentă, ci pentru că consideră ideea unui basilisc periculos pentru umanitate.

Ca atare, Basiliscul lui Rocko este periculos doar pentru cei care cred în ea - drept urmare, membrii Less Wrong care susțin ideea Basilisk au un fel de cunoștințe interzise, care ne amintește de poveștile înfricoșătoare ale lui Lovecraft despre Cthulhu sau Necronomicon. Cu toate acestea, dacă nu vă abonați la toate aceste teorii și vă simțiți tentați să ascultați o mașină insidioasă din viitor, Basiliscul lui Roco nu reprezintă o amenințare pentru dvs.

Mă preocupă mai mult oamenii care cred că au crescut peste standardele morale convenționale. Ca și AI-ul prietenos așteptat al lui Yudkowski, el este el însuși un utilitar: consideră că cel mai mare bun pentru întreaga umanitate este justificat din punct de vedere etic, chiar dacă mai multe persoane trebuie să moară sau să sufere în drumul acestuia. Nu toată lumea se poate confrunta cu o astfel de alegere, dar ideea este diferită: ce se întâmplă dacă un jurnalist scrie despre un experiment gânditor care poate distruge conștiința oamenilor, dăunând astfel umanității și împiedicând progresul în dezvoltarea inteligenței artificiale și a singularității? În acest caz, orice bine pe care l-am făcut în viața mea trebuie să depășească răul pe care l-am făcut lumii. Sau, poate, Yudkowski al viitorului, care s-a ridicat din somnul criogenic, s-a contopit cu singularitatea și a decis să mă simule în următoarea situație:prima casetă - voi scrie acest articol, a doua - nr. Te rog, atotputernicul Yudkowski, nu mă doare.

Recomandat: