Omenire Periculoasă: De Ce Avem Nevoie De Inteligență Artificială Inteligentă? - Vedere Alternativă

Cuprins:

Omenire Periculoasă: De Ce Avem Nevoie De Inteligență Artificială Inteligentă? - Vedere Alternativă
Omenire Periculoasă: De Ce Avem Nevoie De Inteligență Artificială Inteligentă? - Vedere Alternativă

Video: Omenire Periculoasă: De Ce Avem Nevoie De Inteligență Artificială Inteligentă? - Vedere Alternativă

Video: Omenire Periculoasă: De Ce Avem Nevoie De Inteligență Artificială Inteligentă? - Vedere Alternativă
Video: INTELIGENȚA ARTIFICIALĂ | SALVAREA SAU SFÂRȘITUL LUMII ? 2024, Mai
Anonim

Când Norbert Wiener, tatăl ciberneticii, a scris cartea sa The Human Uses of Human Beings în 1950, tuburile de vid erau încă principalele blocuri de construcții electronice și existau, de fapt, doar câteva computere în lucru. Cu toate acestea, el a imaginat viitorul pe care îl vedem acum cu o precizie fără precedent, confundând doar detalii minore.

Înaintea oricărui alt filosof al inteligenței artificiale, el și-a dat seama că AI nu numai că va imita - și înlocui - ființele umane în multe tipuri de activitate intelectuală, ci și le va schimba pe oameni în proces. „Suntem doar vârtejuri într-un râu cu apă mereu curgătoare”, a scris el. „Nu suntem ceva care doar trăiește, suntem modele care se perpetuează”.

De exemplu, atunci când apar multe oportunități de încurajare, suntem dispuși să plătim și să acceptăm costurile mici ale conducerii unei afaceri pentru a accesa noi oportunități. Și foarte curând devenim dependenți de instrumente noi, pierdem capacitatea de a exista fără ele. Opțiunile devin necesare.

Aceasta este o istorie foarte veche a evoluției și multe dintre capitolele de la ea ne sunt cunoscute. Majoritatea mamiferelor își pot sintetiza propria vitamina C, dar primatele care consumă fructe și-au pierdut această capacitate încorporată. Modelele auto-repetate pe care le numim oameni se bazează acum pe îmbrăcăminte, alimente procesate, vitamine, seringi, cărți de credit, smartphone-uri și internet. Și mâine, dacă nu astăzi, din inteligența artificială.

Wiener a prevăzut mai multe probleme cu această stare de lucruri pe care Alan Turing și alți optimiști timpurii ai AI le-au trecut cu vederea. A spus că adevărata amenințare a fost:

… este că astfel de mașini, deși sunt neajutorate în sine, pot fi folosite de oameni sau să blocheze ființele umane pentru a-și spori controlul asupra restului rasei, sau liderii politici pot încerca să preia controlul populațiilor lor folosind metode politice, mai degrabă decât mașinile în sine, la fel de îngust și indiferent de om, de parcă ar fi fost inventate mecanic.

Evident, aceste pericole sunt acum foarte relevante.

În mass-media, de exemplu, inovațiile în audio și video digitale ne permit să plătim un preț mic (în ochii audiofililor și filmelor) pentru a ne îndepărta de formate analogice și, în schimb, a primi o modalitate extrem de simplă - prea simplă - de a juca înregistrări fără aproape nicio restricție.

Video promotional:

Image
Image

Dar există un cost ascuns uriaș. Ministerul adevărului Orwell a devenit o adevărată oportunitate. Tehnicile AI pentru crearea de „înregistrări” false indistinguibile fac ca instrumentele pe care le-am folosit pentru investigații să fie învechite în ultimii 150 de ani.

Tot ce ne rămâne este să abandonăm pur și simplu epoca scurtă a dovezilor fotografice și să ne întoarcem la acea lume veche, în care memoria umană și încrederea au fost standardul de aur. Sau putem dezvolta noi metode de apărare și atac în lupta pentru adevăr. Unul dintre cele mai interesante exemple recente este faptul că este mult mai ieftin să distrugi o reputație decât să câștigi și să protejezi aceeași reputație. Wiener a văzut acest fenomen foarte pe larg: „Pe termen lung, nu va exista nicio diferență între a te înarma și a încerca inamicul”. Era informației a devenit și o eră a dezinformării.

Ce putem face? Cheia este aceeași observație a lui Wiener că „aceste mașini” sunt „ele însele neajutorate”. Noi creăm instrumente, nu colegi, iar adevărata amenințare este că nu vedem diferența.

Inteligența artificială în forma sa actuală este parazită asupra inteligenței umane. El intră foarte neîncrezător în posesia a tot ceea ce creatorii umani au creat și desenează tipare - inclusiv obiceiurile noastre cele mai secrete. Aceste mașini nu au încă obiective sau strategii, nu sunt capabile de autocritică și inovație, ele studiază doar bazele noastre de date, fără propriile gânduri și obiective.

După cum spune Wiener, sunt neputincioși nu în sensul că sunt înlănțuiți sau imobilizați, nu, nu sunt deloc agenți - nu au capacitatea de a „acționa din cauze”, așa cum ar spune Kant.

Pe termen lung, „AI puternic”, sau inteligență artificială generală, este posibilă în principiu, dar nu este de dorit. AI chiar mai limitată care este posibilă în practică astăzi nu va fi rea. Dar reprezintă o amenințare - în parte, deoarece poate fi confundată cu o IA puternică.

Cât de puternică este astăzi inteligența artificială?

Diferența dintre sistemele de astăzi și sistemele de ficțiune care inundă imaginația populară este încă uriașă, deși mulți oameni, atât amatori, cât și profesioniști, tind să o subestimeze. Haideți să aruncăm o privire asupra Watson-ului IBM, care poate fi respectabil în vremurile noastre.

Acest supercomputer este rezultatul unui proces de cercetare și dezvoltare extrem de mare (cercetare și dezvoltare) care a implicat multe persoane și a proiectat inteligența de-a lungul mai multor secole și care folosește de mii de ori mai multă energie decât creierul uman. Victoria sa în Jeopardy! a fost un adevărat triumf făcut posibil prin constrângerile formulare ale regulilor Jeopardy !, dar chiar și aceste reguli trebuiau revizuite pentru a putea participa. A trebuit să renunț la o mică versatilitate și să adaug umanitate pentru a face spectacolul.

Watson este o companie proastă, în ciuda reclamelor înșelătoare de la IBM care promit abilitatea de conversație AI la ambele niveluri, și transformarea lui Watson într-un agent polivalent credibil ar fi ca și cum ai transforma un calculator în Watson. Watson poate fi un caz de calcul bun pentru un astfel de agent, ci mai degrabă un cerebel sau amigdala, mai degrabă decât o minte - în cel mai bun caz, un subsistem cu scop special care servește ca suport, dar nu aproape un sistem pentru planificarea și formularea obiectivelor bazate pe experiența conversațională dobândită.

De ce am vrea să creăm un agent gânditor și creativ din Watson? Poate că ideea strălucitoare a lui Turing - celebrul test Turing - ne-a ademenit într-o capcană: am devenit obsedați de a crea cel puțin iluzia unei persoane reale care stă în fața unui ecran, ocolind „valea nefăcută”.

Pericolul este că, de când Turing și-a prezentat sarcina - care a fost în primul rând o sarcină de a înșela judecătorii - creatorii AI au încercat să o realizeze folosind păpuși umanoide amuzante, versiuni „desene animate” care îi vor fascina și dezarma pe neinițiați. ELIZA de Joseph Weisenbaum, primul chatbot, a fost un exemplu primordial de creare a unei asemenea iluzii, dar cu un algoritm extrem de simplu care ar putea convinge oamenii că au conversații sincere și sincere cu alte persoane.

Era îngrijorat de ușurința cu care oamenii sunt dispuși să creadă acest lucru. Și dacă ne-am dat seama de ceva din testul anual Turing limitat al premiului Lebner, este faptul că chiar și cei mai deștepți oameni care nu sunt versați în programarea computerului se potrivesc cu ușurință de aceste trucuri simple.

Atitudinea oamenilor din AI față de astfel de tehnici variază de la judecată la recompensare, iar consensul este că aceste trucuri nu sunt foarte profunde, dar pot fi utile. O schimbare de atitudine care ar fi foarte binevenită ar fi o admitere sinceră că androizii pictați cu păpuși sunt reclame false care ar trebui condamnate și nu încurajate.

Cum se poate realiza acest lucru? Odată ce înțelegem că oamenii încep să ia decizii despre viață și moarte urmând „sfaturile” sistemelor AI, ale căror operațiuni interne sunt aproape de neînțeles, vom vedea un motiv bun pentru cei care îndeamnă oamenii să aibă încredere în astfel de sisteme, să înceapă să se bazeze pe normele moralei și legii.

Sistemele de inteligență artificială sunt instrumente foarte puternice. Atât de puternic încât chiar și experții au un motiv întemeiat să nu aibă încredere în propria lor judecată atunci când există „judecăți” reprezentate de aceste instrumente. Dar dacă acești utilizatori ai instrumentelor vor beneficia, financiar sau altfel, de popularizarea acestor instrumente, trebuie să se asigure că știu să facă acest lucru cu responsabilitate deplină, control maxim și justificare.

Licențierea și aprobarea operatorilor unor astfel de sisteme - la fel cum autorizăm farmaciștii, operatorii de macara și alți profesioniști ale căror greșeli și judecăți greșite pot avea consecințe grave - poate, cu sprijinul companiilor de asigurări și al altor organizații, obligă creatorii sistemelor AI să parcurgă un drum lung. căutând punctele slabe și deficiențele produselor lor și, de asemenea, îi antrenează pe cei care urmează să lucreze cu ei.

Se poate imagina un fel de test invers Turing în care judecătorul va face obiectul evaluării; până când nu va găsi slăbiciune, încălcarea limitelor, lacune în sistem, nu va primi o licență. Un astfel de judecător va necesita o pregătire serioasă pentru a obține o certificare. Nevoia de a atribui unui obiect o abilitate umană de a gândi, așa cum facem de obicei atunci când întâlnim un agent inteligent, este foarte, foarte puternică.

De fapt, capacitatea de a rezista dorinței de a vedea ceva umanizat este un lucru ciudat. Mulți oameni ar putea crește un astfel de talent dubios, deoarece chiar și cei mai pragmatici utilizatori ai sistemului sunt ocazional „prietenoși” cu instrumentele lor.

Indiferent de cât de atent proiectanții AI aleg să elimine preturile „umane” false din produsele lor, ar trebui să ne așteptăm la înflorirea etichetelor, a soluțiilor de rezolvare și a distorsiunilor tolerabile ale „înțelegerii” actuale atât a sistemelor, cât și a operatorilor lor. În același mod în care medicamentele cu o listă lungă de efecte secundare sunt publicitate la televizor sau alcoolul este anunțat cu o cantitate mică de caractere mici, cu toate avertismentele cerute de lege, astfel încât dezvoltatorii de informații artificiale vor respecta legea, dar vor fi sofisticate în avertismente.

De ce avem nevoie de inteligență artificială?

Nu avem nevoie de agenți conștienți artificiali. Există o mulțime de agenți conștienți naturali care sunt suficienți pentru a îndeplini orice sarcină pentru profesioniști și persoane privilegiate. Avem nevoie de instrumente inteligente. Instrumentele nu au drepturi și nu ar trebui să aibă sentimente care pot fi rănite sau folosite greșit.

Un motiv pentru a nu face agenți conștienți artificiali este că, deși pot deveni autonomi (și, în principiu, pot fi la fel de autonomi, de auto-îmbunătățire sau de auto-creare ca orice persoană), ei nu ar trebui - fără permisiunea specială - să împărtășească cu agenți conștienți naturali, vulnerabilitatea sau mortalitatea noastră.

Daniel Dennett, profesor de filozofie la Universitatea Tufts, i-a provocat pe studenți într-un atelier privind agenții artificiali și autonomia: Dă-mi specificațiile unui robot care poate semna un contract cu tine - nu un surogat deținut de o altă persoană, ci de unul singur. Nu este vorba de a înțelege motivele sau de a manipula stiloul pe hârtie, ci mai degrabă deținerea și binemeritata proprietate a statutului juridic și a responsabilității morale. Copiii mici nu pot semna astfel de contracte, precum și persoanele cu dizabilități, al căror statut juridic îi obligă să fie sub tutelă și își impune responsabilitatea tutorilor.

Problema cu roboții care ar putea dori să obțină un astfel de statut exaltat este că, la fel ca Superman, sunt prea vulnerabili pentru a face astfel de pretenții. Dacă refuză, ce se va întâmpla? Care va fi pedeapsa pentru încălcarea unei promisiuni? Vor fi încuiați într-o cușcă sau luați afară? O închisoare pentru inteligență artificială nu va fi incomodă decât dacă vom încărca mai întâi setea de libertate care nu poate fi ignorată sau dezactivată chiar de AI. Demontarea AI-ului nu va ucide informațiile stocate pe discul său și în software.

Ușurătatea înregistrării și transmiterii digitale a datelor - o descoperire care a permis software-ului și datelor să realizeze, de fapt, nemurirea - face ca roboții să fie invulnerabili. Dacă nu vi se pare evident, gândiți-vă cum s-ar schimba moralitatea oamenilor dacă am putea sprijini oamenii în fiecare săptămână. Saltul de pe un pod fără o bandă de cauciuc duminică, după o copie de rezervă de vineri, poate fi o decizie erupțioasă, apoi poți urmări filmările morții tale premature mai târziu.

De aceea, nu creăm conștienți - am dori să creăm - agenți umanoizi, ci mai degrabă un tip complet nou de creaturi, unele oracole, inconștiente, fără teamă de moarte, fără distragere de dragoste și ură, fără personalitate: oglinzi de adevăr care vor fi aproape sigur infectate de om. minciuni.

Utilizarea umană a ființelor umane se va schimba curând - încă o dată - pentru totdeauna, dar dacă ne asumăm responsabilitatea pentru traiectoria noastră evolutivă, putem evita pericolele inutile.

Ilya Khel

Recomandat: