Cum Să Ne Protejăm De Inteligența Artificială? - Vedere Alternativă

Cuprins:

Cum Să Ne Protejăm De Inteligența Artificială? - Vedere Alternativă
Cum Să Ne Protejăm De Inteligența Artificială? - Vedere Alternativă

Video: Cum Să Ne Protejăm De Inteligența Artificială? - Vedere Alternativă

Video: Cum Să Ne Protejăm De Inteligența Artificială? - Vedere Alternativă
Video: INTELIGENȚA ARTIFICIALĂ O SĂ NE ÎNLOCUIASCĂ 2024, Septembrie
Anonim

Ideea că inteligența artificială ne va conduce inevitabil la un scenariu în care mașinile se revoltă împotriva oamenilor este destul de populară. Superinteligența artificială pare a fi cea mai mare amenințare posibilă, iar poveștile fantastice conform cărora nu vom fi necesari într-o lume deținută de tehnologie nu și-au pierdut niciodată popularitatea.

Este inevitabil?

Portretizarea literară și cinematografică a sistemelor informatice inteligente din anii '60 a ajutat la formarea și rezumarea așteptărilor noastre pentru viitor în timp ce pornim în călătoria creării inteligenței mașinii care depășește inteligența umană. În mod evident, AI a depășit deja oamenii în anumite sarcini specifice care necesită un calcul complex, dar rămâne în urmă într-o serie de alte capacități. Cum să creștem simultan puterea acestui instrument dur și să ne păstrăm poziția economică asupra sa.

Întrucât inteligența artificială joacă deja și va continua să joace un rol important în viitorul nostru, este imperativ să explorăm posibilitățile noastre de coexistență cu aceste tehnologii complexe.

Kevin Abosch, fondatorul Kwikdesk, o companie de procesare a datelor și informații artificiale, și-a împărtășit gândurile în acest sens. El consideră că inteligența artificială ar trebui să fie rapidă, inconștientă, fiabilă, alfabetizată și etică. Da, etic.

Cadru etic

Video promotional:

Conceptul unei rețele neuronale artificiale, modelat după o rețea neuronală biologică, nu este nimic nou. Unitățile de putere de calcul, numite neuroni, se conectează între ele pentru a forma o rețea. Fiecare neuron aplică un algoritm sofisticat de învățare pe intrare, înainte de a transmite date altor neuroni, până când neuronul de la ieșire este activat și deschide posibilitatea lecturii. Sistemele de expertiză se bazează pe oameni pentru a „învăța” sistemul, plantând semințele cunoașterii. Motoarele logice caută meciuri, fac alegeri, stabilesc reguli dacă acest lucru este apoi la baza de cunoștințe. În acest proces, noi cunoștințe sunt adăugate la baza de cunoștințe. O rețea neurală pură învață în procesul de a dobândi experiență neliniară, nu are problema semănării cunoștințelor de către un expert. Rețelele hibride s-au doveditcare îmbunătățesc capacitățile de învățare ale mașinilor.

Acum să analizăm problemele etice ale unor astfel de sisteme. Mai departe de prima persoană.

Image
Image

„Cod rău” versus cod bun

Autorul folosește cuvinte pentru a cufunda cititorul într-o lume fictivă și o face în diferite moduri, dar marii autori o fac foarte grațios. Un inginer software scrie linii de cod care facilitează procesarea și mișcarea datelor. De asemenea, el poate alege dintr-o serie de opțiuni în moduri diferite, dar codificatorii grațioși sunt oameni de informatică. Coderul progresiv se concentrează asupra modului de a încapsula cât mai mult și mai bine posibil în cod scurt și îngrijit. Codul redundant este menținut la minimum. Un cod excelent menține, de asemenea, fereastra deschisă pentru adăugările viitoare. Alți ingineri pot adăuga cod cu eleganța lor inerentă, iar produsul se dezvoltă perfect.

Orice produs fabricat de om se bazează pe intenție. Lucrurile făcute de oameni sunt saturate de intenții și, într-o măsură sau alta, sunt purtătoare ale naturii chiar a creatorului. Unora le este dificil să-și imagineze un obiect neînsuflețit de această natură. Dar mulți ar fi de acord cu acest lucru. Energia intențiilor există de mii de ani, unifică, împarte, unește, transformă societatea. Nici puterea limbajului nu trebuie subestimată. Nu uitați că liniile de cod sunt scrise într-un limbaj de programare specific. Astfel, sunt convins că codul care devine software folosit pe calculatoare sau dispozitive mobile este foarte „viu”.

Fără să luăm în considerare înțelepciunea și spiritualitatea în contextul informaticii și consecințele potențiale ale inteligenței artificiale, putem vedea în continuare codul static ca un întreg, cu potențialul de a „face binele” sau „a face răul”. Aceste rezultate nu se găsesc decât în procesul de utilizare a aplicațiilor de către oameni. Este alegerile clare pe care oamenii le fac, care afectează natura aplicației. Ele pot fi vizualizate într-un sistem local, determinând impactul pozitiv sau negativ asupra acelui sistem, sau pe baza unui set de standarde predefinite. Cu toate acestea, la fel cum un jurnalist nu poate fi 100% imparțial în procesul de redactare a unui articol, tot așa, un inginer adaugă în mod voluntar sau involuntar natura intențiilor sale la cod. Unii ar putea susține că scrierea codului este un proces logic, iar logica reală nu lasă loc naturii.

Dar sunt sigur că în momentul în care creați o regulă, un bloc de cod sau tot codul, totul este imbufnat cu un element al naturii umane. Cu fiecare regulă suplimentară, penetrarea speciilor se adâncește. Cu cât este mai complex codul, cu atât este mai mult această natură în el. De aici apare întrebarea: „Poate fi natura codului bun sau rău?”

Evident, un virus dezvoltat de un hacker care se rupe rău prin apărările computerului dvs. și face ravagii în viața ta este saturat de o natură malefică. Dar ce zici de un virus creat de oamenii buni pentru a se infiltra în calculatoarele unei organizații teroriste pentru a preveni atacurile teroriste? Care este natura sa? Tehnic ar putea fi identic cu omologul său nefiresc, folosit doar în scopuri „bune”. Deci natura lui este amabilă? Acesta este întregul paradox etic al malware-ului. Dar nu am putut să-l ignorăm, gândindu-ne la codul „răului”.

În opinia mea, există un cod care gravitează în mod inerent spre „rău” și există un cod care este păgubit în mod inerent spre bunăvoință. Acest lucru este mai important în contextul computerelor offline.

Image
Image

La Kwikdesk dezvoltăm un cadru de AI și un protocol bazat pe proiectul meu hibrid de sistem / rețea neuronală, care seamănă cel mai mult cu un model biologic. Neuronii se manifestă ca module I / O și dispozitive virtuale (într-un anumit sens, agenți autonomi) conectate prin „axoni”, canale sigure, separate, de date criptate. Aceste date sunt decriptate pe măsură ce intră în neuron și după anumite procese sunt criptate înainte de a fi trimise la următorul neuron. Înainte ca neuronii să poată comunica între ei printr-un axon, trebuie să aibă loc un schimb de chei între participant și canal.

Cred că securitatea și separarea ar trebui încorporate în astfel de rețele de la cel mai scăzut nivel. Suprastructurile reflectă calitățile celor mai mici componente ale acestora, astfel încât orice lucru mai mic decât blocurile sigure de construcție va duce la o funcționare nesigură a întregii linii. Din acest motiv, datele trebuie protejate local și decriptate atunci când sunt transferate local.

Implementare și garanții

Calitatea vieții noastre împreună cu mașinile din ce în ce mai inteligente și mai inteligente este în mod inteligent îngrijorătoare și sunt absolut sigură că trebuie să luăm măsuri pentru a asigura un viitor sănătos pentru generațiile următoare. Amenințările la mașinile inteligente sunt potențial diverse, dar pot fi defalcate în următoarele categorii:

Rezervare. La locurile de muncă, oamenii vor fi înlocuiți cu mașini. Această schimbare se desfășoară de zeci de ani și se va accelera doar. O educație adecvată este necesară pentru pregătirea oamenilor pentru un viitor în care sute de milioane de locuri de muncă tradiționale vor înceta să existe. Este complicat.

Securitate. Ne bazăm pe utilaje complet și ne vom baza în continuare. Deoarece avem încredere din ce în ce mai mare în mașini pe măsură ce trecem dintr-o zonă sigură într-o zonă de pericol potențial, este posibil să ne confruntăm cu riscul de eroare a mașinii sau de cod rău intenționat. Gândiți-vă la transport, de exemplu.

Sănătate. Dispozitive personale de diagnostic și date medicale în rețea. AI va continua să evolueze în medicina preventivă și în analiza de date genetice aglomerate. Din nou, trebuie să avem asigurări că aceste mașini nu se vor angaja în subversiune dăunătoare sau nu ne vor dăuna în niciun fel.

Destinul. AI prezice cu o precizie crescândă unde vei merge și ce vei face. Pe măsură ce această zonă se dezvoltă, el va ști ce decizii luăm, unde vom merge săptămâna viitoare, ce produse vom cumpăra sau chiar când vom muri. Dorim ca alții să aibă acces la aceste date?

Cunoașterea. Mașinile acumulează de facto cunoștințe. Dar dacă dobândesc cunoștințe mai repede decât o pot testa oamenii, cum putem avea încredere în integritatea ei?

În concluzie, vreau să notez că este o abordare vigilentă și responsabilă pentru AI pentru atenuarea problemelor potențiale dintr-o explozie de supernova tehnologică. Fie vom îmblânzi potențialul AI și ne vom ruga să aducă numai ce este mai bun pentru umanitate, fie vom arde potențialul său, ceea ce va reflecta cel mai rău din noi.

Ilya Khel

Recomandat: