Inteligență Artificială: Un Inamic Periculos Sau Un Bun Ajutor - Vedere Alternativă

Inteligență Artificială: Un Inamic Periculos Sau Un Bun Ajutor - Vedere Alternativă
Inteligență Artificială: Un Inamic Periculos Sau Un Bun Ajutor - Vedere Alternativă

Video: Inteligență Artificială: Un Inamic Periculos Sau Un Bun Ajutor - Vedere Alternativă

Video: Inteligență Artificială: Un Inamic Periculos Sau Un Bun Ajutor - Vedere Alternativă
Video: CONȘTIENTUL ȘI PERSONALITATEA. DE LA INEVITABIL MORT LA VEȘNIC VIU 2024, Mai
Anonim

Utilizarea inteligenței artificiale (AI) în viața de zi cu zi câștigă rapid impulsul, însă această tendință creează tot mai mult îngrijorarea specialiștilor. Personalul Universității din New York a pregătit o notă de precauție despre riscurile de utilizare a I. I. Pentru cea mai mare parte, autorii s-au concentrat pe probleme de ordin etic și social, precum și pe lipsa reglementărilor. Raportul grupului AI Now spune puțin nou, dar în practica mondială, problema necesității de a limita munca gândirii artificiale este din ce în ce mai ridicată.

Aproape toți vizionarii progresului tehnologic au vorbit despre potențialele amenințări la adresa AI. În noiembrie anul trecut, Stephen Hawking a exprimat principalele temeri care însoțesc reflecțiile privind dezvoltarea tehnologiei. În opinia sa, calculatoarele vor învăța mai devreme sau mai târziu să se reproducă. Creaturile biologice sunt susceptibile de a pierde din inteligența siliciului atât în abilitățile mentale, cât și în ceea ce privește adaptabilitatea la mediu, în special pe o altă planetă. Mai devreme sau mai târziu, roboții deștepți vor considera oamenii o formă învechită și vor să scape de ei.

Cuvintele lui Hawking sună în continuare ca o poveste de groază, jucate de zeci de ori în filme și cărți, dar chiar și cei care lucrează la implementarea sistemelor inteligente au devenit din ce în ce mai frici de viitor cu AI, deși există cei care consideră astfel de temeri premature. „Teama dezvoltării AI astăzi este ca și cum ai face griji pentru suprapopularea planetei Marte”, a spus Andrew Ng, șeful Google Brain. Cu toate acestea, nu a liniștit pe toată lumea.

Image
Image

Printre cele mai mari fobii asociate cu introducerea unui computer în toate sferele vieții, merită remarcate trei. În primul rând, mintea computerului va fi folosită ca armă de război, care va depăși semnificativ chiar și armele nucleare în puteri distructive. Al doilea este că AI va înrobi oamenii. În al treilea rând, ca orice creație umană, computerul este predispus la erori. Toate cele trei puncte pot fi discutate mai detaliat.

La 21 august 2017, experți de vârf în domeniul cercetării și implementării inteligenței artificiale, inclusiv șefi de companii precum SpaceX și Deep Mind, au trimis o scrisoare deschisă ONU. În text, ei au avertizat comunitatea mondială împotriva dezvoltării armelor letale autonome, fie că sunt roboți sau alte mecanisme concepute pentru a ucide inamicul. Autorii documentului au atras atenția asupra consecințelor fatale ale utilizării acestor arme. Cu eficiența sa fenomenală, este corect să întrebăm în ce mâini va cădea. Poate fi folosit atât de un cerc restrâns de elite, cât și de teroriști.

Autorii scrisorii au solicitat organizației de control și, împreună cu aceasta, comunitatea științifică, să contureze sfera de utilizare a nocivității AI. Responsabilitatea cu care se confruntă o persoană pentru propria creație îl obligă să efectueze lucrări serioase pentru prevenirea riscurilor. În plus față de legi, creatorii lor trebuie să limiteze și puterea roboților, care vor trebui să discute despre modul de oprire a mașinilor în cazuri extreme.

Image
Image

Video promotional:

Abuzul politic asupra sistemelor electronice a fost deja demonstrat prin activitatea rețelelor sociale și a algoritmilor de analiză a datelor. În primăvara acestui an, un scandal cu Cambridge Analytica a zguduit în lume. Specialistii sai au efectuat o analiza in profunzime a datelor utilizatorilor si au plasat reclame pe Facebook, adaptate individual pentru fiecare persoana.

Angajații companiei nu numai că au traversat cadrul etic, dar au aplicat și tehnologii moderne, a căror activitate a fost imposibil de analizat. Eficiența învățării automate este o temă recurentă în rândul matematicienilor de frunte. Aceștia recunosc la unison că sunt uimiți de succesul extraordinar al programelor de calculator, dar nu sunt complet în imposibilitatea de a înțelege activitatea unui sistem complex. În Myanmar, în luna aprilie a acestui an, postările de pe Facebook au provocat, de asemenea, tulburări în rândul maselor, dar spre deosebire de Statele Unite, unde s-au făcut proteste, în statul asiatic a avut loc un masacru, care a ucis câteva sute de oameni. Manipularea unui număr imens de oameni este o realitate, iar roboții de aici pot juca o glumă crudă cu noi.

Image
Image

Merită să ne amintim de același Facebook, unde au fost lansate chatbots-uri bazate pe AI. Asistenții virtuali au fost instruiți să poarte un dialog cu interlocutorul. De-a lungul timpului, roboții au devenit indistinguibili față de oamenii reali și atunci autorii au decis să adune roboții. De-a lungul timpului, roboții au început să scurteze structurile lexicale și să schimbe gibberish. Mass-media a umflat o senzație din știri, spun că „mașinile s-au revoltat”. Dar lăsând la o parte exagerarea jurnaliștilor, este corect să recunoaștem că, în cazul în care mașinile încep să comunice între ele, este posibil ca o persoană să nu observe acest lucru. Și cum își vor trăi propriile vieți acolo - nimeni nu știe.

Structura din ce în ce mai complexă a minții computerului ne îndepărtează în fiecare zi de a înțelege principiile muncii sale. În timp ce majoritatea algoritmilor își fac treaba, chiar și astăzi mașini complexe sunt departe de a fi ideale și fac greșeli. Pentru dezvoltarea în continuare a AI, este important să înțelegem nu atât punctele forte, cât și vulnerabilitățile sale. Pe această cauză, un număr mare de grupuri științifice sunt concentrate, într-unul dintre acestea există un specialist din MIT Anish atali. În urmă cu doar câteva zile, el a spus reporterilor despre cele mai frecvente greșeli în sistemele de recunoaștere a imaginilor.

Colegii săi au demonstrat obiecte la mașină și au descoperit că deseori obiectele individuale erau percepute incorect prin viziune electronică. Computerul ar putea numi un baseball o ceașcă de cafea, iar o broască testoasă imprimată 3D o mașină de armată. Grupul a colectat deja aproximativ 200 de elemente care sunt algoritmi înșelători.

Image
Image

Inteligența artificială, în loc să perceapă un obiect în ansamblu, s-a concentrat pe parametrii săi individuali. AI tinde să învețe dintr-un eșantion „perfect”. Când se confruntă cu fenomene care nu respectă normele, el nu poate întotdeauna să abandoneze procesul obișnuit de procesare. În loc să recunoască incapacitatea sa de a prelucra imaginea, el continuă să încerce să citească imaginea și acest lucru duce la rezultate uneori amuzante. În loc de forma unei broaște țestoase, creierul electronic a încercat să-i citească textura, similar cu camuflarea. Din același motiv, automobilele e-car nu sunt încă de încredere 100%. Este dificil pentru o mașină să vadă silueta și să presupună că este alcătuită din elemente separate.

Și dacă în următorii ani se pot remedia unele deficiențe, nu există nicio garanție că hackerii nu vor exploata vulnerabilitatea. Hackerii dispozitivelor electronice astăzi reprezintă aproape principala cauză a fricii. O echipă mică de programatori nu poate doar să obțină acces la informații personale, ci și să reconfigureze sisteme autonome, preluând controlul instrumentelor cu putere colosală. Și atunci toți vom avea probleme. Dar concluzia principală care poate fi trasă este probabil cea tradițională - nu trebuie să vă fie frică de mașini, ci de oameni.

Alexandru Lavrenov

Recomandat: