Google Nu Dorește Să Creeze Skynet într-o Zi, De Aceea Creează Un Switch Pentru AI - Vedere Alternativă

Google Nu Dorește Să Creeze Skynet într-o Zi, De Aceea Creează Un Switch Pentru AI - Vedere Alternativă
Google Nu Dorește Să Creeze Skynet într-o Zi, De Aceea Creează Un Switch Pentru AI - Vedere Alternativă

Video: Google Nu Dorește Să Creeze Skynet într-o Zi, De Aceea Creează Un Switch Pentru AI - Vedere Alternativă

Video: Google Nu Dorește Să Creeze Skynet într-o Zi, De Aceea Creează Un Switch Pentru AI - Vedere Alternativă
Video: How to switch to another account (from Google to Google)? Sky: Children of The Light 2024, Iulie
Anonim

Există două părți principale opuse în întrebări și discuții despre viitorul inteligenței artificiale. Într-un colț, companii precum Google, Facebook, Amazon și Microsoft investesc agresiv în tehnologie pentru a face sistemele AI mai inteligente, în timp ce în celălalt sunt marii gânditori ai vremii noastre, precum Elon Musk și Stephen Hawking. că dezvoltarea AI este asemănătoare cu o „vrajă demonică”.

Una dintre cele mai avansate companii AI, DeepMind, deținută de Google, a creat măsuri de securitate în cazul în care o persoană trebuie să "preia controlul unui robot al cărui eșec ar putea duce la consecințe ireparabile". Putem presupune că vorbim despre … „ucideți toți oamenii”. Desigur, în realitate, măsura luată nu este o aluzie a unei posibile apocalipse, ci mai degrabă este vorba despre măsuri de securitate asociate roboților inteligenți care funcționează și vor funcționa în viitor în diverse fabrici și uzine.

Documentul publicat cu rețete este o lucrare comună a DeepMind și a Institutului Oxford pentru Viitorul Umanității, care, așa cum îi spune și numele, tratează aspecte care vor permite acestei umanități chiar să intre în viitor. Timp de zeci de ani, directorul fondator al institutului, Nick Bostrom, a vorbit foarte viu despre posibilele pericole ale dezvoltării inteligenței artificiale și a scris mai multe cărți despre această problemă, în care a discutat despre consecințele creării de roboți super-inteligenți.

Ghidul despre care vorbim astăzi, denumit „Agenți cu handicap în siguranță”, explorează cum să dezactiveze AI dacă începe să facă lucruri pe care operatorul uman nu dorește să le facă. Lucrarea constă în diverse calcule și formule pe care cel mai probabil, 99% dintre noi nu le vom înțelege. Prin urmare, pentru a spune simplu, vorbim despre un "buton roșu" care poate dezactiva AI.

S-ar putea să râdeți și să vă întrebați, dar pionierii roboticii și AI vizionează aceleași filme de sci-fi pe care le facem și noi. Cei în care roboții și-au dat seama când să ignore comanda de oprire. Deci, acum vom fi gata pentru acest lucru. Documentul publicat descrie metode și soluții pentru a se asigura că „agentul instruibil” (citiți AI) nu poate învăța să ignore sau să prevină impactul mediului extern sau al operatorului uman.

Acest lucru poate părea excesiv, mai ales atunci când consideri că cea mai avansată IA în acest moment este foarte bună doar la jocurile de masă. Cu toate acestea, Bostrom consideră că înainte de a începe crearea AI a nivelului creierului uman, trebuie luate măsuri adecvate:

„De îndată ce inteligența artificială atinge nivelul uman, se așteaptă un salt puternic în dezvoltare în multe domenii. De asemenea, la scurt timp, AI-urile vor crea noi AI. Trebuie doar să evaluați aceste perspective și, în același timp, pericolele posibile. Prin urmare, este mai bine să exagerați decât să-l pierdeți."

NIKOLAY KHIZHNYAK

Video promotional:

Recomandat: