Roboții De Luptă Vin! - Vedere Alternativă

Roboții De Luptă Vin! - Vedere Alternativă
Roboții De Luptă Vin! - Vedere Alternativă

Video: Roboții De Luptă Vin! - Vedere Alternativă

Video: Roboții De Luptă Vin! - Vedere Alternativă
Video: Бронебот, настоящие бои роботов в Олимпийском! Это стоит видеть! 2024, Mai
Anonim

Roboții ucigași adevărați, care îndeplinesc necontenit sarcina și care nu necesită supraveghere umană, pot apărea în arsenalul armatelor lumii într-un an, spun experții. Prevăzând pericolul aici, experții discută dacă roboții ucigași și utilizarea lor pe câmpul de luptă ar trebui interzise în prealabil.

Image
Image

Roboții ucigași pot fi în serviciul trupelor într-un an dacă ONU nu ia măsuri în avans pentru a le restricționa utilizarea, spune Noel Sharkey, profesor la Universitatea Sheffield. În opinia sa, aceste mașini vor provoca în mod inevitabil morți nevinovate masive, deoarece nu pot distinge un militar de un non-combatant civil. Declarația sa a venit chiar în momentul în care comunitatea de experți din 120 de țări discută la Geneva despre riscurile potențiale asociate cu funcționarea sistemelor de arme autonome. Profesorul Sharkey crede: există puține discuții, este urgent să se adopte un document privind limitarea producției de roboți! Altfel, un an mai târziu, roboții vor inunda literalmente armatele țărilor dezvoltate.

Image
Image

În aceste zile, la Geneva, reprezentanți ai peste 90 de țări ale lumii discută despre pericolul care vine de la „sistemele de arme autonome letale”. Una dintre problemele importante ale discuției este cum să se asigure siguranța utilizării lor într-o situație de luptă? Mulți experți, inclusiv profesorul Sharkey, insistă că, în ciuda autonomiei sistemelor, o persoană trebuie să aibă întotdeauna capacitatea de a „controla prin principii” asupra lor - pentru siguranța umanității. „Un robot încă nu poate lua decizii ca un om”, spune profesorul Sharkey. - Nu este complet capabil. pentru a înțelege logica ostilităților, este posibil să nu distingă un aliat de un inamic și să ia o decizie cu privire la permisiunea anumitor acțiuni. „Nu putem lăsa robotul să decidă dacă, de exemplu, viața lui Osama bin Laden merită, astfel încât 50 de femei în vârstă și 20 de copii mor cu el,Spune Sharkey. - Robotului nu-i pasă. Deciziile fundamentale, de exemplu, cu privire la alegerea unui obiectiv trebuie luate de o persoană. Potrivit profesorului Sharkey, dacă astfel de decizii sunt lăsate în mâna roboților, „consecințele utilizării lor nu vor fi mai puțin devastatoare decât utilizarea armelor chimice”.

Image
Image

Profesorul Sharkey este unul dintre cei 57 de experți care au semnat o scrisoare deschisă adresată Universității din Coreea de Sud, în care experții protestează împotriva programului de dezvoltare a armelor inteligente. Institutul Coreean de Știință și Înaltă Tehnologie Kaist lansează în prezent programul împreună cu producătorul de echipamente militare Hanwa Systems, iar știrile au zguduit comunitatea științifică. „O universitate, o instituție științifică nu poate face acest lucru din punct de vedere moral”, spune profesorul Sharkey, cu care ceilalți semnatari sunt de acord.

Potrivit experților, roboții ucigași automat vor deschide Cutia Pandorei, revoluționând calea războiului.

Video promotional:

Reprezentanții Institutului Kaist au răspuns deja la scrisoarea deschisă, asigurându-și colegii că nu intenționează să creeze droizi în stilul Skynet.

Image
Image

Reprezentanții Institutului Keist și-au asigurat colegii că, ca instituție academică, „apreciază foarte mult standardele universale de etică și moralitate” și nu intenționează să dezvolte soldați robotici care lucrează în afara controlului uman. Până în prezent, Institutul Kaist efectuează doar cercetări în acest domeniu. În acest sens, autorii scrisorii deschise s-au calmat și nu și-au boicotat colegii. Cu toate acestea, întrebarea dacă omenirea va putea fi de acord cu principiile generale ale controlului total asupra acțiunilor roboților de luptă este încă deschisă. Între timp, astăzi nu este deloc important în teorie. Astăzi, roboții foarte funcționali sunt deja mecanisme atât de complexe, încât nici specialiștii nu înțeleg pe deplin modul în care funcționează inteligența lor artificială. Și fără să înțeleagă pe deplin acest lucru, ei sunt incapabili să prezicăcând exact poate eșua. „Dacă omenirea este destinată să fie distrusă, atunci, cel mai probabil, inteligența artificială va juca un rol semnificativ în acest proces”, spune unul dintre participanții la conferința de la Geneva. Potrivit lui Elon Musk, inteligența artificială prezintă astăzi mai multe amenințări la adresa umanității decât Coreea de Nord. Musk este convins că roboții trebuie să fie în permanență sub control strict al oamenilor și a apelat în repetate rânduri la guvernele din diferite țări să dezvolte reguli clare pentru controlul sistemelor cu inteligență artificială.decât Coreea de Nord. Musk este convins că roboții ar trebui să fie sub control strict și constant al oamenilor și a apelat în repetate rânduri la guvernele din diferite țări să dezvolte reguli clare pentru controlul sistemelor cu inteligență artificială.decât Coreea de Nord. Musk este convins că roboții trebuie să fie în permanență sub control strict al oamenilor și a apelat în repetate rânduri la guvernele din diferite țări să dezvolte reguli clare pentru controlul sistemelor cu inteligență artificială.

Varvara Lyutova

Recomandat: