Oamenii De știință Au Explicat Cum O Cursă De Armament Va Duce La Un „război în Stil Terminator” - Vedere Alternativă

Oamenii De știință Au Explicat Cum O Cursă De Armament Va Duce La Un „război în Stil Terminator” - Vedere Alternativă
Oamenii De știință Au Explicat Cum O Cursă De Armament Va Duce La Un „război în Stil Terminator” - Vedere Alternativă

Video: Oamenii De știință Au Explicat Cum O Cursă De Armament Va Duce La Un „război în Stil Terminator” - Vedere Alternativă

Video: Oamenii De știință Au Explicat Cum O Cursă De Armament Va Duce La Un „război în Stil Terminator” - Vedere Alternativă
Video: Scenariu-șoc: Armament nuclear în România. Sorin Roșca Stănescu: Țara noastră este o țintă 2024, Aprilie
Anonim

Într-un nou raport, experții de la Universitatea Cornell au vorbit despre riscurile asociate cu introducerea tot mai activă a inteligenței artificiale în arme nucleare, potrivit Daily Mail. Potrivit oamenilor de știință, mașinile pot „scăpa de sub control” și pot provoca un „război apocaliptic”, astfel încât principalele decizii în ceea ce privește utilizarea armelor nucleare rămân în continuare mai bune persoanei.

Oamenii de știință avertizează că transferul controlului asupra armelor nucleare către inteligența artificială s-ar putea încheia într-un război apocaliptic „în stil Terminator”.

În noul lor raport, experții de la American Ivy League, Universitatea Cornell, susțin că o schimbare din ce în ce mai mare către automatizare și robotizare ar putea duce la faptul că mașinile „scapă de sub control” și declară război umanității - la fel ca într-o serie de sci-fi filme „Terminator” cu Arnold Schwarzenegger.

Potrivit experților, care încearcă să „ia pasul cu Statele Unite din punct de vedere al potențialului militar”, Rusia și China încep să se bazeze mai des pe tehnologii de inteligență artificială, care în viitor pot prezenta riscuri nici măcar necunoscute lumii. Astfel, Moscova a început deja lucrările la torpila nucleară subacvatică Poseidon, fără pilot, cunoscută anterior ca Status-6.

În plus, țările pot decide să utilizeze mai activ inteligența artificială în sistemele de avertizare timpurie. Și iată, după cum amintesc oamenii de știință, istoria ne arată că riscurile pot fi de asemenea mari. Mulți oameni cunosc incidentul din 1983, când ofițerul sovietic Stanislav Petrov a ignorat semnalul sistemului de a lansa rachete americane. Petrov și-a dat seama că semnalul este fals și, prin urmare, a salvat lumea dintr-un posibil război nuclear între Statele Unite și Rusia.

Experții recunosc că, într-o formă, computerizarea armelor nucleare poate îmbunătăți fiabilitatea și stabilitatea acestor sisteme. Informațiile artificiale pot colecta date și efectua analize, care pot fi apoi utilizate de conducătorii militari.

„În modernizarea arsenalelor nucleare, conducerea ar trebui să se străduiască să utilizeze sisteme informatice pentru a reduce riscurile de accidente accidentale, falsele pozitive și pentru a crește controlul uman asupra operațiunilor de arme nucleare”, recomandă oamenii de știință.

Recomandat: