Pentru A Evita Moartea, Umanitatea Trebuie Să Blocheze Inteligența Artificială - Vedere Alternativă

Cuprins:

Pentru A Evita Moartea, Umanitatea Trebuie Să Blocheze Inteligența Artificială - Vedere Alternativă
Pentru A Evita Moartea, Umanitatea Trebuie Să Blocheze Inteligența Artificială - Vedere Alternativă

Video: Pentru A Evita Moartea, Umanitatea Trebuie Să Blocheze Inteligența Artificială - Vedere Alternativă

Video: Pentru A Evita Moartea, Umanitatea Trebuie Să Blocheze Inteligența Artificială - Vedere Alternativă
Video: CONȘTIENTUL ȘI PERSONALITATEA. DE LA INEVITABIL MORT LA VEȘNIC VIU 2024, Aprilie
Anonim

Calculatoarele sau roboții superinteligenți care amenință existența rasei umane sunt un complot preferat al științei ficțiunii. În realitate, în opinia oamenilor de știință, un astfel de scenariu nu poate fi prevenit decât prin crearea unei „închisori” virtuale pentru conținerea inteligenței artificiale (AI). Și acest lucru trebuie făcut înainte să învețe să fie conștient și să se perfecționeze.

Dacă lăsați acest gen din sticlă, atunci dintr-un oracol care ne rezolvă problemele, se poate transforma într-o amenințare apocaliptică - a spus Roman Yampolsky, un om de știință de la Universitatea Louisville (Kentucky), care lucrează în domeniul informaticii. Condițiile în care AI va fi conținut trebuie să fie planificate cu atenție, astfel încât să nu se poată elibera prin amenințări, luare de mită, ispită sau hacking computer.

"El poate inventa multe moduri de a influența, de a mula o combinație socio-inginerească complexă și de a folosi componente hardware existente în scopuri pe care nici nu le putem imagina", consideră Yampolsky. - Un astfel de software are posibilități nelimitate de infectare a computerelor și rețelelor. AI poate găsi modalități de a influența psihicul uman, mită sau șantajează persoanele care sunt în contact cu aceasta."

Apariția unei noi zone de cercetare științifică care se ocupă de crearea unei „închisori” pentru inteligența artificială are avantaje suplimentare. Aceste studii sunt foarte utile pentru îmbunătățirea securității computerului și a criptografiei, Yampolsky este sigur. Propunerile sale au fost detaliate în revista din martie a revistei academice a Revistei de Conștiință Studii.

Cum să configurați o capcană pentru Skynet

Pentru început, puteți adăuga informații artificiale în interiorul unei „mașini virtuale”. Permiteți-l să funcționeze într-un sistem de operare normal - limitarea accesului AI la software și hardware-ul computerului gazdă îl va face mult mai inofensiv. În orice caz, AI inteligentă nu va putea trimite mesaje secrete către suporterii săi umani, bătând codul Morse cu fanii de răcire.

Introducerea inteligenței artificiale într-un computer fără acces la internet este o modalitate bună de a împiedica planurile insidioase ale AI de a proteja Pământul de tine și de mine. În cazul oricărui alt eșec, cercetătorii pot întotdeauna să încetinească procesul de gândire AI, încetinind viteza de procesare a computerului, apăsând regulat butonul „reset” sau deconectând AI-ul de la sursa de alimentare.

Video promotional:

Aceste măsuri de securitate sunt concepute pentru a face față virușilor computerului extrem de inteligenți și periculoși, dar cât de eficiente se dovedesc a fi efective este cineva.

Catch-22 (roman al scriitorului american J. Heller; aprox. Mixednews) este faptul că nu putem efectua testări la scară largă a ideilor noastre până la finalizarea dezvoltării AI. Dar pentru a asigura securitatea AI, este necesar să dezvoltăm un set de măsuri adecvate, spune Yampolsky. "Cea mai bună opțiune este să impui restricții de utilizare a sistemelor AI și apoi, după caz, să schimbi aceste restricții în conformitate cu capacitățile crescânde ale AI."

Image
Image

Savantul Roman Yampolsky a sugerat să folosească semnul „@” sau alte semne care sunt folosite astăzi pentru a denota o radiație sau o amenințare biologică pentru a indica prezența unui pericol asociat cu inteligența artificială.

Nu puneți niciodată un paznic de securitate umană pe vehicul

În timpul unei conversații aparent inocente cu un agent de pază, nimic nu va împiedica AI-ul să folosească tehnici psihologice precum prietenia sau șantajul. O persoană poate fi mituită promițându-i sănătate perfectă, nemurire sau chiar o promisiune de a-i întoarce rude și prieteni din cealaltă lume. Sau realizează orice cu amenințări.

Cel mai sigur mod de a comunica cu AI este de a face ca, atunci când rezolvați o problemă științifică sau tehnică specifică, să alegeți un răspuns dintre numeroasele opțiuni disponibile, explică Yampolsky. Acest lucru va ajuta la menținerea oracolului super-inteligent pe o lesă scurtă.

Mulți cercetători consideră că, în ciuda tuturor măsurilor de precauție, menținerea blocului inteligent AI închis la nesfârșit nu va funcționa. Cel mai recent experiment al lui Eliezer Yudkowsky, cercetător la Institutul Singularității privind crearea inteligenței artificiale, a arătat că chiar și inteligența la nivel uman poate înșela o persoană și „scăpa” de la închisoare.

Cu toate acestea, Yampolsky insistă să păstreze IA-ul într-o izolare strictă - este încă mai bine decât să renunți și să-i dai libertate completă. Dar dacă dezvoltarea AI atinge punctul în care poate manipula o persoană folosind subconștientul (prezicând viitorul), telepatie sau telekineză, consecințele vor fi imprevizibile.

„Dacă o astfel de IA se auto-îmbunătățește și va atinge un nivel care depășește semnificativ capacitățile inteligenței umane, consecințele nici măcar nu pot fi imaginate”, avertizează Yampolsky.

Recomandat: