„Inteligența Artificială Ca Terorist”: Noi Amenințări De Securitate - Vedere Alternativă

Cuprins:

„Inteligența Artificială Ca Terorist”: Noi Amenințări De Securitate - Vedere Alternativă
„Inteligența Artificială Ca Terorist”: Noi Amenințări De Securitate - Vedere Alternativă

Video: „Inteligența Artificială Ca Terorist”: Noi Amenințări De Securitate - Vedere Alternativă

Video: „Inteligența Artificială Ca Terorist”: Noi Amenințări De Securitate - Vedere Alternativă
Video: INTELIGENȚA ARTIFICIALĂ - SFÂRȘITUL OMENIRII CUM O ȘTIM NOI? 2024, Octombrie
Anonim

Oamenii de știință ruși au examinat și clasificat amenințările privind utilizarea inteligenței artificiale (AI) din punctul de vedere al informațiilor internaționale și al securității psihologice. O atenție deosebită a fost acordată combaterii utilizării malițioase a AI de către teroriști. Rezultatele cercetării sunt publicate în revista Rusia în Afaceri globale.

Pericole de folosire rău intenționată a AI

Pericolul potențial al inteligenței artificiale pentru umanitate a devenit în mod repetat subiectul operelor de artă și astăzi este una dintre cele mai discutate probleme ale dezvoltării științifice și tehnologice. Deși AI puternică, capabilă să gândească sistemic independent și, probabil, care are conștiință de sine și voință, este încă departe de a fi creată, diverse versiuni avansate ale AI-ului slab îndeplinesc sarcini specializate care păreau ca știință-ficțiune în urmă cu 10 ani. Utilizarea AI în scopuri bune (de exemplu, în medicină) aduce deja beneficii indubitabile. Cu toate acestea, în mâinile teroriștilor și ale altor organizații criminale, tehnologiile AI treptat mai ieftine și mai avansate pot deveni o armă mai groaznică decât cea nucleară.

Cercetătorii din diferite țări studiază în mod activ amenințările pe care utilizarea rău intenționată a AI reprezintă societății în ansamblul său și asupra anumitor sfere ale activității umane, fie că este vorba de politică, economie, afaceri militare, etc. sfera de aplicare. Între timp, utilizarea AI pentru destabilizarea relațiilor internaționale prin informații de înaltă tehnologie și impactul psihologic asupra oamenilor este un pericol evident evident.

Autorii studiului au propus o clasificare a amenințărilor la utilizarea rău intenționată a inteligenței artificiale, bazată pe o serie de criterii, inclusiv acoperirea teritorială, viteza și forma de propagare. Aplicarea clasificării vă va ajuta să găsiți modalități de a contracara și dezvolta instrumente de răspuns.

„Viitoarea reducere a costurilor tehnologiilor AI poate crea amenințări cu atacuri teroriste fundamental noi. Este posibil ca un chatbot să fie folosit pentru a crea un mesaj despre un eveniment fals și să convingă potențialele victime să îl viziteze. Pentru a contracara, este recomandabil să familiarizezi societatea cu noile amenințări, instruindu-i pe cetățeni să fie feriți de contactele la distanță cu persoane pe care nu le cunosc personal. Calea de ieșire ar putea fi certificarea evenimentelor publice, confirmând realitatea informațiilor postate despre acestea. Desigur, sarcina specialiștilor tehnici în acest caz va fi protejarea bazelor de date despre evenimente și mecanismul certificării lor , - a declarat RIA Novosti profesor al Departamentului Securității Internaționale și Politicii Externe din Rusia, RANEPA Daria Bazarkina.

Nivelul modern de tehnologie și capabilități ale AI ne permite să identificăm o serie de amenințări fundamental noi pentru securitatea informațională și psihologică a unei persoane.

Video promotional:

Folosirea tehnologiilor „oamenilor falsi” și „deepfake” pentru provocări internaționale

Compania americană de tehnologie NVIDIA a împărtășit recent rezultatele unei rețele generative-competitive, antrenate să genereze propriile imagini despre oameni („false persoane”). În câteva secunde, rețeaua neuronală creează imagini de înaltă rezoluție ale fețelor unor persoane inexistente, poate adăuga orice caracteristici culturale și etnice, emoții, dispoziție și se bazează pe o colecție nesfârșită de imagini cu chipuri reale. În viitor, este posibil ca această experiență să fie repetată de alți dezvoltatori. În același timp, astfel de imagini pot fi folosite de infractori pentru tot felul de provocări, care nu pot fi recunoscute decât de o societate cu cunoștințe politehnice sistemice.

„Tehnologia Deepfake poate sintetiza imaginea și vocea unei persoane. A început deja să fie folosit pentru a crea imagini video cu lideri mondiali, inclusiv președintele american Donald Trump și președintele rus Vladimir Putin. Videoclipurile Deepfake sunt capabile să manipuleze comportamentul grupurilor țintă mari și pot fi utilizate în informații și confruntare psihologică (IPP) pentru a provoca panică sau război financiar , a declarat Evgeny Pashentsev, cercetător principal la Institutul de Probleme Internaționale Contemporane al Academiei Diplomatice a Ministerului rus de externe, profesor la Universitatea de Stat din Moscova.

Analiza sentimentelor este o clasă de metode de analiză a conținutului în lingvistică computațională concepute pentru detectarea automată a vocabularului colorat emoțional și evaluarea emoțională a autorilor din texte. Analiza sentimentelor este furnizată de o gamă largă de surse, cum ar fi bloguri, articole, forumuri, sondaje etc. Acest lucru poate fi un instrument foarte eficient în API-uri, care, de exemplu, este confirmat de interesul ridicat pentru astfel de evoluții în prezent din partea conducerii Comandamentului Operațiunilor Speciale din SUA. (Comanda pentru operațiuni speciale a Statelor Unite (SOCOM).

„Arme predictive”: Prezicerea comportamentului uman bazat pe date de social media

În 2012, Agenția de Cercetare a Informațiilor Avansate din SUA (IARPA) a lansat programul Recunoașterea evenimentelor bazate pe modelul timpuriu folosind surogatele (EMBERS). Scopul dezvoltării se numește prognoza tulburărilor civile bazate pe utilizarea AI cu determinarea datei, locului, grupului de protest al populației.

Sistemul prelucrează date din mass-media și rețelele sociale, precum și surse de calitate superioară, de exemplu, indicatori economici. Căderea unor astfel de programe în mâinile teroriștilor este, de asemenea, extrem de periculoasă. În acest caz, atacurile teroriste majore din timpul celor mai mari demonstrații sociale pot deveni o amenințare probabilă. Un criteriu suplimentar pentru alegerea țintelor unui atac terorist poate fi gradul de tensiune socială și psihologică din anumite zone.

Potrivit autorilor studiului, ca o contramăsură, analitele predictive pot fi folosite de către stat și de autoritățile supranaționale pentru a preveni tensiunea socială (adoptarea la timp a măsurilor sociale, economice și politice care vizează obținerea stabilității pe termen lung).

În plus, grupurile teroriste pot provoca daune reputaționale prin utilizarea de roboți în timpul campaniilor politice, precum și atragerea de noi susținători sau organizarea asasinărilor politicienilor.

Captarea dronelor și a infrastructurii robotizate

Sistemele de transport auto-învățate cu control AI pot fi ținte convenabile pentru atacuri teroriste de înaltă tehnologie. Securizarea controlului asupra sistemului de control al transporturilor într-un oraș mare poate duce la numeroase victime, poate provoca panică și creează un climat psihologic care va facilita alte activități infracționale.

Sistemele comerciale pot fi utilizate pentru a desfășura vehicule aeriene fără pilot sau vehicule autonome pentru a livra explozibili și a crea accidente. O serie de dezastre majore pot provoca agitație în mass-media internațională și pot provoca daune semnificative informațiilor și securității psihologice.

Cercetătorii de la Academia Prezidențială Rusă de Economie Națională și Administrație Publică și Academia Diplomatică a Ministerului Afacerilor Externe din Federația Rusă și-au bazat cercetările pe o analiză sistematică a rolului AI în domeniul securității, o metodă de analiză a scenariului, analogii istorice și analize de caz. Împreună cu un coleg de la Universitatea Uppsala (Suedia), Greg Simons, autorii studiului au devenit co-editori ai viitoarei cărți „Terorism și tehnologii avansate în confruntarea informațional-psihologică: riscuri noi, noi oportunități de a combate amenințarea teroristă”, cu participarea cercetătorilor din 11 țări.

La inițiativa cercetătorilor ruși, problema rolului AI în contextul amenințărilor la adresa informațiilor internaționale și a securității psihologice este discutată în mod activ și va fi discutată la conferințe internaționale și seminarii de cercetare internaționale autonome. Printre acestea se numără o conferință organizată sub auspiciile Comisiei Federației Ruse pentru UNESCO și o serie de alte structuri rusești și internaționale din Khanty-Mansiysk în perioada 9-12 iunie. Guvernatorul autorității autonome Khanty-Mansiysk Okrug Natalya Vladimirovna Komarova a participat activ la sesiunea secțiunii despre problema utilizării malițioase a AI, formată cu sprijinul Rețelei de experți europene-ruse pentru gestionarea comunicării (ERESKM). În viitor, acesta este cel de-al IV-lea forum ibero-american de la Sankt Petersburg, în perioada 1 - 3 octombrie 2019,Conferința europeană privind impactul inteligenței artificiale și roboticii 31 octombrie - 1 noiembrie 2019. Autorii studiilor au prezentat rapoarte științifice în Argentina, Uruguay, Brazilia, Africa de Sud și Italia.

În opinia specialiștilor din RANEPA și Academia Diplomatică, este extrem de important pe scara Rusiei să se stabilească formarea de programe țintă pe termen lung, deoarece problema AI și a informațiilor internaționale și securitatea psihologică este o problemă pentru viitorul apropiat.

Recomandat: