Vânătoare De Negativitate. Inteligența Artificială Va Avea încredere Pentru A Controla Rețelele Sociale - Vedere Alternativă

Vânătoare De Negativitate. Inteligența Artificială Va Avea încredere Pentru A Controla Rețelele Sociale - Vedere Alternativă
Vânătoare De Negativitate. Inteligența Artificială Va Avea încredere Pentru A Controla Rețelele Sociale - Vedere Alternativă

Video: Vânătoare De Negativitate. Inteligența Artificială Va Avea încredere Pentru A Controla Rețelele Sociale - Vedere Alternativă

Video: Vânătoare De Negativitate. Inteligența Artificială Va Avea încredere Pentru A Controla Rețelele Sociale - Vedere Alternativă
Video: Elon Musk Avertizeaza Romania! Inteligenta Artificiala II Va Depasi Oamenii In 5 Ani! 2024, Octombrie
Anonim

Dacă nu trăiești pe social media, atunci cel mai probabil nu trăiești deloc. Jumătate din populația lumii vă poate oferi un diagnostic atât de dezamăgitor. În orice caz, potrivit statisticilor, astăzi sunt înregistrate în rețelele de socializare. În Rusia, numărul de rețele este de aproximativ 30 de milioane.

Psihologii au scris deja volume despre dependența de rețea, care este comparată cu un medicament. Și autorul termenului „realitate virtuală”, unul dintre creatorii săi, un reprezentant al elitei cibernetice din Silicon Valley, Jaron Lanier, chiar a scris o carte despre motivul pentru care trebuie să fugi de pe rețeaua de socializare. Deși a devenit un bestseller, este puțin probabil ca aceste apeluri să convingă masele largi de utilizatori. Astăzi, populația rețelelor sociale crește rapid. Potrivit experților, până la jumătatea secolului vor încurca aproape întreaga populație a planetei. Cu excepția cazului în care, desigur, umanitatea își schimbă părerea.

Și este ceva de gândit. În rețelele de astăzi există cluburi pentru interesul nu numai al filatelistilor și al teatrelor, ci al sinuciderilor și al dependenților de droguri, aici puteți găsi instrucțiuni pentru teroriștii începători, tovarăși în lupta împotriva guvernului actual și multe altele, sincer vorbind, negative. De exemplu, vă puteți gândi la valul de sinucidere, când a existat un boom într-un singur joc online popular, al cărui obiectiv final este sinuciderea. Utilizatorii rețelelor de socializare (adolescenți copleșitori) sunt contactați de un „curator” care folosește conturi false, nu pot fi identificați. În primul rând, ei explică regulile: „nu spuneți nimănui despre acest joc”, „sarcini întotdeauna finalizate, oricare ar fi acestea”, „pentru că nu veți finaliza sarcina sunteți excluși din joc pentru totdeauna și vă veți confrunta cu consecințe proaste”.

Iar politicienii vorbesc deja despre fenomenul rețelelor: răstoarnă guvernele și chiar aleg președinții. Tehnicile sunt surprinzător de simple. Falsurile sunt aruncate în rețea cu privire la anumite acțiuni scandaloase ale autorităților și sunt făcute apeluri pentru a ieși în stradă pentru a exprima indignare. Există multe exemple cunoscute, de exemplu, în Egipt, Sudanul de Sud, Myanmar.

Cum să protejăm societatea de influența distructivă a rețelelor sociale? Acest lucru este valabil mai ales pentru tânăra generație, care constituie majoritatea covârșitoare în rețele.

În principiu, pentru specialiști, în special psihologii, aceasta nu este o problemă. Dar volumele celor mai diverse informații, inclusiv negative, în rețele sunt uriașe, chiar și cei mai buni profesioniști nu pot face față procesării sale „manuale”. Doar tehnologia poate face acest lucru. Și mai ales, inteligența artificială (AI), construită pe baza rețelelor neuronale care imită structura și funcționarea creierului. O echipă de psihologi de la Prima Universitate de Stat din Medicina din Sankt Petersburg, numită după I. I. Pavlov și specialiști în domeniul tehnologiei informației a Institutului din Sankt Petersburg pentru Informatică și Automatizare a Academiei Ruse de Științe.

"Vorbim despre identificarea cu ajutorul AI a unor grupuri diferite de persoane predispuse la comportament distructiv", a declarat corespondentului RG, profesor Igor Kotenko, care conduce acest grup de oameni de știință. - Psihologii ne-au oferit șapte opțiuni pentru un astfel de comportament, în special, aceasta este o atitudine negativă față de viață, care poate duce la sinucidere, aceasta este o tendință la agresiune sau proteste, acestea sunt amenințări în raport cu o anumită persoană sau grup de persoane etc. Sarcina noastră este de a crea o AI care să poată lucra cu aceste semne, figurat vorbind, să le „ciocănim” în AI, astfel încât să poată analiza constant informațiile uriașe care se plimbă în rețea, să surprindă diverse opțiuni deranjante.

La prima vedere, sarcina nu este foarte dificilă. La urma urmei, fiecare rezident al rețelei sociale, așa cum se spune, este la vedere. Pe pagina sa puteți vedea ce îl interesează, ce gândește, cu cine comunică, ce acțiuni întreprinde el însuși și la ce îi cheamă pe alții. Totul este dintr-o privire. Urmăriți și luați măsuri. Dar dacă totul a fost atât de evident … Cert este că gândurile și comportamentul unei persoane, în majoritatea cazurilor, sunt departe de a fi atât de simple și lipsite de ambiguitate. În general, diavolul este în detalii. Și acolo unde totul este evident pentru un specialist, AI poate fi greșită. De exemplu, oamenii de știință canadieni au învățat AI să distingă între glumele nepoliticoase sau „discursul de ură” de cele doar jignitoare. Sistemul s-a dovedit a fi destul de imperfect, de exemplu, a omis multe declarații, în mod evident, rasiste.

Video promotional:

Pe scurt, totul depinde de modul în care se predă AI. Iar sistemul învață prin exemple la fel cum învață un copil. Până la urmă, nu-i explică că o pisică are o mustață, astfel de urechi, o astfel de coadă. Îi arată un animal de multe ori și spun că este o pisică. Și atunci el însuși repetă această lecție de multe ori, privind o altă pisică.

Rețelele neuronale create de oamenii de știință din Sankt Petersburg vor studia în același mod. Acestea li se vor prezenta diverse opțiuni pentru comportamentul distructiv al oamenilor. Menținând „creierele” sale semnele dezvoltate de psihologi, AI-ul le va memora pentru a le prinde apoi în fluxurile uriașe de informații de pe rețelele de socializare. Profesorul Kotenko subliniază că sarcina AI este de a face doar un sfat pentru distructiv, iar ultimul cuvânt este pentru specialiști. Doar ei vor putea spune dacă situația este într-adevăr alarmantă și este nevoie urgentă de a lua măsuri sau dacă alarma este falsă.

Proiectul a fost susținut de Fundația Rusă pentru Cercetări de Bază.

Yuri Medvedev

Recomandat: