Inteligența Artificială A învățat Să Vadă Trolluri De Rețea - Vedere Alternativă

Inteligența Artificială A învățat Să Vadă Trolluri De Rețea - Vedere Alternativă
Inteligența Artificială A învățat Să Vadă Trolluri De Rețea - Vedere Alternativă

Video: Inteligența Artificială A învățat Să Vadă Trolluri De Rețea - Vedere Alternativă

Video: Inteligența Artificială A învățat Să Vadă Trolluri De Rețea - Vedere Alternativă
Video: Inteligența Artificială și Blockchain-ul 2024, Mai
Anonim

Inteligența artificială a citit comentariile agresive ale utilizatorilor Reddit și a înțeles cum vorbesc oamenii care urăsc alte persoane. Este mai dificil să-l înșeli decât un moderator bot obișnuit.

Internetul este locuit de troll-uri grase și subțiri și doar oameni nepolitici care nu intră în buzunare pentru cuvinte. Modificarea Internetului manual este o muncă grea și ne mulțumitoare. Bots programați să caute cuvinte din „lista interzisă” se descurcă mai bine, dar nu pot ști când un comentariu caustic cu cuvinte cu cod este o glumă inofensivă și când este un atac verbal rău.

Cercetătorii din Canada au învățat inteligența artificială să distingă glumele nepoliticoase de glumele dureroase și ceea ce sociologii numesc „discursul de ură”.

Dana Wormsley, unul dintre creatorii AI, observă că „discursul de ură” este greu de formalizat. Într-adevăr, cuvintele ofensive formal pot fi folosite atât cu ironie, cât și în sensurile lor mai blânde; doar unele dintre textele care conțin astfel de cuvinte incită și umilesc serios. Nu vom da exemple, deoarece organizațiile guvernamentale care reglementează internetul în Rusia nu au încă inteligență artificială).

Rețeaua neuronală a fost instruită pe eșantioanele declarațiilor membrilor comunității cunoscute pentru ostilitatea lor față de diferite grupuri ale populației. Rețeaua neuronală a aflat de la postările Reddit, o platformă în care puteți găsi o mare varietate de grupuri de interese, de la activiști pentru drepturile civile până la misoginiști radicali. Textele care au fost încărcate în sistem au insultat cel mai adesea afro-americanii, oamenii supraponderali și femeile.

O rețea neuronală antrenată în acest fel a dat mai puține falsuri pozitive decât programele care determină „vorbirea de ură” prin cuvinte cheie. Sistemul a surprins rasismul în care nu existau deloc cuvinte indicatoare. În ciuda performanțelor bune, creatorii moderatorului AI nu sunt siguri că dezvoltarea lor va fi utilizată pe scară largă. Până în prezent, ea a găsit cu succes discursul de ură pe Reddit, dar nu se știe dacă va putea face același lucru pe Facebook și pe alte platforme. În plus, sistemul este imperfect, lipsind uneori din multe dintre afirmațiile rasiste aparent nepoliticoase pe care un motor de căutare a cuvintelor cheie nu le-ar lipsi. Singurul care este capabil să distingă o insultă de o glumă nevinovată în timp ce persoana rămâne.

Recomandat: