Inteligență Artificială Emoțională: Cine și De Ce Recunoaște Emoțiile Din Rusia și Din Străinătate - Vedere Alternativă

Cuprins:

Inteligență Artificială Emoțională: Cine și De Ce Recunoaște Emoțiile Din Rusia și Din Străinătate - Vedere Alternativă
Inteligență Artificială Emoțională: Cine și De Ce Recunoaște Emoțiile Din Rusia și Din Străinătate - Vedere Alternativă

Video: Inteligență Artificială Emoțională: Cine și De Ce Recunoaște Emoțiile Din Rusia și Din Străinătate - Vedere Alternativă

Video: Inteligență Artificială Emoțională: Cine și De Ce Recunoaște Emoțiile Din Rusia și Din Străinătate - Vedere Alternativă
Video: 5 Moduri prin care inteligenta artificiala va schimba lumea pana in anul 2050 2024, Mai
Anonim

Inteligența artificială se dezvoltă activ în Rusia și în lume - inclusiv emoțional. El este interesat de companii mari și startup-uri ambițioase care introduc noi dezvoltări în retail, marketing, educație, servicii bancare și recrutare. Potrivit Mordor Intelligence, piața recunoașterii emoțiilor a fost evaluată la 12 miliarde de dolari în 2018 și va crește până la 92 de miliarde de dolari până în 2024.

Ce este AI emoțional

Emoția AI (Emotion AI) este o AI care permite unui computer să recunoască, să interpreteze și să răspundă emoțiilor umane. O cameră, un microfon sau un senzor purtabil citește starea unei persoane și o rețea neuronală procesează datele pentru a determina o emoție.

Există două moduri principale de a analiza emoțiile:

  1. A lua legatura. O persoană este pusă pe un dispozitiv care îi citește pulsul, impulsurile electrice ale corpului și alți indicatori fiziologici. Astfel de tehnologii pot determina nu numai emoțiile, ci și nivelul de stres sau probabilitatea unei crize epileptice.
  2. Contactless. Emoțiile sunt analizate pe baza înregistrărilor video și audio. Calculatorul învață expresii faciale, gesturi, mișcări ale ochilor, voce și vorbire.

Pentru a antrena o rețea neuronală, oamenii de știință colectează un eșantion de date și marchează manual schimbarea stării emoționale a unei persoane. Programul studiază tiparele și înțelege care semne aparțin emoțiilor.

Rețeaua neuronală poate fi instruită pe diferite date. Unele companii și laboratoare folosesc videoclipuri, altele studiază vocea, iar unele beneficiază de surse multiple. Dar cu cât datele sunt mai diverse, cu atât rezultatul este mai precis.

Luați în considerare două surse principale:

Video promotional:

Fotografii și fotografii din videoclip

Imaginile sunt procesate mai întâi pentru a facilita utilizarea AI-ului. Caracteristicile faciale - sprâncene, ochi, buze și așa mai departe - sunt marcate cu puncte. Rețeaua neuronală determină poziția punctelor, le compară cu semnele emoțiilor din șablon și concluzionează care emoție este reflectată - furie, frică, surpriză, tristețe, bucurie sau calm.

Există și o altă abordare. Markerele emoțiilor sunt notate imediat pe față - de exemplu, un zâmbet sau sprâncene încruntate. Apoi, rețeaua neuronală caută markeri pe imagine, analizează combinațiile lor și determină starea persoanei.

Studiul markerilor emoțiilor a început în secolul XX. Adevărat, atunci au fost considerate separat de rețelele neuronale. Oamenii de știință Paul Ekman și Wallace Friesen au dezvoltat sistemul de codare a acțiunilor faciale (FACS) în 1978. Acesta descompune expresiile faciale în mișcări musculare individuale sau unități de acțiune. Cercetătorul studiază unitățile motorii și le compară cu emoția.

Voce și vorbire

Rețeaua neuronală extrage mulți parametri ai vocii din semnalul acustic - de exemplu, tonul și ritmul. Ea studiază schimbarea lor în timp și determină starea vorbitorului.

Uneori, un spectrogram este utilizat pentru antrenament - o imagine care arată puterea și frecvența unui semnal în timp. În plus, AI analizează vocabularul pentru rezultate mai precise.

Unde este tehnologia folosită

Vânzări și publicitate

Cea mai evidentă utilizare a tehnologiei de recunoaștere a emoțiilor este în marketing. Cu ajutorul lor, puteți determina modul în care un videoclip publicitar afectează o persoană. Pentru a face acest lucru, puteți, de exemplu, să instalați o structură cu o cameră care să modifice publicitatea în funcție de starea de spirit, sexul și vârsta persoanelor care trec.

Un design similar a fost dezvoltat de startup-urile Cloverleaf și Affectiva. Au introdus un anunț electronic de raft numit shelfPoint care colectează date despre emoțiile cumpărătorilor. Noile tehnologii au fost testate de Procter & Gamble, Walmart și alte companii mari. Potrivit Cloverleaf, vânzările au crescut cu 10-40%, în timp ce implicarea clienților a crescut de 3-5 ori.

O opțiune mai neobișnuită este un consultant robot cu inteligență artificială. El va interacționa cu clienții, le va citi emoțiile și le va influența. De asemenea, faceți oferte personalizate.

Image
Image

Robotul de serviciu a fost prezentat de compania rusă Promobot. Utilizează o rețea neuronală dezvoltată de Neurodata Lab, care determină emoțiile din mai multe surse simultan: înregistrări ale unei fețe, voce, mișcări, precum și respirații și ritmuri de puls.

Promobot își vinde activ roboții în străinătate. În 2018, startup-ul a semnat un contract cu compania americană Intellitronix pentru 56,7 milioane de dolari, iar în următorul acord a furnizat dispozitive Arabiei Saudite, Israelului, Kuweitului și Suediei - pentru ei compania va primi 1,1 milioane de dolari. Potrivit Promobot, astăzi 492 de roboți funcționează în 34 de țări din întreaga lume ca ghizi, concierge, consultanți și promotori.

bănci

Tehnologiile de recunoaștere a emoției ajută băncile să obțină feedback-ul clienților fără sondaje și să îmbunătățească serviciile. Camerele video sunt instalate în departamente, iar algoritmii de înregistrare determină satisfacția vizitatorilor. Rețelele neuronale pot analiza, de asemenea, vocea și vorbirea clientului și a operatorului în timpul unui apel către centrul de contact.

În Rusia, încearcă de mult timp să implementeze AI emoțional: a fost testat la Sberbank în 2015, iar trei ani mai târziu, Alfa-Bank și-a lansat pilotul pentru analizarea emoțiilor din videoclip. Pe lângă înregistrările de la camerele de supraveghere, se folosesc și înregistrări de apeluri. VTB a lansat un proiect pilot pentru implementarea AI emoțională în 2019. Iar Rosbank, împreună cu Neurodata Lab, au testat deja determinarea emoțiilor clienților prin voce și vorbire. Clientul a sunat la bancă, iar rețeaua neuronală și-a analizat starea și semnificația conversației. În plus, AI a observat pauze în vorbirea operatorului, volumul vocal și timpul de comunicare. Acest lucru a permis nu numai să verifice satisfacția cu serviciul, ci și să monitorizeze activitatea operatorilor centrului de contact.

Acum Rosbank și-a implementat propria soluție de recunoaștere a emoțiilor. În loc de semnal acustic, sistemul analizează textul, în timp ce precizia rămâne ridicată.

Speech Technology Center este implicat și în recunoașterea emoțiilor în vorbire (Sberbank deține o miză majoritară). Serviciul Smart Logger analizează vocea și vocabularul clienților și operatorilor, timpul de convorbire și pauzele pentru a afla satisfacția cu acest serviciu.

Sfera de divertisment

Sistemele de recunoaștere a emoției pot fi utilizate pentru a măsura reacția publicului la un film. Disney, în 2017, în colaborare cu oamenii de știință, a realizat un experiment: camerele instalate într-un cinematograf și au conectat algoritmi de învățare profundă pentru a evalua emoțiile telespectatorilor. Sistemul ar putea prezice reacțiile oamenilor observându-le doar câteva minute. În timpul experimentului, am colectat un set de date impresionant: 68 de markeri de la fiecare 3.179 de spectatori. În total, au fost obținute 16 milioane de imagini pe față.

În același scop, găzduirea video YouTube și-a creat propria AI numită YouFirst. Permite bloggerilor video și companiilor să testeze conținut înainte de a fi lansat pe platformă. Utilizatorii fac clic pe un link special, sunt de acord să filmeze un videoclip și să vizioneze videoclipul. În acest moment, rețeaua neuronală determină reacțiile lor și trimite datele proprietarului canalului.

Printre companiile ruse, reacțiile la videoclipuri pot fi analizate, de exemplu, de Neurobotics. Compania a dezvoltat programul EmoDetect care recunoaște bucuria, tristețea, surpriza, frica, furia, dezgustul și neutralitatea. Programul studiază până la 20 de caracteristici faciale locale în cadre de îngheț și o serie de imagini. Sistemul analizează unitățile motorii și folosește tehnologia FACS de codare facială. Este posibil să înregistrați videoclipuri de pe o cameră web. API-ul EmoDetect vă permite să integrați produsul cu aplicații externe.

AI emoțională începe să fie aplicată și în industria jocurilor. Vă ajută să personalizați jocul și să adăugați mai multe interacțiuni cu jucătorul.

De exemplu, compania americană emoțională AI Affectiva a ajutat la crearea thrillerului psihologic Nevermind. Tensiunea depinde de starea jucătorului: complotul devine mai întunecat atunci când acesta este sub stres și invers.

Image
Image

Educaţie

Recunoașterea emoției se aplică și educației. Poate fi folosit pentru a studia starea de spirit și atenția elevilor în timpul clasei.

Dezvoltatorii ruși au aplicat AI emoțional în Perm. Impulsul pentru dezvoltarea tehnologiei a fost atacurile elevilor asupra elevilor din învățământul primar și ale profesorului. Rostelecom și startup-ul New Vision au dezvoltat programul Școală inteligentă și sigură pentru monitorizarea stării emoționale a copiilor. Acest lucru va ajuta la identificarea adolescenților asociali înainte de producerea tragediei.

Era bazat pe sistemul Paul Ekman. Rețeaua neurală a analizat cele mai mici mișcări musculare folosind 150 de puncte pe față. În timpul lecției au fost colectate o cantitate mare de date: 5-6 mii de cadre pentru fiecare elev. Programul a studiat setul de date și a calculat starea emoțională a fiecărui copil. Potrivit creatorilor, precizia a fost de 72%.

HR

AI emoțională poate fi utilă în lucrul cu personalul. Ajută la determinarea stării angajatului, la observarea oboselii sau nemulțumirilor sale la timp și la redistribuirea sarcinilor mai eficient.

În plus, tehnologia ajută la recrutare. Cu ajutorul AI-ului emoțional, puteți verifica un candidat pentru un loc de muncă sau prinde o minciună în timpul unui interviu.

Compania americană HireVue folosește inteligența artificială pentru a evalua candidații. Solicitantul parcurge un interviu video, iar rețeaua neurală își determină starea prin cuvinte cheie, intonație vocală, mișcări și expresii faciale. AI evidențiază caracteristicile importante pentru job și dă note, iar managerul de resurse umane selectează candidații potriviți.

Startup cu sediul în Londra, Human folosește videoclipul pentru a identifica emoțiile și a le potrivi cu trăsăturile personajelor. După interviul video, recrutorii primesc un raport care spune cât de sincer, curios, emoționat, entuziast sau încrezător a fost candidatul și cum a răspuns la întrebări.

Medicament

În acest domeniu vor fi utile nu numai non-contactul, ci și metodele de contact pentru determinarea emoțiilor. Sunt implementate în mod activ de startup-uri străine - de exemplu, Affectiva și Brain Power. Evoluțiile companiilor includ ochelari AI care ajută copiii și adulții cu autism să recunoască emoțiile altor persoane și să dezvolte abilități sociale.

Însă rețelele neuronale pot ajuta pacienții fără senzori purtabili. Oamenii de știință de la Massachusetts Institute of Technology au creat o rețea neuronală care detectează depresia prin analizarea discursului unei persoane. Precizia rezultatului a fost de 77%. Și startup Beyond Verbal folosește AI pentru a analiza sănătatea mentală a pacienților. În acest caz, rețeaua neuronală selectează doar biomarkere vocale din înregistrarea audio.

Mașini

Massachusetts Institute of Technology dezvoltă o AI numită AutoEmotive care va determina starea șoferului și a pasagerilor. El nu numai că va monitoriza nivelul de stres, dar va încerca, de asemenea, să îl reducă - cântând muzică blândă, reglând temperatura în cabină sau luând un traseu mai puțin aglomerat.

Limitările IA emoționale

Rețeaua neuronală nu poate ține cont de context

AI a învățat să identifice emoțiile și stările umane de bază, dar până în prezent nu face față bine situațiilor mai complexe. Oamenii de știință observă că expresiile faciale nu arată întotdeauna cu exactitate cum se simte cu adevărat o persoană. Zâmbetul său poate fi prefăcut sau sarcastic, iar acest lucru poate fi determinat doar după context.

Experții NtechLab consideră că este încă dificil să se stabilească cu exactitate motivul pentru acea sau acea emoție.

NtechLab subliniază că este necesar să recunoaștem nu numai expresiile faciale, ci și mișcările umane. Datele diverse vor face AI-ul emoțional mult mai eficient. Daniil Kireev, un cercetător de seamă al companiei de dezvoltare a produselor de recunoaștere a feței VisionLabs, este de acord cu acest lucru. În opinia sa, cu o cantitate mare de date, precizia algoritmilor crește.

„Există erori, numărul lor depinde de mulți factori: calitatea eșantionului de antrenament, rețeaua neuronală antrenată, datele pe care funcționează sistemul final. Adăugând informații din diferite surse - de exemplu, voce - puteți îmbunătăți calitatea sistemului. În același timp, este important să înțelegem că, prin față, mai degrabă îi determinăm expresia decât emoția finală. Algoritmul poate încerca să determine emoția simulată, dar pentru aceasta, dezvoltarea tehnologiei trebuie să facă un mic pas înainte”, spune Daniil Kireev.

Echipamente proaste

Factorii externi influențează calitatea algoritmilor. Pentru ca precizia recunoașterii emoțiilor să fie ridicată, camerele video și microfoanele trebuie să fie de înaltă calitate. În plus, rezultatul este influențat de iluminare, locația camerei. Potrivit lui Daniil Kireev, condițiile necontrolate complică procesul de determinare a statelor unei persoane.

Pentru a dezvolta AI emoțional, aveți nevoie de hardware de calitate. Dacă găsiți un echipament bun și configurați-l corect, precizia rezultatelor va fi foarte mare. Și atunci când va deveni mai accesibil și răspândit, tehnologiile de recunoaștere a emoțiilor vor fi îmbunătățite și implementate mai activ.

„Precizia sistemului depinde de mulți factori. Principala este calitatea cadrelor fixe de la aparatul foto, care sunt date sistemului pentru recunoaștere. La rândul său, calitatea cadrelor statice este influențată de setările și caracteristicile camerei, de matrice, de iluminare, de locația dispozitivului, de numărul de fețe din cadru. Cu configurația corectă a hardware-ului și software-ului, este posibil să se obțină acuratețea emoției detectate până la 90-95%”, remarcă Vitaly Vinogradov, managerul serviciului de supraveghere video și analize video cloud Ivideon.

Perspectiva tehnologiei

Acum, în Rusia, AI emoțională câștigă doar avânt. Startup-urile dezvoltă tehnologie și își comercializează produsele, iar clienții le testează cu prudență.

Gartner estimează însă că până în 2024, mai mult de jumătate din anunțurile online vor fi făcute folosind AI emoțional. Viziunea computerizată, care este utilizată pentru detectarea emoțiilor, va deveni una dintre cele mai importante tehnologii în următorii 3-5 ani. Iar MarketsandMarkets prevede că piața analizei emoțiilor se va dubla până în 2024 - de la 2,2 miliarde de dolari la 4,6 miliarde de dolari.

În plus, companiile mari manifestă interes pentru recunoașterea emoțiilor - de exemplu, Procter & Gamble, Walmart, VTB, Rosbank, Sberbank și Alfa-Bank. Iar startup-urile interne dezvoltă proiecte-pilot care vor deveni soluții gata pentru afaceri în viitor.

Evgeniya Khrisanfova

Recomandat: