AI Ne Poate Schimba Viața Pentru Totdeauna - Dar în Prezent Suntem Pe O Cale întunecată - Vedere Alternativă

AI Ne Poate Schimba Viața Pentru Totdeauna - Dar în Prezent Suntem Pe O Cale întunecată - Vedere Alternativă
AI Ne Poate Schimba Viața Pentru Totdeauna - Dar în Prezent Suntem Pe O Cale întunecată - Vedere Alternativă

Video: AI Ne Poate Schimba Viața Pentru Totdeauna - Dar în Prezent Suntem Pe O Cale întunecată - Vedere Alternativă

Video: AI Ne Poate Schimba Viața Pentru Totdeauna - Dar în Prezent Suntem Pe O Cale întunecată - Vedere Alternativă
Video: Tell The World - "Spune Lumii" (Filmul complet, subtitrat in limba romana) 2024, Aprilie
Anonim

Inteligența artificială (AI) transformă deja lumea în moduri vizibile. Datele conduc ecosistemul nostru digital global, iar tehnologiile AI descoperă tiparele în date.

Smartphone-urile, casele inteligente și orașele inteligente influențează modul în care trăim și interacționăm, iar sistemele de inteligență artificială sunt implicate din ce în ce mai mult în angajarea deciziilor, diagnosticarea medicală și judecare. Dacă acest scenariu este utopic sau distopic este la noi.

Riscurile potențiale ale AI sunt listate de mai multe ori. Roboții ucigași și șomajul masiv sunt probleme frecvente, în timp ce unii oameni chiar se tem de dispariție. Proiecții mai optimiste susțin că AI va adăuga 15 trilioane de dolari economiei globale până în 2030 și ne va conduce în cele din urmă la un fel de nirvana socială.

Cu siguranță, trebuie să luăm în considerare impactul pe care aceste tehnologii îl au asupra societăților noastre. O problemă majoră este aceea că sistemele AI consolidează prejudecățile sociale existente - cu un efect devastator.

Câteva exemple notorii ale acestui fenomen au primit o atenție largă: sisteme moderne de traducere automată și sisteme de recunoaștere a imaginilor.

Aceste probleme apar deoarece astfel de sisteme folosesc modele matematice (cum ar fi rețelele neuronale) pentru a defini tiparele în seturile mari de date de formare. Dacă aceste date sunt puternic distorsionate în diferite moduri, atunci erorile inerente vor fi inevitabil studiate și reproduse de sisteme instruite.

Tehnologiile autonome părtinitoare sunt problematice, deoarece pot izola grupuri precum femei, minorități etnice sau vârstnici, accentuând astfel dezechilibrele sociale existente.

Dacă sistemele AI sunt instruite, de exemplu, din datele de arestare ale poliției, atunci orice prejudecată conștientă sau inconștientă manifestată în schemele de arestare existente va fi duplicată de sistemul AI „prospectiv al poliției”, instruit din aceste date.

Video promotional:

Recunoscând implicațiile grave ale acestui fapt, diverse organizații de renume au recomandat recent ca toate sistemele de inteligență artificială să fie instruite pe date obiective. Orientările etice publicate mai devreme în 2019 de Comisia Europeană au sugerat următoarea recomandare:

Atunci când datele sunt colectate, acestea pot conține erori construite social, inexactități. Acest lucru trebuie abordat înainte de a instrui AI pe orice set de date.

Totul sună suficient de rezonabil. Din păcate, uneori pur și simplu nu este posibil să se asigure imparțialitatea anumitor seturi de date înainte de formare. Un exemplu concret ar trebui să clarifice acest lucru.

Toate sistemele moderne de traducere automată (cum ar fi Google Translate) învață de la perechi de propoziții.

Sistemul anglo-francez folosește date care leagă propoziții în engleză ("she is high") cu propoziții echivalente în franceză ("elle est grande").

Pot exista 500 de milioane de astfel de perechi într-un set de date de instruire dat și, prin urmare, doar un miliard de propoziții individuale. Toate prejudecățile de gen trebuie eliminate din acest tip de set de date, pentru a preveni generarea de rezultate, cum ar fi următoarele în sistem:

Traducerea franceză a fost creată folosind Google Translate pe 11 octombrie 2019 și este incorectă: „Ils” este un plural masculin în franceză și apare aici, în ciuda contextului care indică clar că se face referire pe femei.

Acesta este un exemplu clasic de sistem automatizat care preferă standardul implicit pentru bărbați datorită părtinirilor din datele de instruire.

În general, 70 la sută dintre pronumele generice din seturile de date de traducere sunt masculine, iar 30 la sută sunt feminine. Acest lucru se datorează faptului că textele utilizate în astfel de scopuri se referă mai des la bărbați decât la femei.

Pentru a evita repetarea erorilor existente ale sistemului de traducere, ar trebui să se excludă din date perechi de propoziții specifice, astfel încât pronumele masculin și feminin să se întâlnească într-un raport de 50/50 atât pe partea engleză, cât și pe cea franceză. Acest lucru va împiedica sistemul de a atribui probabilități mai mari pronumelor masculine.

Și chiar dacă subsetul rezultat al datelor este echilibrat pe deplin pe sexe, acesta va fi în continuare înclinat în diverse moduri (de exemplu, etnice sau de vârstă). Într-adevăr, ar fi dificil să elimini complet toate aceste erori.

Dacă o persoană consacră doar cinci secunde lecturii fiecărui miliard de propoziții din datele de instruire AI, va dura 159 de ani pentru a le testa pe toate - și asta presupune disponibilitatea de a lucra toată ziua și noaptea, fără pauze de prânz.

Alternativă?

Prin urmare, nu este realist să se impună ca toate seturile de date de instruire să fie imparțiale înainte de crearea sistemelor AI. Astfel de cerințe la nivel înalt presupun, de obicei, că „AI” denotă un grup omogen de modele matematice și abordări algoritmice.

De fapt, diferite sarcini AI necesită tipuri complet diferite de sisteme. Și subestimarea completă a acestei diversități maschează problemele reale asociate cu, de exemplu, date foarte distorsionate. Acest lucru este nefericit, întrucât înseamnă că alte soluții pentru problema prejudiciului de date sunt neglijate.

De exemplu, prejudecățile dintr-un sistem de traducere automată poate fi redus în mod semnificativ dacă sistemul este adaptat după ce a fost instruit pe un set de date mare, inevitabil părtinitor.

Acest lucru poate fi realizat folosind un set de date mult mai mic, mai puțin gâtuit. Prin urmare, cele mai multe date pot fi puternic părtinitoare, dar nu este necesar un sistem instruit. Din păcate, aceste metode sunt rareori discutate de cei care elaborează linii directoare și cadre legale pentru cercetarea AI.

Dacă sistemele AI pur și simplu agravează dezechilibrele sociale existente, atunci acestea sunt mai susceptibile să descurajeze decât să promoveze schimbările sociale pozitive. Dacă tehnologiile AI pe care le folosim din ce în ce mai mult zilnic ar fi mult mai puțin părtinitoare decât noi, acestea ne-ar putea ajuta să recunoaștem și să ne confruntăm cu propriile noastre prejudecăți.

Desigur, acest lucru ar trebui să ne străduim. Prin urmare, designerii AI trebuie să se gândească mult mai atent la implicațiile sociale ale sistemelor pe care le creează, în timp ce cei care scriu despre AI trebuie să înțeleagă mai îndeaproape cum sunt proiectate și construite sistemele AI.

Pentru că dacă ne apropiem cu adevărat de o idilă tehnologică sau de o apocalipsă, prima ar fi de preferat.

Victoria Vetrova

Recomandat: