De Ce Este Periculoasă Judecarea Inteligenței Artificiale? - Vedere Alternativă

Cuprins:

De Ce Este Periculoasă Judecarea Inteligenței Artificiale? - Vedere Alternativă
De Ce Este Periculoasă Judecarea Inteligenței Artificiale? - Vedere Alternativă

Video: De Ce Este Periculoasă Judecarea Inteligenței Artificiale? - Vedere Alternativă

Video: De Ce Este Periculoasă Judecarea Inteligenței Artificiale? - Vedere Alternativă
Video: Cât De Periculoasă Este Inteligenţa Artificială? Rasa Umană Este In Pericol ? 2024, Mai
Anonim

Inteligența artificială vă ajută deja să vă determinați viitorul într-un fel. Când căutați ceva pe un motor de căutare, utilizați un serviciu precum Netflix sau o bancă vă evaluează adecvarea pentru un credit ipotecar. Dar ce se întâmplă dacă inteligența artificială trebuie să stabilească dacă ești vinovat sau nu, în instanță? În mod ciudat, în unele țări acest lucru se poate întâmpla deja. Recent, înaltul judecător american John Roberts a fost întrebat dacă își poate imagina o zi în care „mașinile inteligente, controlate de inteligență artificială, vor ajuta la găsirea probelor sau chiar la luarea deciziilor judiciare”. El a răspuns: „Această zi a venit deja și el ajută în mod semnificativ autoritățile judiciare în proceduri”.

Poate că Roberts se referea la cazul recent al lui Eric Loomis, care a fost condamnat la șase ani de închisoare la recomandarea unui software proprietar secret de la o companie privată. Loomis, care avea deja antecedente penale și a fost condamnat pentru evadarea poliției într-o mașină furată, susține acum că i s-a încălcat dreptul la procedură, deoarece nici el, nici reprezentanții săi nu au putut revizui sau contesta algoritmul de recomandare.

Raportul a fost pregătit de software-ul Compas, care este vândut de către Notrpointe către nave. Programul întruchipează o nouă tendință în cercetarea AI: ajutarea judecătorilor să ia decizii „mai bune” (sau cel puțin mai mult bazate pe date) în instanță.

În timp ce detaliile specifice ale cazului Loomis rămân închise, acesta conține cu siguranță diagrame și numere care definesc viața, comportamentul și probabilitatea unei recidive a lui Loomis. Acestea includ vârsta, rasa, identitatea de gen, obiceiurile, istoricul browserului și unele măsurători ale craniului. Nimeni nu știe mai precis.

Se știe că procurorul din caz i-a spus judecătorului că Loomis a demonstrat „un risc ridicat de recidivă, violență, proceduri preventive”. Acest lucru este standard atunci când vine vorba de condamnare. Judecătorul a fost de acord și i-a spus lui Loomis că „Compas l-a identificat ca fiind o persoană cu risc ridicat pentru societate”.

Curtea Supremă din Wisconsin l-a condamnat pe Loomis, adăugând că raportul Compas a adăugat informații valoroase la decizia sa, dar a menționat că, fără el, a dat aceeași sentință. Desigur, nu veți putea verifica acest lucru cu siguranță. Ce fel de prejudecăți cognitive pot exista atunci când un sistem „inteligent” atotputernic precum Compas este implicat în consilierea judecătorilor cu privire la ce să facă?

Utilizare necunoscută

Video promotional:

Să fim sinceri, nu există nimic „ilegal” în ceea ce a făcut instanța din Wisconsin - acesta este doar un exemplu. Alte instanțe pot și vor face același lucru.

Din păcate, nu știm în ce măsură AI și alți algoritmi sunt utilizați în condamnare. Se crede că unele instanțe „testează” sisteme precum Compas în procese închise, dar nu pot pretinde un parteneriat. Există, de asemenea, percepția că mai multe startup-uri AI dezvoltă astfel de sisteme inteligente.

Image
Image

Cu toate acestea, utilizarea AI în legislație nu începe sau se termină cu o propoziție, ea începe cu o investigație. Marea Britanie a dezvoltat deja sistemul VALCRI, care face o muncă analitică care consumă mult timp în câteva secunde - strecurându-se prin tone de date, cum ar fi texte, rapoarte de laborator și documente ale poliției, pentru a izola lucruri care ar putea necesita investigații suplimentare.

Poliția din West Midlands din Marea Britanie va testa VALCRI în următorii trei ani folosind date anonime care conțin peste 6,5 milioane de înregistrări. Un test similar este efectuat de poliția din Anvers în Belgia. Cu toate acestea, în trecut, AI și proiectele de învățare profundă care implică seturi de date masive au fost problematice.

Beneficii pentru câțiva

Tehnologia a oferit numeroase ajutoare utile în sălile de judecată, de la mașini de copiat la extracția ADN de la amprente la tehnici de supraveghere sofisticate. Dar asta nu înseamnă că orice tehnologie este o îmbunătățire.

În timp ce utilizarea AI în investigații și condamnări poate economisi timp și bani, aceasta pune probleme acute. Un raport Compas de la ProPublica a arătat clar că negrii au fost considerați în mod eronat de program că sunt mai recidiviști decât albii. Chiar și cele mai sofisticate sisteme de IA pot moșteni prejudecățile rasiale și de gen ale celor care le creează.

Mai mult decât atât, ce rost are să mutăm procesul de luare a deciziilor (cel puțin parțial) asupra problemelor care sunt unice pentru oameni pe un algoritm? Există o anumită dificultate în Statele Unite atunci când juriile își judecă colegii. Standardele legale nu au fost niciodată criteriul de referință, motiv pentru care aceste procese cu juri sunt considerate cele mai democratice și eficiente sisteme de condamnare. Facem greșeli, dar în timp acumulăm cunoștințe despre cum să nu le facem, rafinând sistemul.

Compas și sisteme similare reprezintă o cutie neagră în sistemul juridic. Nu ar trebui să existe așa ceva. Sistemele juridice depind de continuitatea, transparența informațiilor și capacitatea de revizuire. Societatea nu dorește un sistem care să încurajeze cursa să construiască startup-uri AI care să facă soluții rapide, ieftine și exclusive. O IA făcută în grabă va fi cumplită.

O versiune actualizată open source a Compas ar fi o îmbunătățire. Dar mai întâi, standardele sistemului de justiție vor trebui ridicate înainte de a începe să transferăm responsabilitatea în favoarea algoritmilor.

ILYA KHEL

Recomandat: