Știi Imediat Că Asta Este Porno. Va înțelege Computerul? - Vedere Alternativă

Cuprins:

Știi Imediat Că Asta Este Porno. Va înțelege Computerul? - Vedere Alternativă
Știi Imediat Că Asta Este Porno. Va înțelege Computerul? - Vedere Alternativă

Video: Știi Imediat Că Asta Este Porno. Va înțelege Computerul? - Vedere Alternativă

Video: Știi Imediat Că Asta Este Porno. Va înțelege Computerul? - Vedere Alternativă
Video: Sasha , copil obsedat de filme porno 😂😂 (parodie) 2024, Mai
Anonim

Tumblr a anunțat la începutul lunii trecute că va interzice pornul. Când noua politică de conținut a intrat în vigoare, aproximativ două săptămâni mai târziu - pe 17 decembrie - a devenit evident că vor exista probleme. După ce a implementat un sistem de inteligență artificială care trebuia să interzică toată pornografia pe site, acesta a marcat greșit postări nevinovate în 455,4 milioane de bloguri de pe site, între 168,2 miliarde de postări: vaze, vrăjitoare, pește și tot jazz-ul.

Pornografie pentru inteligență artificială

Deși nu este clar ce filtru automat Tumblr și-a folosit sau și-a creat propriul - compania nu a răspuns la întrebările pe această temă - este clar că rețeaua socială este blocată între propria politică și tehnologie. De exemplu, poziția inconsistentă a site-ului cu privire la „femeile care prezintă sfarcurile” și nuditatea artistică, de exemplu, a dus la decizii contextuale care demonstrează că nici Tumblr nu știe ce să interzică platforma sa. Cum poate o companie frecventă să determine ce consideră obscen?

În primul rând, blocarea conținutului riscant este dificilă, deoarece este dificil de definit de la bun început. Definiția obscenității este o capcană a ursului care are mai mult de o sută de ani, în 1896, Statele Unite au adoptat pentru prima dată legi care reglementează obscenitatea. În 1964, în Jacobellis v. Ohio, cu privire la faptul dacă Ohio ar putea interzice proiecția unui film Louis Malle, Curtea Supremă a emis astăzi ceea ce este probabil cea mai faimoasă definiție a pornografiei hardcore: „Nu voi încerca să definesc acest tip de material astăzi, ceea ce, după cum am înțeles că va fi inclusă în descrierea verbală; și este posibil să nu reușesc niciodată să o fac inteligibilă”, a spus judecătorul Potter Stewart. „Dar știu ce este atunci când îl văd, iar filmul asociat cu acest caz nu este”.

Algoritmii de învățare automată au aceeași problemă. Aceasta este exact problema pe care Brian Delorge, CEO-ul Picnix, o companie care vinde tehnologie specializată în inteligență artificială, încearcă să o rezolve. Unul dintre produsele lor, Iris, este o aplicație din partea clientului pentru detectarea pornografiei pentru a „ajuta oamenii”, după cum spune Delorge, „care nu vor porno în viața lor”. El observă că singura problemă a pornografiei este că poate fi orice, o grămadă de lucruri diferite - iar imaginile care nu sunt pornografice pot avea elemente similare. Imaginea de petrecere pe plajă poate fi blocată nu pentru că are mai multă piele decât fotografia de la birou, ci pentru că este pe margine. „Acesta este motivul pentru care este foarte dificil să dresezi un algoritm de recunoaștere a imaginii pentru a face totul dintr-o dată”, spune DeLorge.„Când definiția devine dificilă pentru oameni, calculatorul are dificultăți. Dacă oamenii nu pot fi de acord cu ce este pornul și ce nu, poate chiar un computer spera să cunoască diferența?

Pentru a învăța o AI să detecteze porno, primul lucru pe care trebuie să-l faci este să îl hrănești porno. Multă pornografie. Unde pot să-l iau? Ei bine, primul lucru pe care îl fac oamenii este să descarce o grămadă de videoclipuri de la Pornhub, XVideos, spune Dan Shapiro, co-fondatorul Lemay.ai, un startup care creează filtre AI pentru clienții săi. "Aceasta este una dintre acele zone cenușii ale naturii juridice - de exemplu, dacă înveți din conținutul altor persoane, îți aparține?"

După ce programatorii descarcă tone de pornografie, au decupat imagini care nu sunt pornografice din videoclip pentru a se asigura că materialele pe care le folosesc nu îi blochează pe cei de la pizza. Platformele plătesc oamenii, în mare parte din afara SUA, pentru a eticheta un astfel de conținut; locul de muncă este scăzut și plictisitor, ca și cum ai intra într-un captcha. Ei doar stau și notează: acesta este porno, acesta este. Trebuie să filtrați puțin, pentru că tot porno-ul iese cu o etichetă. Învățarea este mai bună dacă utilizați nu doar fotografii, ci mostre mari de date.

Video promotional:

„De multe ori, nu trebuie doar să filtrezi porno, ci mai degrabă materialul însoțitor”, spune Shapiro. „Ca profilele false cu fotografia și telefonul unei fete”. El se referă la lucrătorii sexuali care caută clienți, dar ar putea fi orice care nu este în întregime legal. "Acesta nu este porno, dar acesta este genul de lucruri pe care nu doriți să le urmăriți pe platforma dvs., nu?" Un moderator automat bun învață de la milioane - dacă nu chiar zeci de milioane - de conținut de probă, ceea ce vă poate salva tone de om.

„Puteți compara asta cu diferența dintre un copil și un adult”, spune Matt Zeiler, CEO și fondatorul Clarifai, o pornire a viziunii computerizate care face acest tip de filtrare a imaginilor pentru clienții corporativi. „Pot să vă spun sigur - acum câteva luni am avut un copil. Ei nu știu nimic despre lume, totul este nou pentru ei. " Trebuie să-i arate copilului (algoritmul) o mulțime de lucruri, astfel încât să înțeleagă ceva. „Milioane și milioane de exemple. Dar ca adulți - când am creat atât de mult context despre lume și am înțeles cum funcționează - putem învăța ceva nou doar din câteva exemple. " (Da, învățarea unei AI pentru a filtra conținutul adulților este ca și cum ai arăta unui copil mult porno.) Companii precum Clarifai cresc astăzi rapid. Au o bază de date bună a lumii, pot spune câinilor din pisici, îmbrăcați de la gol. Compania Zeiler folosește modelele sale pentru a antrena noi algoritmi pentru clienții săi - din moment ce modelul original a procesat o mulțime de date, versiunile personalizate ar necesita doar seturi de date noi pentru a funcționa.

Cu toate acestea, algoritmul este dificil să-l înțeleagă. Se descurcă bine cu conținut care este evident pornografic; dar un clasificator ar putea marca în mod incorect un anunț de lenjerie de corp ca fiind în afara limitelor, deoarece imaginea are mai multă piele decât un birou. (Cu bikini și lenjerie, potrivit lui Zeiler, este foarte dificil). Acest lucru înseamnă că marketerii ar trebui să se axeze pe aceste cazuri avantajoase în activitatea lor, acordând prioritate modelelor dificil de clasificat.

Care este partea cea mai grea?

"Anime porno", spune Zeiler. "Prima versiune a detectorului nostru de nuditate nu a folosit pornografie pentru desene animate pentru educație." AI de multe ori AI a greșit, deoarece nu a recunoscut hentai. „După ce am lucrat la acest lucru pentru client, am injectat o mulțime de date în model și am îmbunătățit dramatic exactitatea filtrului de desene animate, menținând în același timp exactitatea fotografiilor reale”, spune Zeiler.

Tehnologia care a fost învățată să elimine porno poate fi folosită și pe alte lucruri. Tehnologiile din spatele acestui sistem sunt remarcabil de flexibile. Acest lucru este mai mult decât țâțe anime. Jigsaw din Alfabet, de exemplu, este utilizat pe scară largă ca moderator automat de comentarii într-un ziar. Acest software funcționează într-un mod similar cu clasificatorii de imagini, cu excepția faptului că se sortează în funcție de toxicitate și nu de nuditate. (Toxicitatea în comentarii textuale este la fel de dificil de determinat ca și pornografia în imagini.) Facebook folosește acest tip de filtrare automată pentru a detecta mesajele sinucigașe și conținutul legat de terorism și a încercat să utilizeze această tehnologie pentru a detecta știri false pe platforma sa masivă.

Toate acestea depind încă de supravegherea umană; ne ocupăm mai bine de ambiguitate și de contextul ambiguu. Zeiler spune că nu crede că produsul său a luat meseria cuiva. Rezolvă problema scalării pe internet. Oamenii vor instrui în continuare IA prin sortarea și etichetarea conținutului, astfel încât AI-ul să-l poată distinge.

Acesta este viitorul moderației: soluții personalizate, la cheie, oferite companiilor care își desfășoară întreaga activitate, învățând mai multe date clasificatorilor avansați. La fel ca Stripe și Square oferă soluții de plată din afara firmelor care nu doresc să le proceseze singure, startup-uri precum Clarifai, Picnix și Lemay.ai vor face moderare online.

Dan Shapiro din Lemay.ai este de nădejde. „Ca în orice tehnologie, este încă în proces de a fi inventat. Deci nu cred că vom renunța dacă eșuăm”. Dar va putea AI vreodată să funcționeze autonom fără supraveghere umană? Neclar. „Nu există niciun om mic într-o cutie de tip snuff care să filtreze fiecare lovitură”, spune el. „Trebuie să obțineți date de pretutindeni pentru a instrui algoritmul pe acesta.”

Pe de altă parte, Zeiler consideră că într-o bună zi, inteligența artificială va modera totul de la sine. În final, numărul de intervenții umane va fi redus la zero sau la eforturi reduse. Treptat, eforturile umane se vor transforma în ceva ce AI nu poate face acum, cum ar fi raționamentul la nivel înalt, conștientizarea de sine - tot ceea ce au oamenii.

Recunoașterea pornografiei face parte din asta. Identificarea este o sarcină relativ banală pentru oameni, dar este mult mai dificil să instruiți un algoritm pentru a recunoaște nuanțele. Determinarea pragului atunci când un filtru marchează o imagine ca pornografică sau non-pornografică este, de asemenea, o sarcină dificilă, parțial matematică.

Inteligența artificială este o oglindă imperfectă a modului în care vedem lumea, la fel cum pornografia este o reflectare a ceea ce se întâmplă între oameni atunci când sunt singuri. Există un adevăr în el, dar nu există o imagine completă.

Ilya Khel

Recomandat: