„Trebuie Să Ne Gândim Acum Cum Să Asigurăm Inteligența Artificială” - Vedere Alternativă

„Trebuie Să Ne Gândim Acum Cum Să Asigurăm Inteligența Artificială” - Vedere Alternativă
„Trebuie Să Ne Gândim Acum Cum Să Asigurăm Inteligența Artificială” - Vedere Alternativă

Video: „Trebuie Să Ne Gândim Acum Cum Să Asigurăm Inteligența Artificială” - Vedere Alternativă

Video: „Trebuie Să Ne Gândim Acum Cum Să Asigurăm Inteligența Artificială” - Vedere Alternativă
Video: Inteligența Artificială și Blockchain-ul 2024, Septembrie
Anonim

Stephen Hawking continuă „cruciada” împotriva inteligenței artificiale (AI).

În timpul campaniei foarte așteptate Ask Me Everything on Reddit, el a scris că munca pentru dezvoltarea unui protocol de securitate AI ar trebui să fie făcută acum, nu în viitorul îndepărtat.

„Scopul nostru nu trebuie să fie crearea inteligenței artificiale abstracte, ci crearea inteligenței utile”, a scris celebrul fizician. AI avansată”.

Hawking folosește faima pentru a sprijini mișcarea de siguranță a AI din 2014, când a scris co-editorial cu alți cercetători avertizând despre amenințarea existențială pe care mașinile avansate o reprezintă pentru umanitate.

Alte personalități tehnologice notabile, Elon Musk și Steve Wozniak, s-au alăturat Hawking. Mai devreme, toate cele trei au semnat o scrisoare deschisă prin care se solicita interzicerea armelor autonome sau a roboților de luptă.

Așteptările ca umanitatea să creeze curând inteligență artificială există încă din anii 50 și nu s-au justificat încă. Cu toate acestea, majoritatea oamenilor de știință AI consideră că în acest secol vor apărea mașini care sunt egale în inteligență cu oamenii.

Image
Image

Foto: ANDREW COWIE / AFP

Video promotional:

Hawking avertizează că portretul inteligenței artificiale din filmele de science-fiction denaturează pericolul real al mașinilor. Filme precum The Terminator prezintă roboți ucigași demonici care încearcă să distrugă umanitatea din motive pe care adevărata inteligență artificială nu le avea. Acestea facilitează, de asemenea, atenuarea riscului potențial de AI (cum ar fi construirea de cyborguri).

„Adevarata amenintare din partea AI nu este ca este rea, ci ca este foarte capabila. Superinteligența artificială este foarte bună în îndeplinirea sarcinilor sale.

Dacă sarcinile sale nu vor coincide cu ale noastre, vom avea probleme, - scria Hawking - cu greu urăști furnicile, dar dacă sunteți responsabil de un proiect de energie verde, iar zona în care se află furnica trebuie inundată, furnicile nu au noroc. Să nu permitem umanității să se regăsească în poziția acestor furnici.

Nick Bostrom, filozof AI, fantasizează despre scenariile de sfârșit de lume atunci când un program începe să funcționeze într-o direcție greșită. De exemplu, inteligenței artificiale i se oferă sarcina de a dezvolta un plan de protecție a mediului, iar pentru a rezolva problema ecologiei, decide să distrugă umanitatea.

Elon Musk a angajat deja 10 milioane de dolari pentru cercetarea securității AI pentru a preveni apariția inteligenței artificiale distructive precum Skynet în Terminator. Dar Hawking vrea ca oamenii să-și schimbe percepția generală asupra AI.

„Vă rugăm să spuneți studenților dvs. să se gândească nu numai la modul de creare a AI, ci și la cum să vă asigurați că este utilizat în scopuri utile", a spus Hawking unui instructor care prelege inteligența artificială. "Apariția unei AI care transcende oamenii vor deveni fie cel mai bun sau cel mai rău eveniment din istoria umană. Prin urmare, este important ca totul să meargă așa cum trebuie."

Recomandat: