Noua Tehnologie De La IBM A Făcut Posibilă Accelerarea Antrenamentului AI De 4 Ori - - Vedere Alternativă

Noua Tehnologie De La IBM A Făcut Posibilă Accelerarea Antrenamentului AI De 4 Ori - - Vedere Alternativă
Noua Tehnologie De La IBM A Făcut Posibilă Accelerarea Antrenamentului AI De 4 Ori - - Vedere Alternativă

Video: Noua Tehnologie De La IBM A Făcut Posibilă Accelerarea Antrenamentului AI De 4 Ori - - Vedere Alternativă

Video: Noua Tehnologie De La IBM A Făcut Posibilă Accelerarea Antrenamentului AI De 4 Ori - - Vedere Alternativă
Video: CELE MAI MISTERIOASE DESCOPERIRI CARE NU POT FI EXPLICATE DE SAVANTI! 2024, Mai
Anonim

Eficiența de calcul a inteligenței artificiale este ca o sabie cu două tăișuri. Pe de o parte, trebuie să învețe destul de rapid, dar cu cât rețeaua neuronală „se accelerează”, cu atât consumă mai multă energie. Aceasta înseamnă că poate deveni pur și simplu neprofitabil. Totuși, o ieșire din situație poate fi dată de IBM, care a demonstrat noi metode de predare a AI, care îi vor permite să învețe de câteva ori mai rapid, cu același nivel de costuri de resurse și energie.

Pentru a obține aceste rezultate, IBM a trebuit să abandoneze metodele de calcul utilizând tehnici pe 32 de biți și 16 biți, dezvoltând o tehnică pe 8 biți, precum și un cip nou pentru a lucra cu aceasta.

Toate evoluțiile IBM au fost prezentate la NeurIPS 2018 la Montreal. Inginerii companiei au vorbit despre două dezvoltări. Primul se numește „învățarea profundă a mașinilor din rețelele neuronale folosind numere cu virgule flotante pe 8 biți”. În aceasta, ei descriu modul în care au reușit să reducă precizia aritmetică pentru aplicațiile de la 32 de biți la 16 biți într-un astfel de mod și să o salveze pe un model pe 8 biți. Experții susțin că tehnica lor accelerează timpul de antrenament al rețelelor neuronale profunde de 2-4 ori, comparativ cu sistemele pe 16 biți. A doua dezvoltare este „multiplicarea pe 8 biți în memorie cu memoria de tranziție în fază proiectată”. Aici, experții dezvăluie o metodă care compensează precizia scăzută a cipurilor AI analogice, permițându-le să consume de 33 de ori mai puțină putere decât sistemele AI digitale comparabile.

Vladimir Kuznetsov