Процесорите ги победија графичките картички во работните места каде вештачка интелигенција паѓа во прв план!

Нов алгоритам им овозможуваат на процесорите да имаат подобри перформанси од графичките процесори во работните места на вештачка интелигенција.

Познато е дека единиците за графичка обработка (графички процесори) се значително подобри од повеќето процесори (процесори) кога станува збор за обука на длабоки нервни мрежи на вештачка интелигенција (ДНН). Важен фактор во ова е дека тие имаат повеќе единици за извршување или јадра. Компјутерските научници од Универзитетот Рајс тврдат дека направиле процесори 15 пати побрзи од некои од водечките графички процесори во нивниот бизнис со вештачка интелигенција со новиот алгоритам што го презентираа.

Најсложените компјутерски предизвици честопати се решаваат со хардверски пронајдоци со посебна намена што можат да решат повеќе хардвер или задачи. ДНН обуката е исто така меѓу најголемите компјутерски интензивни оптоварувања денес. Затоа, ако програмерите сакаат максимални перформанси за обука, тие користат графички процесори за овие оптоварувања. Бидејќи повеќето алгоритми се засноваат на множења на матрици, полесно е да се добијат високи перформанси со помош на компјутерски графички процесори.

Асистент професор Аншумали Шривастава, професор по компјутерски науки на Факултетот за инженерство Браун на Универзитетот Рајс, и нејзините колеги претставија алгоритам што може многу да ја забрза обуката за ДНН на современите процесори со можност за AVX512 и AVX512_BF16 За ова, научниците користат мотор базиран на C ++ OpenMP, кој комбинира интелигентни хаш-случајни алгоритми наречени SLIDE (Sub-LInear Deep Learning Engine) со скромен повеќејадрен паралелизам на процесорот и силно го оптимизира за поддршка на Intel AVX512 и AVX512-bfloat16 процесори.

Моторот користи LSH / чувствителност на чувствителност на кокалитет) за адаптивно идентификување на невроните при секое ажурирање, оптимизирање на овие барања за компјутерски перформанси. Според истражувањето, се наведува дека обуката на нервна мрежа со 200 милиони параметри во однос на времето на wallиден часовник може да биде побрза од оптимизираната имплементација на TensorFlow на графичкиот процесор NVIDIA V100, дури и без промени, според истражувањето.

За да се направи хаширањето побрзо, научниците го векторизираат и квантифицираат алгоритмот. Така, со хаширањето може подобро да се справат моторите AVX512 и AVX512_BF16. Дополнително, имплементирани се некои оптимизации на меморијата. Тимот подвлече дека тие покажале дека ако не заглават во множење на матрици, тие можат да ја искористат моќта на современите процесори и да обучуваат модели за вештачка интелигенција 4 до 15 пати побрзо од најдобриот специјален хардвер.

Нивните резултати со збирките на податоци Amazon-670K, WikiLSHTC-325K и Text8 изгледаат навистина ветувачки со оптимизираниот SLIDE мотор. Процесорот Intel Cooper Lake (CPX) може да го надмине NVIDIA Tesla V100 со околу 7,8 пати со Amazon-670K, со околу 5,2 пати со WikiLSHTC-325K и со околу 15,5 со Text8. Дури и оптимизираниот процесор Cascade Lake (CLX) може да биде 2,55–11,6 пати побрз од NVIDIA Tesla V100.

Слични вести

Leave a Reply

Your email address will not be published. Required fields are marked *