Зараз графічні процесори NVIDIA повсюдно використовують для навчання і роботи штучного інтелекту. Цей напрямок вважається новим етапом технічної революції. Однак колись навіть сама NVIDIA не припускала, що їхні GPU можна використовувати для таких завдань. Голова компанії Дженсен Хуанг на подкасті Джо Рогана розповів, що все почалося з двох відеокарт GeForce GTX 580 у режимі SLI, які використовували для навчання нейромережі у 2012 році.

Початок цьому експерименту поклали дослідники з Університету Торонто, які розробляли метод глибокого навчання для поліпшеного розпізнавання зображень у системах комп’ютерного зору. У 2011 році Алекс Крижевський, Ілля Суцкевер і Джеффрі Хінтон шукали нові ефективні способи створення інструментів під ці завдання. На той момент сучасних нейронних мереж ще не існувало. Розробники використовували окремі алгоритми для виявлення країв, кутів і текстур для розпізнавання зображень. Троє дослідників створили AlexNet — архітектуру, що складається з восьми шарів і містить близько 60 мільйонів параметрів. Вона була здатна до самостійного навчання, використовуючи комбінацію згорткових і глибоких нейронних мереж. Архітектура була настільки хороша, що одразу перевершила найкращий на той момент алгоритм розпізнавання зображень більш ніж на 70%. Це одразу привернуло увагу до технології.

Розробники AlexNet побудували свій алгоритм розпізнавання зображень на двох відеокартах GeForce GTX 580 (архітектура Fermi) з 3 ГБ відеопам’яті, які працювали в режимі SLI. Мережа була оптимізована для роботи на двох графічних процесорах, які за необхідності обмінювалися інформацією між собою. Завдяки цьому GeForce GTX 580 стала першою відеокартою, яка використовувалася для машинного навчання та ШІ. І сталося це в той момент, коли NVIDIA не інвестувала в цю галузь. У той час майже всі дослідження і розробки компанії були спрямовані на 3D-графіку і розвиток платформи CUDA, а GeForce GTX 580 була виключно ігровою відеокартою. Але виявилося, що висока ефективність GPU в паралельних обчисленнях проклала шлях до розвитку сучасних нейромереж.

Після запуску AlexNet у NVIDIA усвідомили потенціал цього напряму і почали вкладати гроші в розробки для глибокого навчання. Це призвело до появи першого сервера NVIDIA DGX у 2016 році, який був відправлений Ілону Маску. А наступного року було представлено чипи на архітектурі Volta з тензорними ядрами, які дали початок масовому впровадженню GPU в обчислення для ШІ.

Джерело:
Tom’s Hardware