Андрей Смирнов
Время чтения: ~20 мин.
Просмотров: 4

Gpu — что это означает?

Если кратко

Тип Что ускоряетКомментарий
CPUВ основном выполнение Обычно худшие по скорости и энергоэффективности, но вполне пригодны для выполнения небольших по размеру нейросетей
GPUВыполнение+
обучение
Наиболее универсальное решение, но довольно дорогое, как по стоимости вычислений, так и по энергоэффективности
FPGAВыполнениеОтносительно универсальное решение для исполнения сетей, в некоторых случаях позволяет кардинально ускорить выполнение
ASICВыполнениеНаиболее дешевый, быстрый и энергоэффективный вариант исполнения сети, но нужны большие тиражи
TPUВыполнение+
обучение
Первые версии использовались для ускорения выполнения, сейчас используются для весьма эффективного ускорения выполнения и обучения
IPU, DPU… NNPВ основном обучениеМного маркетинговых букв, которые благополучно забудут в ближайшие годы. Основной плюс этого зоопарка — проверка разных направлений ускорения DNN
Analog DNN / RPUВыполнение+
обучение
Потенциально аналоговые ускорители могут произвести революцию в скорости и энергоэффективности выполнения и обучения нейросетей

История

В конце 1980-х возникновение графических операционных систем семейства Windows дает толчок для появления процессоров нового типа. В начале 1990-х годов обрели популярность ускорители двумерной графики. Эти ускорители были спроектированы для операций с растровыми изображениями, тем самым, делая работу с графической операционной системой более комфортной. В те былые времена, когда видеоадаптеры, специализировались в основном на ускорении вывода 2D-графики. В то время считалось, что обработка трехмерных данных просто не целесообразна. Отметим, что данной тенденции не придерживалась компания Silicon Graphics, которая старалась вывести трехмерную графику на различные рынки, в том числе приложения для военных, правительства, эффекты в кино, визуализация научных данных. Результатом её трудов стало открытие данной компанией программного интерфейса к своему оборудованию. В 1992 году компания выпустила библиотеку OpenGL.

Сам термин GPU впервые был использован в августе 1999 года в отношении главного чипа видеокарты модели nVidia GeForce 256, основная функция которого заключалась в ускорении вывода трехмерной графики. Впервые вычисление геометрических преобразований и освещения сцены стало возможно проводить на самом графическом процессоре. Дальнейший прорыв принадлежит также компании NVIDIA, которая выпустила серия GeForce 3 в 2001 году. В данной серии появилась микросхема, в которой был реализован всем известный ныне, а тогда еще новый стандарт Microsoft DirectX 8.0. Данный стандарт добавил возможности программирования к GPU. Изначально фиксированный алгоритм вычисления освещенности и преобразования координат вершин был заменен на алгоритм, задаваемый пользователем. Затем появилась возможность писать программы для вычисления цвета пиксела на экране. По этой причине программы для GPU стали называть шейдерами, от английского shade — закрашивать. Первые шейдеры писались на ассемблере GPU, их длина не превосходила 20 команд, не было поддержки команд переходов, а вычисления производились в формате с фиксированной точкой. По мере роста популярности использования шейдеров появлялись высокоуровневые шейдерные языки, например, Cg от NVidia и HLSL от Microsoft, увеличивалась максимальная длина шейдера. В 2003 году на GPU впервые появилась поддержка вычислений с 32-разрядной точностью. В качестве основного интерфейса программирования выделился Direct3D, первым обеспечивший поддержку шейдеров. Обозначились основные производители дискретных графических процессоров: компании ATI и NVidia. Появились первые приложения, использующие GPU для высокопроизводительных вычислений, начало складываться направление GPGPU. GPGPU (General-Purpose computing on Graphic Processing Units) — использование графических процессоров для решения произвольных вычислительных задач. Для программирования GPU предложен подход потокового программирования. Этот подход предполагает разбиение программы на относительно небольшие этапы (ядра), которые обрабатывают элементы потоков данных. Ядра отображаются на шейдеры, а потоки данных — на текстуры в GPU.

Что такое GPU в компьютере?

Главный чип на материнской плате – это центральный процессор (CPU – Central Processor Unit). Центральный, потому что управляет всеми остальными подсистемами, с помощью системы шин и чипсета.

Подсистема, которая управляет визуализацией и выводом информации на экран называется видеосистемой. Она интегрируется в материнскую плату через слот в виде видеокарты. Видеокарта – инженерное решение и представляет собой плату с собственным процессором (тем самым GPU) и оперативной памятью.

GPU NVidia Nv45 на видеокарте

Процессор на видеокарте называют GPU (Graphic Processor Unit), чтобы подчеркнуть:

  1. Что это процессор.
  2. Что он не центральный, то есть подчиненный для CPU.
  3. Что он ориентирован на обработку специальных данных – графики.

Расположение GPU на материнской плате

Поскольку обработка графики – это специализация в обработке данных, GPU – это специализированный CPU. Логически специализация выражается отделением GPU от CPU, физически – тем, что GPU устроен иначе.

CPU содержит десятки ядер, GPU — тысячи

Такая физическая реализация GPU обоснована необходимостью обрабатывать тысячи параллельных задач, связанных с отрисовкой. Центральный процессор ориентирован на обработку данных – долгие и последовательные задачи.

Современный ЦП (CPU) может включать в себя графический процессор.

Четрыехядерный процессор с дополнительным графическим ядром GPU

Такое решение позволяет компьютеру обойтись без видеокарты за счет встроенного в центральный процессор GPU. Это снижает потребляемую энергию от 30 до 180%. Стоимость процессора при этом возрастает не более чем на 20%.

Главный минус такой реализации – низкая производительность. Такое решение подходит для офисных компьютеров, где работают с документами и базами данных, но современную компьютерную игру на нем не запустишь, Фотошоп будет притормаживать, а Автокад может зависнуть намертво.

Как узнать GPU в компьютере

Для пользователя GPU прочно ассоциируется с видеокартой, хотя это только процессор. Знать, какой графический адаптер установлен в компьютере полезно в трех случаях:

  • при установке или обновлении драйверов;
  • при оценке компьютера на соответствие системным требованиям программного обеспечения;
  • чтобы хвастаться перед друзьями.

Ели на компьютере установлены все драйвера, то самый быстры способ – посмотреть в диспетчере устройств, в разделе видеоадаптеры:

Просмотр GPU в диспетчере устройств

Если драйвера не установлены диспетчер устройств покажет только надпись о неизвестных устройствах:

GPU в диспетчере устройств в случае отсутствия драйверов

В этом случае скачайте утилиту CPU-Z, запустите и перейдите на вкладку «Графика» (Graphics в англ. версии):

Просмотр GPU в программе CPU-Z

Что такое центральный процессор (CPU)

Процессор можно считать мозгом вашего ПК. Он обрабатывает все задачи и расчеты, выполняемые другим оборудованием, что делает его важным звеном производительности вашего устройства. Большинство современных процессоров ПК используют несколько ядер для обработки нескольких задач одновременно, а общая производительность измеряется в гигагерцах (ГГц). Например, если процессор имеет базовую тактовую частоту 2,4 ГГц, он способен обрабатывать до 2,4 миллиарда инструкций в секунду.

Когда дело доходит до производителей процессоров, вы, вероятно, услышите об Intel и Advanced Micro Devices (AMD). Оба создают продукты, которые могут запускать Windows. Теперь, когда AMD имеет Ryzen, между двумя компаниями сокращается разрыв, особенно в плане цены и производительности.

Производительность варьируется довольно широко во всех процессорах от обоих производителей, предлагая множество вариантов, если говорить о цене и энергопотреблении. Вы можете найти низкоэффективный процессор, который отлично подходит для обработки текстов, просмотра веб-страниц и автономной работы, вы также можете найти высокопроизводительный процессор, который будет абсолютно «кромсать» всё, что вы подбросите ему, но также будет высасывать энергию, как пылесос.

Съемный GPU

GPU в компьютере — что это такое и как его определить? Если ранее было представлено два вида графических процессоров в интегрированном виде, то далее можно рассмотреть вариант дискретной видеокарты. Исходя из этого можно понять, что GPU — это такое обозначение лишь процессора, одной из деталей которого является видеокарта

Однако эта деталь является самой важной. Еще на плате видеокарты расположены чипы памяти, конденсаторы, разъем или разъемы для питания, защитный кожух, радиатор и кулер

Различие интегрированной и дискретной видеокарты в том, что вторая гораздо мощнее и производительнее, чем встроенный вариант. Во-первых, имеется свой объем памяти, что напрямую влияет на скорость отрисовки объектов. Во-вторых, в ее параметры входит шина расширения, битность которой позволяет увеличить пропускную способность для передачи данных.

Такие графические адаптеры требуют дополнительного питания, чтобы просто запуститься и выдавать качественное изображение. Несмотря на всю мощь, есть и офисные варианты дискретных видеокарт, которые мало чем отличаются от интегрированных собратьев. Игровые варианты более мощные по строению и потенциалу, но потребляют гораздо больше энергии.

APU Ne İşe Yarar?

SoC’nin atası, Hızlandırılmış İşleme Birimi (APU) idi. Bu birimler, CPU ve GPU’yu bir araya getirerek hem performansı artırıyor, hem de maliyeti düşürüyor. APU’da iki birim birbirine yakın olduğundan CPU’daki yükün bir kısmı GPU ile paylaşılabiliyor. Ancak buna rağmen APU’nun ayrı bir CPU veya GPU kadar hızlı olmadığını söyleyelim. APU’lar, entegre grafik yongalarının bir adım ilerisi olarak düşünülüyor ve uygun fiyatlı bir yükseltme seçeneği olarak değerlendiriliyor.

APU’lar üretici AMD tarafından geliştirilse de, Intel’in de CPU ve GPU’yu bütünleştiren çözümleri var. Buradaki fark, AMD’nin piyasaya bir APU serisi sürerken, Intel ve diğer şirketlerinin bunları kendi ürünleriyle birleştirilmesi.

Включение HwSchMode с помощью с помощью REG-файла

Для модификации реестра с помощью REG-файла нужно создать пустой текстовый файл с любым именем, например Turn_ON_HW_accelerated_GPU_scheduling. В него нужно скопировать и внести следующий текст:

Windows Registry Editor Version 5.00



"HwSchMode"=dword:00000002

Затем сохраняют и меняют расширение этого файла на REG.

После этого запускают полученный файл (двойной клик правой кнопкой мыши) и соглашаются с добавлением сведений, содержащихся в нем, в реестр:

При успешной модификации реестра появится сообщение:

Изменения вступят в силу после перезагрузки компьютера.

При модификации реестра с помощью утилиты типа regedit, нужно запустить ее с правами администратора, перейти по пути HKEY_LOCAL_MACHINE\SYSTEM\CurrentControlSet\Control\GraphicsDrivers, найти пункт HwSchMode и включить опцию HwSchMode, изменив значение DWORD на 2 для включения (или 1 для выключения)

Скриншот редактора реестра, открытого для включения опции HwSchMode:

Отредактировать реестр и добавить опцию HwSchMode можно на любом компьютере под управлением Windows, но технология будет реально работать только в ОС, поддерживающей WDDM 2.7 при наличии соответствующих драйверов.

Проверить соответствие конкретной конфигурации компьютера на наличие поддержки WDDM 2.7 можно в программе GPU-Z версии 2.32+ на вкладке Advanced – WDDM. На компьютере с включенной поддержкой технологии планирования GPU с аппаратным ускорением GPU-Z отобразит информацию:

При отсутствии возможности включить аппаратное ускорение планировщика GPU программа GPU-Z в строке Hardware accelerated GPU scheduling отобразит сообщение «Not supported by OS»:

В старых версиях GPU-Z опиця Hardware accelerated GPU scheduling вообще отсутствует:

Драйвера с поддержкой функции аппаратного ускорения видеокарт можно установить на любую версию Windows 10, но официальная поддержка WDDM 2.7 начинается только с релиза Windows 10 20H1 (версия 2004), а также в Windows 10 Insider.

Опция HwSchMode недоступна в ОС, не поддерживающей технологию WDDM 2.7, даже после установки нужных драйверов:

Что такое GPU в компьютере

Аббревиатура GPU расшифровывается как Graphics Processing Unit, что можно перевести как устройство для обработки графики. Фактически GPU именно этим и является это отдельный модуль компьютера, который отвечает за обработку графики. В компьютере GPU может быть выполнен как отдельный кремниевый чип, который распаян на материнской или собственной отдельной плате (видеокарте), либо как часть центрального процессора или чипсета (северный мост).

Как выглядит GPU в компьютере.

Если GPU выполнен в качестве отдельного чипа, то его обычно называет графическим процессором, а если GPU является частью центрального процессора или чипсета, то часто для его обозначения используется термин интегрированная графика или встроенная графика.

В некоторых случаях под термином GPU понимают видеокарту, что не совсем верно, поскольку GPU – это именно чип (графический процессор), который занимается обработкой графики, а видеокарта — это целое устройство ответственное за обработку графики. Видеокарта состоит из графического процессора, памяти, имеет собственную плату и BIOS.

Другими словами, GPU – это графический процессор, который представляет собой кремниевый чип, на отдельной плате (видеокарте). Также под GPU может пониматься модуль, встроенный в центральный процессор (основной чип компьютера). В обоих случаях GPU занимается обработкой графики.

В современных условиях GPU часто используется не только для обработки графики, но и для решения других задач, которые могут быть обработаны с помощью графического процессора более эффективно, чем с помощью центрального процессора. Например, GPU используют для кодирования видео, машинного обучения, научных расчетов.

Какая рабочая температура gpu

Нормальная рабочая температура процессора GPU должна быть примерно 70-75 градусов. Это примерное значение, рабочая температура зависит от само видеокарты, на какие тепловые нагрузки она рассчитана, какое охлаждение на ней установлено.

Ниже вы можете увидеть таблицу с допустимой температурой видеокарт от Nvidia

ВидеокартыТемпература ПростояДопустимая ТемператураМаксимальная Температура
GeForce GTX 1080 Ti4255-8091
GeForce GTX 10804260-8494
GeForce GTX 1070418394
GeForce GTX 10603855-7594
GeForce GTX 1050 Ti3555-8097
GeForce GTX 10503555-8097
GeForce GT 10303565-8297
GeForce GTX TITAN X428391
GeForce GTX TITAN (Z,Black)418195
GeForce GTX 980 Ti428592
GeForce GTX 980428198
GeForce GTX 970447398
GeForce GTX 9603750-7898
GeForce GTX 95030-357595
GeForce GTX 780 Ti428395
GeForce GTX 780438395
GeForce GTX 7703660-7798
GeForce GTX 760368297
GeForce GTX 750 Ti3355-7095
GeForce GTX 750337695
GeForce GTX 690347798
GeForce GTX 680378098
GeForce GTX 6703655-8097
GeForce GTX 660 Ti347897
GeForce GTX 660326397
GeForce GTX 650 Ti Boost386997
GeForce GTX 650356698
GeForce GTX 64597
GeForce GT 6403475102
GeForce GT 630357598
GeForce GT 62098
GeForce GTX 590378197
GeForce GTX 580428197
GeForce GTX 570448197
GeForce GTX 560 Ti337699
GeForce GTX 560347699
GeForce GTX 550 Ti3667100
GeForce GT 5203775102
GeForce GTX 4804496105
GeForce GTX 47030-4092105
GeForce GTX 46590105
GeForce GTX 4603065-80104
GeForce GTS 45065-80100
NVIDIA TITAN Xp8094
NVIDIA TITAN X8094

Как узнать какой GPU в компьютере

Пользователи часто интересуются, какой GPU используется в их компьютере. При этом под термином GPU чаще всего понимают видеокарту. Это связано с тем, пользователи обычно имеют дело с видеокартой в целом, а не конкретно с GPU. Например, название видеокарты необходимо для установки подходящих драйверов и проверки минимальных требований компьютерных игр. В то время как название GPU пользователю практически никогда не требуется.

Существует несколько способов узнать название видеокарты. Самый простой – это посмотреть в диспетчере устройств. Для этого нужно нажать комбинацию клавиш Windows-R и выполнить команду «mmc devmgmt.msc». Также «Диспетчер устройств» можно открыть и другими способами.

В результате должно открыться окно «Диспетчера устройств». Здесь в разделе «Видеоадаптеры» будет указано название видеокарты.

Но, вариант с диспетчером устройств не самый надежный. Если вы не установили драйверы для видеокарты, то система может ее не опознать и в диспетчере устройств не будет информации о ее названии. В таком случае лучше обратиться к сторонним программам. Например, можно установить программу GPU-Z, которая покажет всю возможную информацию об установленной видеокарте. Например, в GPU-Z название видеокарты можно узнать в строке «Name» в самом верху окна программы. На скриншоте внизу показано название видеокарты, это NVIDIA GTX GeForce 950.

Также в GPU-Z можно узнать название самого GPU (графического процессора). Например, на скриншоте внизу показано, что видеокарта NVIDIA GTX GeForce 950 построена на базе графического процессора GM206.

Как пользоваться программой GPU-Z

Официально поставляется на английском языке, однако на форумах распространяется программа gpu z на русском.

Окно состоит из 4 вкладок:

  • Graphics Card – информация о технических характеристиках и поддерживаемых видеокартой технологиях, текущие рабочие показатели.
  • Sensors – сведения с 12 датчиков, установленных на графическом адаптере. Можно экспортировать в текстовый файл.
  • Advanced – здесь можно посмотреть подробные данные о таймингах и программной оболочке: поддерживаемых версиях DirectX, Vulkan, прошивке BIOS.
  • Validation – проверка валидации, обратная связь.

В настройках можно указать язык всплывающих подсказок. Рядом есть кнопка для создания скриншотов окна GPU-Z, с возможностью сохранить в файл или отправить на сервер разработчика.

1. Интерфейс программы

Утилита позволяет посмотреть более 30 блоков с информацией о графическом ускорителе с подробными пояснениями о них на русском языке. Кратко перечислим все, что показывает gpu z,  (в порядке размещения).

  1. Его название, модель, кодовое имя и номер ревизии (устройства от AMD его не имеют).
  2. Используемый при производстве технологический процесс и площадь кристалла.
  3. Дата релиза и количество транзисторов, из которых состоит видеоядро.
  4. Версия BIOS с возможностью сохранить прошивку в файл.
  5. Идентификатор производителя и модели устройства.
  6. Число блоков растровых операций и интерфейс системной шины.
  7. Число шейдерных блоков и версия DirectX.
  8. Пиксельная скорость – число отрендеренных за секунду пикселей и скорость заполнения текстур – числа обработанных за 1 с текселей.
  9. Тип, поколение видеопамяти и ширина шины между видеопроцессором и графической памятью.
  10. Объем видеопамяти и пропускная способность шины.
  11. Установленная версия драйвера и дата его выпуска.
  12. Текущие и стандартные значения скорости графического ядра и видеопамяти.
  13. Поддерживает ли устройство и активна ли технология построения многопроцессорных систем с двумя и более графическими чипами.
  14. Поддерживаемые технологии: PhysX, CUDA и прочие.

Кнопка со знаком вопроса правее открывает окно, где можно запустить тест видеокарты gpu z, позволяющий проверить скорость шины PCI. Видеокарты обладают технологиями энергосбережения, без нагрузки переходят в режим с меньшей пропускной способностью шины. Тест заставит графический ускоритель и шину работать в режиме предельной нагрузки для оценки скорости последней.

Внизу в выпадающем списке выбирается графический адаптер, о котором приложение выведет данные, если на ПК используется несколько видеокарт. В текстовый файл информация из главного окна не сохраняется и даже не копируется. Запечатлеть можно только с помощью скриншота.

2. Показатели сенсоров

Программа GPU-Z регулярно опрашивает установленные на компонентах устройства датчики. Отображает следующие сведения:

  • частота ядра и видеопамяти;
  • температура видеокарты gpu z;
  • скорость вентилятора от максимальной, %;
  • текущее число оборотов шпинделя вентилятора;
  • нагрузка на видеоадаптер;
  • используемый объем видеопамяти;
  • напряжение ядра в зависимости от нагрузки;
  • значение потребляемого тока в % от пикового;
  • температура центрального процессора;
  • расход оперативной памяти.

Для каждой переменной можно вывести текущее, минимальное, пиковое и среднее из зафиксированных значение, экспортировать в текстовый документ. Нужные показатели можно вывести в шапке окна.

3. Расширенные параметры

В выпадающем списке вкладки Advanced выводится несколько страниц информации о поддерживаемых API: OpenCL, Vulcan, каждой версии DirectX, драйверах, прошивке. Содержимое любой строчки или целого раздела копируется в буфер обмена.

Отдельно отметим параметр ASIC quality – показывает качество чипа, исходя из утечек электрического тока (большого доверия не вызывает, но кое-что о состоянии устройства говорит).

4. Настройки

В параметрах конфигурации указывается поведение приложения: запускается ли с Windows, стартует в оконном режиме или в фоне, отображать ли всплывающие подсказки и их язык, активная вкладка по умолчанию.

Во вкладке Sensors изменяется время опроса датчиков, из списка исключаются не интересующие показатели сенсоров.

NVIDIA GPU и сравнение GPU и CPU

Облачные вычисления кардинально изменили все отрасли промышленности, демократизировав дата-центры и полностью изменив принципы работы предприятий. Самые важные активы компании теперь хранятся в облаке выбранного вами провайдера. Однако, чтобы извлечь максимальную пользу из имеющихся данных, требуется подходящее высокопроизводительное вычислительное решение.

ПО NVIDIA Deep Learning создано для обеспечения максимальной производительности на самых быстрых в мире GPU и содержит оптимизированные фреймворки глубокого обучения, библиотеки, драйверы и ОС.Это унифицированное ПО работает на различных вычислительных платформах, начиная от видеокарт TITAN X и GeForce GTX 1080Ti и заканчивая системами DGX и облаком, и доступно круглосуточно.

Облачные вычисления на GPU также доступны по запросу на всех основных облачных платформах.

КАК ПРИЛОЖЕНИЯ ПОЛУЧАЮТ УСКОРЕНИЕ НА GPU

GPU обрабатывает части приложения, требующие большой вычислительной мощности, при этом остальная часть приложения выполняется на CPU. С точки зрения пользователя, приложение просто работает значительно быстрее.

Простой способ понять разницу между GPU и CPU — сравнить то, как они выполняют задачи. CPU состоит из нескольких ядер, оптимизированных для последовательной обработки данных, в то время как GPU имеет тысячи более мелких и энергоэффективных ядер, созданных для выполнения нескольких задач одновременно.

GPU состоит из тысячи ядер для эффективной обработки параллельных задач

Посмотрите видеоролик ниже, что сравнить GPU и CPU

Видео: «Разрушители легенд наглядно показывают мощь вычислений GPU против CPU» (01:34)

Более 400 приложений,—включая 9 из 10 ведущих HPC-приложений, уже получили ускорение на GPU, благодаря чему все пользователи графических процессоров могут добиться значительно повышения производительности для своих задач. Посмотрите в нашем каталоге приложений, имеет ли приложение, с которым вы работаете, GPU ускорение (PDF 1,9 MБ).

  • Использовать GPU-оптимизированные библиотеки
  • Добавить директивы или «подсказки» компилятору для автоматического распараллеливания вашего кода
  • Использовать расширения для языков программирования, которые вы уже знаете, например, C и Fortran

Узнать, как использовать GPU с моделью параллельного программирования CUDA, очень легко.

Бесплатные онлайн занятия и ресурсы для разработчиков доступны на CUDA Zone.

ЗАЙДИТЕ НА CUDA ZONE

Что такое GPU и в чём разница с CPU?

Они отличаются архитектурой. CPU является многоцелевым девайсом, который отвечает за все процессы в компьютере. Для этого ему хватает нескольких ядер, с помощью которых он последовательно обрабатывает одну задачу за другой.

В свою очередь, GPU изначально разработан как специализированное устройство, предназначенное для выполнение графического рендеринга, с высокой скоростью обрабатывающее текстуры и сложные изображения. Для таких целей его оснастили многопоточной структурой и множеством ядер, чтобы он работал с большими массивами информации единовременно, а не последовательно.

В виду этого преимущества, лидеры среди производителей видеоадаптеров выпустили модели, в которых графические процессоры могут стать усовершенствованной заменой центральным. У бренда nVidia такой девайс называется GTX 10xx, а у его главного конкурента AMD — RX.

Что означает GPU?

GPU (Графический процессор видеокарты)

GPU (графический процессор) — высокотехнологическое устройство отвечающее за обработку графики в компьютерах, ноутбуках, мобильных телефонах. Современные GPU обладают специализированной конвейерной архитектурой, благодаря чему очень эффективно обрабатывают графическую информацию в сравнении с типичным центральным процессором. Может применяться как в составе дискретной видеокарты, так и в интегрированных решениях (встроенных в северный мост либо в гибридный процессор).

Основные отличия GPU от CPU:

  1. Архитектура (максимальный упор на обработку графических текстур)
  2. Ограниченный набор исполнительных команд

Высокая скорость и мощность процессоров GPU на данное время объясняется особенностями архитектуры построения. Если современные CPU состоят из 2-6 ядер, то GPU считается многоядерной структурой, использующей сразу до сотни ядер. CPU предполагает обработку информации последовательно, а GPU рассчитан на многопотоковую  параллельную работу с массивом информации.

Процессор с GPU

В случае со встроенным в процессор чипом его сложно увидеть, получится это только при разборе самого центрального процессора. Практически во всех процессорах нового поколения имеется дополнительное ядро, которое именуется графическим. Цена процессора при этом вырастает не намного, зато избавляет от нужды в дискретной видеокарте.

Встроенные графические процессоры позволяют сэкономить на энергопотреблении на несколько десятков процентов, что положительно сказывается на теплоотдаче. Однако есть и значительные минусы, и один из них — это низкая производительность. Такая экономная графика хорошо подходит для работы с офисными программами и приложениями, не требующими больших мощностей.

CUDA и язык C:

  1. Спецификаторы функций, которые показывают, как и откуда буду выполняться функции.
  2. Спецификаторы переменных, которые служат для указания типа используемой памяти GPU.
  3. Спецификаторы запуска ядра GPU.
  4. Встроенные переменные для идентификации нитей, блоков и др. параметров при исполнении кода в ядре GPU .
  5. Дополнительные типы переменных.
  • __host__ — выполнятся на CPU, вызывается с CPU (в принципе его можно и не указывать).
  • __global__ — выполняется на GPU, вызывается с CPU.
  • __device__ — выполняется на GPU, вызывается с GPU.
  • gridSize – размерность сетки блоков (dim3), выделенную для расчетов,
  • blockSize – размер блока (dim3), выделенного для расчетов,
  • sharedMemSize – размер дополнительной памяти, выделяемой при запуске ядра,
  • cudaStream – переменная cudaStream_t, задающая поток, в котором будет произведен вызов.
  • gridDim – размерность грида, имеет тип dim3. Позволяет узнать размер гридa, выделенного при текущем вызове ядра.
  • blockDim – размерность блока, так же имеет тип dim3. Позволяет узнать размер блока, выделенного при текущем вызове ядра.
  • blockIdx – индекс текущего блока в вычислении на GPU, имеет тип uint3.
  • threadIdx – индекс текущей нити в вычислении на GPU, имеет тип uint3.
  • warpSize – размер warp’а, имеет тип int (сам еще не пробовал использовать).

Разные другие буквы

как минимум 5 из них привлекли более 100 миллионов долларовМурДин

  • Neural Processing Unit (NPU) — Нейропроцессор, иногда красиво — нейроморфный чип — вообще говоря, общее название для акселератора нейросетей, каковым называют чипы Samsung, Huawei и далее по списку…
    Здесь и далее в этом разделе будут приведены в основном слайды корпоративных презентаций в качестве примеров самоназваний технологий
    Понятно, что прямое сравнение проблематично, но вот любопытные данные, сравнивающие чипы с нейропроцессорами от Apple и Huawei, производимые упоминавшейся в начале TSMC. Видно, что соревнование идет жесткое, новое поколение показывает прирост производительности в 2-8 раз и усложнение технологических процессов:
  • Neural Network Processor (NNP) — Нейросетевой процессор.

    Так называет свое семейство чипов, например, Intel (изначально это была компания Nervana Systems, которую Intel купила в 2016 за $400+ миллионов). Впрочем, и в статьях, и в книгах название NNP тоже вполне встречается.

  • Intelligence Processing Unit (IPU) — интеллектуальный процессор — название чипов, продвигаемое компанией Graphcore (кстати, получившей уже $310 миллионов инвестиций).

    Она выпускает специальные карты для компьютеров, но заточенные на обучение нейросетей, с производительностью на обучении RNN в 180–240 раз выше, чем у NVIDIA P100.

  • Dataflow Processing Unit (DPU) — процессор обработки потока данных — название продвигается компанией WAVE Computing, получившей уже $203 миллиона инвестиций. Выпускает примерно такие же акселераторы, как и Graphcore:

    Поскольку они получили на 100 миллионов меньше, они декларируют обучение всего в 25+ раз быстрее, чем на GPU (правда обещают, что скоро будет 1000 раз). Посмотрим…

  • Vision Processing Unit (VPU) — Процессор компьютерного зрения:

    Термин используется в продуктах нескольких компаний, например, Myriad X VPU от Movidius (тоже была куплена Intel в 2016).

  • Один из конкурентов IBM (которые, напомним, используют термин RPU) — компания Mythic — двигают Analog DNN, в которых также идет хранение сети в чипе и относительно быстрое выполнение. Пока у них только обещания, правда серьезные:
Рейтинг автора
5
Материал подготовил
Максим Иванов
Наш эксперт
Написано статей
129
Ссылка на основную публикацию
Похожие публикации