Сведения о вопросе

Fhohir

12:53, 14th August, 2020

Теги

cuda   cpu   gpu   gpgpu    

Осуществимость GPU как CPU?

Просмотров: 355   Ответов: 8

Как вы думаете, каково будущее GPU как CPU инициатив, подобных CUDA? Как вы думаете, они собираются стать мейнстримом и стать следующей принятой причудой в отрасли? Apple строит новую структуру для использования GPU для выполнения CPU задач, и в проекте Nvidias CUDA было много успехов в науках. Не могли бы вы предложить, чтобы студент посвятил время этой области?



  Сведения об ответе

darknet

22:39, 27th August, 2020

Выделите время, если вы заинтересованы в научных и параллельных вычислениях. Не думайте о CUDA и о том, чтобы GPU выглядело как CPU. Это позволяет только более прямой метод программирования GPUs, чем более старые методы программирования GPGPU.

Общее назначение CPUs выводят свою способность хорошо работать над широким спектром задач из всей работы, которая пошла в предсказание ветвей, конвейеризацию, суперскейлер и т. д. Это позволяет им достигать хорошей производительности при самых разнообразных рабочих нагрузках, в то же время заставляя их работать с высокой пропускной способностью и интенсивными операциями с плавающей запятой.

GPUs изначально были созданы для того, чтобы делать что-то одно, и делать это очень, очень хорошо. Графические операции по своей сути параллельны. Вы можете вычислить цвет всех пикселей на экране одновременно, поскольку между результатами нет зависимостей данных. Кроме того, необходимые алгоритмы не должны были иметь дело с ветвями, поскольку почти любая ветвь, которая потребуется, может быть достигнута путем установки коэффициента эффективности равным нулю или единице. Таким образом, аппаратное обеспечение может быть очень простым. Не нужно беспокоиться о предсказании ветвей, и вместо того, чтобы сделать процессор суперкалера, вы можете просто добавить столько ALU-х, сколько сможете втиснуть на чип.

С помощью программируемых текстурных и вершинных шейдеров GPU получил путь к общей программируемости, но они по-прежнему ограничены аппаратным обеспечением, которое по-прежнему предназначено для высокопроизводительных операций с плавающей запятой. Некоторые дополнительные схемы, вероятно, будут добавлены для обеспечения более общего назначения вычислений, но только до определенного момента. Все, что ставит под угрозу способность a GPU делать графику, не будет сделано. В конце концов, GPU компаний все еще находятся в графическом бизнесе, а целевой рынок-это все еще геймеры и люди, которым нужна высококачественная визуализация.

Рынок GPGPU все еще является каплей в море, и в определенной степени таковым и останется. В конце концов, "it looks pretty"-это гораздо более низкий стандарт для удовлетворения, чем "100% гарантированных и воспроизводимых результатов, каждый раз."

Короче говоря, GPU-е никогда не будут выполнимы как CPU-е, они просто предназначены для различных видов рабочих нагрузок. Я ожидаю, что GPU-е получат функции, которые сделают их полезными для быстрого решения более широкого круга проблем, но они всегда будут в первую очередь графическими процессорами.

Всегда будет важно всегда сопоставлять проблему, которая у вас есть, с наиболее подходящим инструментом, который вы должны решить.


  Сведения об ответе

baggs

02:39, 24th August, 2020

В долгосрочной перспективе я думаю, что GPU перестанет существовать, поскольку процессоры общего назначения эволюционируют, чтобы взять на себя эти функции. Ларраби от Intel - это первый шаг. История показала, что ставить против x86-плохая идея.

Изучение массивно-параллельных архитектур и векторной обработки по-прежнему будет полезно.


  Сведения об ответе

ASER

07:37, 1st August, 2020

GPU никогда не заменит CPU. A CPU выполняет набор последовательных инструкций, а a GPU выполняет очень специфический тип вычислений параллельно. Эти GPU имеют большую полезность в численных вычислениях и графике; однако большинство программ никоим образом не могут использовать этот вкус вычислений.

Вскоре вы начнете видеть новые процессоры от Intel и AMD, которые включают в себя вычисления вектора с плавающей точкой GPU-esque, а также стандартные вычисления CPU.


  Сведения об ответе

davran

18:40, 3rd August, 2020

Во-первых, я не думаю, что этот вопрос действительно относится к SO.

На мой взгляд, GPU-это очень интересная альтернатива, когда вы занимаетесь векторной плавающей математикой. Однако это означает: она не станет мейнстримом. Большинство обычных (настольных) приложений выполняют очень мало вычислений с плавающей запятой.

Она уже набрала обороты в играх (физические движки) и в научных расчетах. Если вы рассматриваете любой из этих двух как "mainstream", то да, GPU станет мейнстримом.

Я бы не рассматривал эти два направления как мейнстрим, и поэтому я думаю, что GPU поднимется, чтобы быть следующей принятой причудой в мейнстрим-индустрии.

Если у вас, как у студента, есть какой-либо интерес к основанным на физике научным расчетам, вы должны полностью посвятить ему некоторое время (GPUs-это очень интересные части оборудования в любом случае).


  Сведения об ответе

lool

12:56, 23rd August, 2020

Я думаю, что это правильный путь.

Учитывая, что GPUs были использованы для создания дешевых суперкомпьютеров , это кажется естественной эволюцией вещей. С таким количеством вычислительной мощности и R&D уже сделано для вас, почему бы не использовать имеющиеся технологии?

Так что иди и сделай это. Это позволит провести некоторые интересные исследования, а также законную причину купить эту высококачественную графическую карту, чтобы вы могли играть в Crysis и Assassin's Creed на полной графической детализации ;)


  Сведения об ответе

park

21:06, 1st October, 2020

Это одна из тех вещей, для которых вы видите 1 или 2 приложения, но достаточно скоро кто-то придумает 'killer app', который выяснит, как сделать что-то более полезное с ним, на сверхбыстрых скоростях.

Пиксельные шейдеры для применения подпрограмм к большим массивам значений float, возможно, мы увидим некоторые приложения покрытия GIS или Ну, я не знаю. Если вы не уделите этому больше времени, чем я, то у вас будет такой же уровень понимания, как и у меня, то есть немного!

У меня есть ощущение, что это может быть действительно большая вещь, как Intel и S3, может быть, ему просто нужно немного подправить аппаратное обеспечение, или кто-то с лампочкой над головой.


  Сведения об ответе

PAGE

14:11, 29th August, 2020

С таким количеством неиспользованной энергии я не могу понять, как она может оставаться неиспользованной слишком долго. Вопрос, однако, в том, как GPU будет использоваться для этого. CUDA кажется хорошей догадкой на данный момент, но на горизонте появляются другие технологии, которые могут сделать его более доступным для среднего разработчика.

Apple недавно объявила OpenCL, который, как они утверждают, намного больше, чем CUDA, но довольно простой. Я не знаю, что именно из этого следует, но группа "Хронос" (ребята, работающие над стандартом OpenGL) работает над стандартом OpenCL и пытается сделать его максимально совместимым с OpenGL. Это может привести к созданию технологии, которая лучше подходит для нормальной разработки программного обеспечения.

Это интересная тема, и, кстати, я собираюсь начать свою магистерскую диссертацию на тему о том, как лучше всего сделать мощность GPU доступной для средних разработчиков (если это возможно) с CUDA в качестве основного фокуса.


  Сведения об ответе

lats

16:12, 16th August, 2020

Давным-давно было очень трудно делать вычисления с плавающей запятой (thousands/millions циклов эмуляции в инструкции на ужасно выполняющейся (по сегодняшним стандартам) CPUs, как 80386). Люди, которые нуждались в производительности с плавающей запятой, могли получить FPU (например, 80387. Старые FPU были довольно тесно интегрированы в работу CPU, но они были внешними. Позже они стали интегрированными, с 80486, имеющим встроенный FPU.

Старое время FPU является аналогом вычисления GPU. Мы уже можем получить его с AMD APUs. APU - это CPU с встроенным в него GPU.

Итак, я думаю, что фактический ответ на ваш вопрос заключается в том, что GPU не станет CPUs, вместо этого CPU будет иметь встроенный GPU.


Ответить на вопрос

Чтобы ответить на вопрос вам нужно войти в систему или зарегистрироваться