Как зайти в Даркнет?!
25th January, 01:11
5
0
Как в tkinter из поля ввода Entry получить значение в одну переменную и обновить строку кнопкой, затем получить ещё одно введённое значение и затем сложить их. Ниже пример кода
21st July, 19:00
893
0
Программа, которая создает фейковые сервера в поиске игровых серверов CS 1.6 Steam
21st March, 17:43
948
0
Очень долго работает Update запрос Oracle
27th January, 09:58
912
0
не могу запустить сервер на tomcat HTTP Status 404 – Not Found
21st January, 18:02
905
0
Где можно найти фрилансера для выполнения поступающих задач, на постоянной основе?
2nd December, 09:48
938
0
Разработка мобильной кроссплатформенной военной игры
16th July, 17:57
1724
0
период по дням
25th October, 10:44
3955
0
Пишу скрипты для BAS только на запросах
16th September, 02:42
3720
0
Некорректный скрипт для закрытия блока
14th April, 18:33
4613
0
прокидывать exception в блоках try-catch JAVA
11th March, 21:11
4381
0
Помогите пожалуйста решить задачи
24th November, 23:53
6086
0
Не понимаю почему не открывается детальное описание продукта
11th November, 11:51
4350
0
Нужно решить задачу по программированию на массивы
27th October, 18:01
4396
0
Метода Крамера С++
23rd October, 11:55
4309
0
помогите решить задачу на C++
22nd October, 17:31
4002
0
Помогите решить задачу на python с codeforces
22nd October, 11:11
4492
0
Python с нуля: полное руководство для начинающих
18th June, 13:58
2599
0
Осуществимость GPU как CPU?
Как вы думаете, каково будущее GPU как CPU инициатив, подобных CUDA? Как вы думаете, они собираются стать мейнстримом и стать следующей принятой причудой в отрасли? Apple строит новую структуру для использования GPU для выполнения CPU задач, и в проекте Nvidias CUDA было много успехов в науках. Не могли бы вы предложить, чтобы студент посвятил время этой области?
Выделите время, если вы заинтересованы в научных и параллельных вычислениях. Не думайте о CUDA и о том, чтобы GPU выглядело как CPU. Это позволяет только более прямой метод программирования GPUs, чем более старые методы программирования GPGPU.
Общее назначение CPUs выводят свою способность хорошо работать над широким спектром задач из всей работы, которая пошла в предсказание ветвей, конвейеризацию, суперскейлер и т. д. Это позволяет им достигать хорошей производительности при самых разнообразных рабочих нагрузках, в то же время заставляя их работать с высокой пропускной способностью и интенсивными операциями с плавающей запятой.
GPUs изначально были созданы для того, чтобы делать что-то одно, и делать это очень, очень хорошо. Графические операции по своей сути параллельны. Вы можете вычислить цвет всех пикселей на экране одновременно, поскольку между результатами нет зависимостей данных. Кроме того, необходимые алгоритмы не должны были иметь дело с ветвями, поскольку почти любая ветвь, которая потребуется, может быть достигнута путем установки коэффициента эффективности равным нулю или единице. Таким образом, аппаратное обеспечение может быть очень простым. Не нужно беспокоиться о предсказании ветвей, и вместо того, чтобы сделать процессор суперкалера, вы можете просто добавить столько ALU-х, сколько сможете втиснуть на чип.
С помощью программируемых текстурных и вершинных шейдеров GPU получил путь к общей программируемости, но они по-прежнему ограничены аппаратным обеспечением, которое по-прежнему предназначено для высокопроизводительных операций с плавающей запятой. Некоторые дополнительные схемы, вероятно, будут добавлены для обеспечения более общего назначения вычислений, но только до определенного момента. Все, что ставит под угрозу способность a GPU делать графику, не будет сделано. В конце концов, GPU компаний все еще находятся в графическом бизнесе, а целевой рынок-это все еще геймеры и люди, которым нужна высококачественная визуализация.
Рынок GPGPU все еще является каплей в море, и в определенной степени таковым и останется. В конце концов, "it looks pretty"-это гораздо более низкий стандарт для удовлетворения, чем "100% гарантированных и воспроизводимых результатов, каждый раз."
Короче говоря, GPU-е никогда не будут выполнимы как CPU-е, они просто предназначены для различных видов рабочих нагрузок. Я ожидаю, что GPU-е получат функции, которые сделают их полезными для быстрого решения более широкого круга проблем, но они всегда будут в первую очередь графическими процессорами.
Всегда будет важно всегда сопоставлять проблему, которая у вас есть, с наиболее подходящим инструментом, который вы должны решить.
В долгосрочной перспективе я думаю, что GPU перестанет существовать, поскольку процессоры общего назначения эволюционируют, чтобы взять на себя эти функции. Ларраби от Intel - это первый шаг. История показала, что ставить против x86-плохая идея.
Изучение массивно-параллельных архитектур и векторной обработки по-прежнему будет полезно.
GPU никогда не заменит CPU. A CPU выполняет набор последовательных инструкций, а a GPU выполняет очень специфический тип вычислений параллельно. Эти GPU имеют большую полезность в численных вычислениях и графике; однако большинство программ никоим образом не могут использовать этот вкус вычислений.
Вскоре вы начнете видеть новые процессоры от Intel и AMD, которые включают в себя вычисления вектора с плавающей точкой GPU-esque, а также стандартные вычисления CPU.
Во-первых, я не думаю, что этот вопрос действительно относится к SO.
На мой взгляд, GPU-это очень интересная альтернатива, когда вы занимаетесь векторной плавающей математикой. Однако это означает: она не станет мейнстримом. Большинство обычных (настольных) приложений выполняют очень мало вычислений с плавающей запятой.
Она уже набрала обороты в играх (физические движки) и в научных расчетах. Если вы рассматриваете любой из этих двух как "mainstream", то да, GPU станет мейнстримом.
Я бы не рассматривал эти два направления как мейнстрим, и поэтому я думаю, что GPU поднимется, чтобы быть следующей принятой причудой в мейнстрим-индустрии.
Если у вас, как у студента, есть какой-либо интерес к основанным на физике научным расчетам, вы должны полностью посвятить ему некоторое время (GPUs-это очень интересные части оборудования в любом случае).
Я думаю, что это правильный путь.
Учитывая, что GPUs были использованы для создания дешевых суперкомпьютеров , это кажется естественной эволюцией вещей. С таким количеством вычислительной мощности и R&D уже сделано для вас, почему бы не использовать имеющиеся технологии?
Так что иди и сделай это. Это позволит провести некоторые интересные исследования, а также законную причину купить эту высококачественную графическую карту, чтобы вы могли играть в Crysis и Assassin's Creed на полной графической детализации ;)
Это одна из тех вещей, для которых вы видите 1 или 2 приложения, но достаточно скоро кто-то придумает 'killer app', который выяснит, как сделать что-то более полезное с ним, на сверхбыстрых скоростях.
Пиксельные шейдеры для применения подпрограмм к большим массивам значений float, возможно, мы увидим некоторые приложения покрытия GIS или Ну, я не знаю. Если вы не уделите этому больше времени, чем я, то у вас будет такой же уровень понимания, как и у меня, то есть немного!
У меня есть ощущение, что это может быть действительно большая вещь, как Intel и S3, может быть, ему просто нужно немного подправить аппаратное обеспечение, или кто-то с лампочкой над головой.
С таким количеством неиспользованной энергии я не могу понять, как она может оставаться неиспользованной слишком долго. Вопрос, однако, в том, как GPU будет использоваться для этого. CUDA кажется хорошей догадкой на данный момент, но на горизонте появляются другие технологии, которые могут сделать его более доступным для среднего разработчика.
Apple недавно объявила OpenCL, который, как они утверждают, намного больше, чем CUDA, но довольно простой. Я не знаю, что именно из этого следует, но группа "Хронос" (ребята, работающие над стандартом OpenGL) работает над стандартом OpenCL и пытается сделать его максимально совместимым с OpenGL. Это может привести к созданию технологии, которая лучше подходит для нормальной разработки программного обеспечения.
Это интересная тема, и, кстати, я собираюсь начать свою магистерскую диссертацию на тему о том, как лучше всего сделать мощность GPU доступной для средних разработчиков (если это возможно) с CUDA в качестве основного фокуса.
Давным-давно было очень трудно делать вычисления с плавающей запятой (thousands/millions циклов эмуляции в инструкции на ужасно выполняющейся (по сегодняшним стандартам) CPUs, как 80386). Люди, которые нуждались в производительности с плавающей запятой, могли получить FPU (например, 80387. Старые FPU были довольно тесно интегрированы в работу CPU, но они были внешними. Позже они стали интегрированными, с 80486, имеющим встроенный FPU.
Старое время FPU является аналогом вычисления GPU. Мы уже можем получить его с AMD APUs. APU - это CPU с встроенным в него GPU.
Итак, я думаю, что фактический ответ на ваш вопрос заключается в том, что GPU не станет CPUs, вместо этого CPU будет иметь встроенный GPU.