Сколько процессоров в видеокарте
Обновлено: 21.11.2024
Центральные процессоры (ЦП) и графические процессоры (ГП) – это основные вычислительные механизмы. Но по мере развития вычислительных потребностей не всегда ясно, в чем разница между ЦП и ГП и какие рабочие нагрузки лучше всего подходят для каждого из них.
Знайте, когда следует полагаться на процессор, а когда выбирать графический процессор
ЦП и ГП обладают уникальными преимуществами, которые позволят им играть важную роль в удовлетворении вычислительных потребностей будущего.
Графические процессоры являются важной частью продуктов Intel сегодня в виде интегрированных и дискретных графических процессоров.
Несмотря на то, что центральные процессоры по-прежнему имеют решающее значение, графические процессоры могут быть полезны для растущего числа рабочих нагрузок центров обработки данных.
Будь то приложения для глубокого обучения, массовый параллелизм, интенсивные 3D-игры или другая ресурсоемкая рабочая нагрузка, сегодня от систем требуется больше, чем когда-либо прежде. Центральный процессор (CPU) и графический процессор (GPU) играют очень разные роли. Для чего используются процессоры? Для чего используются графические процессоры? При покупке нового компьютера и сравнении характеристик важно знать, какую роль играет каждый из них.
Что такое процессор?
ЦП, состоящий из миллионов транзисторов, может иметь несколько вычислительных ядер и обычно называется мозгом компьютера. Это необходимо для всех современных вычислительных систем, поскольку оно выполняет команды и процессы, необходимые для вашего компьютера и операционной системы. ЦП также важен для определения скорости работы программ, от просмотра веб-страниц до создания электронных таблиц.
Что такое графический процессор?
Графический процессор — это процессор, состоящий из множества более мелких и специализированных ядер. Работая вместе, ядра обеспечивают высокую производительность, когда задача обработки может быть разделена и обработана несколькими ядрами.
В чем разница между процессором и графическим процессором?
ЦП и ГП имеют много общего. Оба являются критически важными вычислительными двигателями. Оба являются кремниевыми микропроцессорами. И оба обрабатывают данные. Но процессоры и графические процессоры имеют разную архитектуру и предназначены для разных целей.
ЦП подходит для самых разных рабочих нагрузок, особенно для тех, для которых важна задержка или производительность каждого ядра. Мощный исполнительный механизм ЦП фокусирует свое меньшее количество ядер на отдельных задачах и на быстром выполнении задач. Благодаря этому он идеально подходит для различных задач, от последовательных вычислений до работы с базами данных.
GPU начинались как специализированные ASIC, разработанные для ускорения определенных задач 3D-рендеринга. Со временем эти механизмы с фиксированными функциями стали более программируемыми и гибкими. В то время как графика и все более реалистичные визуальные эффекты современных популярных игр остаются их основной функцией, графические процессоры также эволюционировали, чтобы стать более универсальными параллельными процессорами, поддерживающими растущий спектр приложений.
Что такое встроенная графика?
Встроенная или общая графика построена на том же чипе, что и ЦП. Некоторые процессоры могут поставляться со встроенным графическим процессором, а не полагаться на выделенную или дискретную графику. Также иногда называемые IGP или интегрированными графическими процессорами, они делят память с ЦП.
Встроенные графические процессоры обладают рядом преимуществ. Их интеграция с центральными процессорами позволяет им обеспечивать преимущества в пространстве, стоимости и энергоэффективности по сравнению с выделенными графическими процессорами. Они позволяют обрабатывать данные, связанные с графикой, и инструкции для стандартных задач, таких как просмотр веб-страниц, потоковая передача фильмов в формате 4K и казуальные игры.
Такой подход чаще всего применяется к устройствам, для которых важен компактный размер и энергоэффективность, например ноутбукам, планшетам, смартфонам и некоторым настольным компьютерам.
Ускорение глубокого обучения и искусственного интеллекта
Сегодня графические процессоры выполняют все больше рабочих нагрузок, таких как глубокое обучение и искусственный интеллект (ИИ). Для обучения глубокому обучению с несколькими слоями нейронной сети или большими наборами определенных данных, например 2D-изображений, идеально подходит графический процессор или другие ускорители.
Алгоритмы глубокого обучения были адаптированы для использования подхода с ускорением на графическом процессоре, что значительно повысило производительность и впервые довело обучение нескольких реальных задач до допустимого и жизнеспособного диапазона.
Со временем процессоры и программные библиотеки, работающие на них, эволюционировали и стали более способными выполнять задачи глубокого обучения. Например, благодаря обширной оптимизации программного обеспечения и добавлению специализированного оборудования для ИИ, такого как Intel® Deep Learning Boost (Intel® DL Boost) в новейших процессорах Intel® Xeon® Scalable, системы на базе ЦП улучшили производительность глубокого обучения.
Для многих приложений, таких как глубокое изучение языка, текста и данных временных рядов с высоким разрешением, 3D и не основанных на изображениях, процессоры блестят. ЦП могут поддерживать гораздо больший объем памяти, чем даже самые лучшие сегодняшние графические процессоры, для сложных моделей или приложений глубокого обучения (например, для обнаружения 2D-изображений).
Сочетание процессора и графического процессора, а также достаточного объема оперативной памяти обеспечивает отличный испытательный стенд для глубокого обучения и искусственного интеллекта.
Десятилетия лидерства в разработке ЦП
Intel имеет долгую историю инноваций в области ЦП, начавшуюся в 1971 году с выпуска 4004, первого коммерческого микропроцессора, полностью интегрированного в один чип.
Сегодня процессоры Intel® позволяют создавать нужный ИИ там, где вы хотите, на знакомой вам архитектуре x86. От высокопроизводительных процессоров Intel® Xeon® Scalable для центров обработки данных и облачных сред до энергоэффективных процессоров Intel® Core™ для периферийных устройств — Intel предлагает ЦП, отвечающий любым требованиям.
Интеллектуальная производительность процессоров Intel® Core™ 11-го поколения
Процессоры Intel® Core™ 11-го поколения используют усовершенствованный технологический процесс Intel и обновленную архитектуру ядра, полностью новую графическую архитектуру и встроенные инструкции искусственного интеллекта для интеллектуальной оптимизации производительность и впечатления.
Системы на базе процессоров Intel® Core™ 11-го поколения оснащены новейшей встроенной графикой Intel® Iris® X e. Отдельные устройства форм-фактора, такие как ультратонкие ноутбуки, также будут включать в себя первый дискретный графический процессор (GPU) на базе архитектуры Intel X e. С дискретной графикой Intel® Iris® X e MAX вы получаете огромный скачок вперед среди тонких и легких ноутбуков, а также более высокую производительность и новые возможности для улучшенного создания контента и игр.
Графика Intel® Iris® X e оснащена искусственным интеллектом на базе технологии Intel® Deep Learning Boost для лучшего создания контента и редактирования фото и видео, а также архитектурой с низким энергопотреблением для увеличения времени работы от батареи, что позволяет проектировать и выполнять несколько задач одновременно.
р>Дискретные графические процессоры Intel
Intel предлагает два варианта дискретных графических процессоров на основе архитектуры Intel X e.
Intel® Iris® X e MAX Graphics — это первый дискретный графический процессор для тонких и легких ноутбуков на базе архитектуры Intel X e. Благодаря оптимизации для работы с процессорами Intel® Core™ 11-го поколения вы получаете еще большую производительность и новые возможности для улучшенного создания контента и игр.
Серверный графический процессор Intel® — это дискретный графический процессор для центров обработки данных, основанный на новой архитектуре Intel X e. Серверный графический процессор Intel®, предназначенный для экспоненциального масштабирования, выводит игры для Android, транскодирование/кодирование мультимедиа и потоковую передачу видео по технологии Over Top (OTT) на новый уровень.
Сегодня это уже не вопрос ЦП и ГП. Вам больше, чем когда-либо, нужны и то, и другое для удовлетворения разнообразных вычислительных потребностей. Наилучшие результаты достигаются, когда для работы используется правильный инструмент.
Нам говорят, что средний GPU имеет тысячи ALU и сотни процессоров. Меня смущает часть «сотни процессоров». Почему их так много? Разве это не должно быть только одно. GPU означает блок графического процессора. Разве GPU не похож на CPU, один процессор с тысячами ALU внутри, НО полностью специализированный для определенных задач? Как эти «процессоры» вступают в игру?
Если я ошибаюсь, то я предполагаю, что каждый процессор имеет около 10 (потому что 10 * сотни процессоров = 1000 ALU) ALU внутри него? Есть ли макет, который я могу увидеть, чтобы проверить это?
5 ответов 5
Современный графический процессор — это очень сложное устройство, в котором могут быть тысячи вычислительных ядер. Например, Nvidia GTX 970 имеет 1664 ядра. Эти ядра сгруппированы в пакеты, которые работают вместе.
Для карты Nvidia ядра сгруппированы в пакеты по 16 или 32 в зависимости от базовой архитектуры (Kepler или Fermi), и каждое ядро в этом пакете будет выполнять одну и ту же задачу.
Различие между пакетом и ядром очень важно, потому что, хотя каждое ядро в пакете должно выполнять одну и ту же задачу, его набор данных может быть отдельным.
Ваш центральный процессор большой и имеет всего несколько ядер, потому что это очень универсальный процессор, способный принимать крупномасштабные решения и управлять потоком. Видеокарта отказывается от большого количества логики управления и переключения в пользу возможности параллельного выполнения огромного количества задач.
Если вы настаиваете на изображении, чтобы доказать это, то на изображении ниже (из обзора GTX 660Ti Direct CU II TOP) показаны 5 зеленых областей, которые в значительной степени похожи и содержат несколько сотен ядер, каждая из которых разделена на 1344 активных ядра. через то, что мне кажется 15 функциональными блоками:
При внимательном рассмотрении каждый блок может иметь 4 набора управляющей логики сбоку, что позволяет предположить, что каждый из 15 больших блоков, которые вы видите, имеет 4 модуля SMX.
Это дает нам 15*4 блоков обработки (60) с 32 ядрами в каждом, что в сумме дает 1920 ядер. Некоторые из них будут отключены либо из-за неисправности, либо просто для облегчения их разделения на разные группы производительности. Это даст нам правильное количество активных ядер.
@Pacerier, вам не хватает математики. 32 ядра — это на единицу SMX. Полностью заполненная верхняя часть этой серии будет иметь 60 блоков SMX, что в сумме даст 1920 ядер, доступных для параллельного выполнения одной и той же задачи.
ЦП — это SISD, а GPU — SIMD.
SISD — это аббревиатура от Single Instruction, Single Data. Процессоры хороши в выполнении последовательных операций: взять это, сделать то, переместить туда, взять еще одно, сложить их вместе, записать на устройство, прочитать ответ и так далее. Они выполняют в основном простые операции, которые принимают одно или два значения и возвращают одно значение.
SIMD — это одна инструкция, несколько данных: одна и та же операция выполняется одновременно с несколькими наборами данных. Например, возьмите 128 значений [X1…X128], возьмите 128 значений [Y1…Y128 ], перемножьте соответствующие значения парами и верните 128 результатов. Процессору SISD пришлось бы выполнять 128 инструкций (+ чтение/запись памяти), потому что он может одновременно умножать только два числа. Процессор SIMD делает это за несколько шагов или даже за один, если в его регистр помещается всего 128 чисел.
ЦП SISD хорошо подходят для повседневных вычислений, поскольку они в основном выполняются последовательно, но есть некоторые задачи, требующие одинаковой обработки больших объемов данных, например обработка графики, рендеринг видео, взлом паролей, добыча биткойнов и т. д. Графические процессоры позволяют массовое распараллеливание вычислений при условии, что все данные должны обрабатываться одинаково.
Хорошо, это чистая теория. В реальном мире обычные ЦП предлагают некоторые SIMD-инструкции (SSE), поэтому некоторые операции с несколькими данными могут выполняться более эффективно на обычном ЦП. В то же время не все ALU в графических процессорах должны работать над одним и тем же, потому что они сгруппированы в пакеты (см. ответ Мокубая). Таким образом, процессоры — это не только SISD, а GPU — не только SIMD.
В каких случаях полезно использовать GPU для вычислений? Когда ваши вычисления действительно, действительно массово распараллеливаются. Вы должны учитывать, что запись ввода в память графического процессора требует времени, и чтение результатов тоже занимает некоторое время. Вы можете получить максимальный прирост производительности, если создадите конвейер обработки, который выполняет множество вычислений, прежде чем отключится от GPU.
Покупка новой видеокарты, но вы не уверены в этой записи в спецификации? Не беспокойтесь, мы здесь, чтобы предложить простое объяснение того, что такое ядра CUDA и почему они важны.
Ядра CUDA — это эквивалент ядер ЦП в графическом процессоре Nvidia. Они оптимизированы для одновременного выполнения большого количества вычислений, что очень важно для современной графики.
Естественно, графические настройки, на которые больше всего влияет количество ядер CUDA графического процессора, — это те, которые требуют максимальной отдачи от графического процессора, т. е. тени и освещение, среди прочего.
CUDA уже давно является одним из самых выдающихся элементов в спецификации любой видеокарты GeForce. Однако не все до конца понимают, что такое ядра CUDA и что именно они представляют для игр.
В этой статье мы хотим дать краткий и простой ответ именно на этот вопрос. Кроме того, мы кратко рассмотрим некоторые другие связанные вопросы, которые могут возникнуть у некоторых пользователей.
Показать содержание
Что такое ядра CUDA?
CUDA — это аббревиатура одной из собственных технологий Nvidia: Compute Unified Device Architecture.
Его цель? Эффективные параллельные вычисления.
Одно ядро CUDA аналогично ядру ЦП, но основное отличие состоит в том, что оно менее сложное, но реализовано в гораздо большем количестве. Обычный игровой ЦП имеет от 2 до 16 ядер, но количество ядер CUDA исчисляется сотнями, даже в самом низком из современных графических процессоров Nvidia. Между тем, у карт высокого класса теперь их тысячи.
Что делают ядра CUDA в играх?
Графический процессор во многом отличается от ЦП, но с точки зрения непрофессионала: ЦП в большей степени является администратором, отвечающим за управление компьютером в целом, в то время как ГП лучше всего подходит для выполнения тяжелой работы.
Обработка графики требует одновременного выполнения множества сложных вычислений, поэтому в графических процессорах реализовано такое огромное количество ядер CUDA. А учитывая то, что графические процессоры разработаны и оптимизированы специально для этой цели, их ядра могут быть намного меньше, чем ядра гораздо более универсального ЦП.
И как ядра CUDA влияют на производительность в игре?
По сути, любые графические настройки, требующие одновременного выполнения вычислений, значительно выиграют от большего количества ядер CUDA. Наиболее очевидными из них являются освещение и тени, но также включены физика, а также некоторые типы сглаживания и окружающего затенения.
Ядра CUDA и потоковые процессоры
В то время как у Nvidia есть ядра CUDA, у ее основного конкурента, AMD, есть потоковые процессоры.
Теперь эти две технологии, а также соответствующие архитектуры графических процессоров каждой компании явно различаются. Однако по своей сути и по функциям ядра CUDA и потоковые процессоры — это одно и то же.
Ядра CUDA лучше оптимизированы, так как аппаратное обеспечение Nvidia обычно сравнивают с AMD, но нет явных различий в производительности или качестве графики, о которых вам нужно беспокоиться, если вы разрываетесь между графическим процессором Nvidia или AMD. .
Сколько ядер CUDA вам нужно?
А вот и каверзный вопрос. Как это часто бывает с бумажными спецификациями, они просто не являются хорошим индикатором того, какую производительность вы можете ожидать от аппаратного обеспечения.
Многие другие характеристики, такие как объем видеопамяти, важнее учитывать, чем количество ядер CUDA, а также возникает вопрос оптимизации программного обеспечения.
В связи с этим лучший способ убедиться в производительности графического процессора — это взглянуть на некоторые эталонные тесты. Таким образом, вы можете точно знать, какую производительность вы можете ожидать в той или иной игре.
Чтобы получить общее представление о мощности графического процессора, рекомендуем проверить UserBenchmark. Однако, если вы хотите ознакомиться с подробным, всесторонним тестированием, есть несколько надежных сайтов, таких как GamersNexus, TrustedReviews, Tom’s Hardware, AnandTech и некоторые другие.
Последнее слово
И в этом суть. Надеюсь, это помогло пролить свет на то, что на самом деле представляют собой ядра CUDA, что они делают и насколько они важны. Прежде всего, мы надеемся, что помогли развеять любые неверные представления, которые у вас могли возникнуть по этому поводу.
Наконец, если вы подумываете о приобретении нового графического процессора сейчас, мы предлагаем ознакомиться с этой статьей, посвященной лучшим видеокартам, доступным на данный момент.
Вам это тоже может понравиться
Сэмюэл — главный редактор GamingScan. Он описывает себя как увлеченного игрока и программиста. Ему нравится помогать другим открывать для себя радость игр. Самуэль внимательно следит за последними тенденциями в игровой индустрии, чтобы посетители были в курсе событий.
Вы когда-нибудь собирались купить модную новую видеокарту и натыкались на подобный технический бред?
Ядра Cuda? Потоковые процессоры? Что это вообще такое?
Если вы потратили какое-то время на изучение спецификаций графических карт, вполне вероятно, что вы уже встречали слова «ядра CUDA» или «потоковые процессоры».
Эти два термина и технологии тесно связаны друг с другом, но не являются взаимозаменяемыми, и знание различий между ними может помочь вам принять взвешенное решение при покупке видеокарты.
В этой статье я подробно расскажу о нюансах обоих и некоторых других «основных моментов», которые вы можете найти.
Что такое ядра?
Ядра можно рассматривать как сердце любого процессора или графического процессора.
Как и человеческое сердце, ядро может делать только одну вещь за раз, но делать это очень быстро и эффективно.
Например, количество ядер в процессоре определяет его общую вычислительную мощность.
ЦП с одним ядром немного похож на человека, который может либо дышать, либо говорить, но не то и другое одновременно.
Продолжим аналогию. Когда одноядерному ЦП нужно перевести дыхание, он перестает говорить. А когда ему нужно поговорить, он перестает дышать. В отличие от многоядерных процессоров, которые могут делать все это одновременно.
Наличие нескольких ядер дает вашему компьютеру возможность выполнять особый тип многозадачности, называемый параллельной обработкой, что позволяет вашему компьютеру более эффективно использовать ваш процессор.
Одноядерный процессор быстрый, но ограниченный. Многоядерный ЦП может быть медленнее для каждой задачи, но он может выполнять много задач одновременно.
Теперь вместо процессора с несколькими ядрами представьте себе процессор с тысячами ядер, работающих параллельно для очень специфических задач, в отличие от более общих задач, с которыми сталкивается типичный процессор.
Это то, что есть у графических процессоров. И именно поэтому графические процессоры намного медленнее, чем ЦП, для последовательных вычислений общего назначения, но намного быстрее для параллельных вычислений.
Ядра графического процессора обычно называются «ядрами CUDA» или «потоковыми процессорами».
В чем разница между ядрами ЦП и ядрами графического процессора?
Между ядрами ЦП и ядрами графического процессора есть много общего, но есть и много различий.
Ядра ЦП предназначены для одновременного выполнения нескольких инструкций. Они предназначены для расчетов общего назначения и имеют широкий спектр применений.
Ядра графического процессора предназначены для одной цели: обработки графики. Они специализируются и очень эффективны в своей работе.
ЦП используют небольшое количество очень мощных ядер, тогда как графические процессоры состоят из большого количества сравнительно менее мощных ядер.
ГП отлично подходит для выполнения параллельных задач, например, для быстрого определения того, как должны выглядеть тысячи пикселей, за доли секунды.
Разница между центральными и графическими процессорами заключается в том, что каждый из них предназначен для выполнения различных типов обработки.
Что такое ядра CUDA и для чего они используются?
«CUDA» — это запатентованная технология, разработанная NVIDIA и расшифровывающаяся как Compute Unified Device Architecture.
Ядра CUDA используются для многих целей, но главное, для чего они используются, — это обеспечение эффективных параллельных вычислений.
Одно ядро CUDA аналогично ядру ЦП, но основное отличие состоит в том, что оно менее функционально, но реализовано в гораздо большем количестве. Что опять же позволяет проводить отличные параллельные вычисления.
Типичный ЦП содержит от 2 до 16 ядер, но число ядер CUDA даже в самых простых современных графических процессорах NVIDIA исчисляется сотнями.
Между тем, у высококлассных карт теперь их тысячи.
Но CUDA представляет собой не просто набор ядер, а интерфейс для доступа к этим ядрам и связи с остальной частью вашей системы.
Ядра, которые выполняют эти инструкции, называются ядрами CUDA.
Что такое потоковые процессоры и для чего они используются?
У NVIDIA есть свои ядра CUDA, но у AMD, их главного конкурента, также есть конкурирующая технология под названием «потоковые процессоры».
Теперь эти две технологии и архитектуры графических процессоров соответствующих компаний различаются.
Однако, в конце концов, они в основном одинаковы, когда речь идет об их основных функциях и целях, для которых они используются.
Ядра CUDA и потоковые процессоры
Как правило, ядра CUDA от NVIDIA известны как более стабильные и лучше оптимизированные, поскольку аппаратное обеспечение NVIDIA обычно, к сожалению, сравнивают с AMD.
Но в реальных тестах между двумя архитектурами нет заметных различий в производительности или качестве графики.
В конце концов, архитектура CUDA является проприетарной, и разработка программного обеспечения для нее — трудоемкий процесс. Понятно, что разработчики движков рендеринга, разработчиков игровых движков или разработчиков игр предпочитают разрабатывать и поддерживать более широко используемое аппаратное обеспечение графических процессоров.
Но по своей сути и ядра CUDA, и потоковые процессоры обладают одинаковыми возможностями, если поддержка программного обеспечения находится на одном уровне. Поэтому вам не нужно беспокоиться о том, что «лучше», когда речь идет о ядрах графического процессора, поскольку они оба практически одинаковы.
Как сравнивать графические процессоры
Очень сложно сравнивать графические процессоры только по их спецификациям.
NVIDIA и AMD сами определяют ядра по-разному, как и их архитектуры ядер.
Вы не можете просто использовать графический процессор NVIDIA, потому что у него на тысячу ядер CUDA больше, чем у сопоставимой карты AMD, и вы не можете просто использовать графический процессор AMD по тем же причинам.
Лучший и единственный реальный способ сравнить производительность графических процессоров — это результаты реальных тестов.
Мы составили две сравнительные таблицы для графических процессоров Nvidia и графических процессоров AMD, чтобы упростить вам этот процесс.
Что такое тензорные ядра NVIDIA?
Тензорные ядра, впервые представленные в архитектуре NVIDIA Volta, представляют собой тип ядра, предназначенный для того, чтобы сделать искусственный интеллект и глубокое обучение более доступными и мощными.
С момента появления графических процессоров CUDA архитектура разрабатывалась с одной важной целью: упростить создание параллельных высокоэффективных программ. И за последнее десятилетие они отлично с этим справились.
Но благодаря успеху и инновациям, связанным с глубоким обучением, технологией на основе искусственного интеллекта, которая использует нейронные сети для обучения выполнению задач без явного программирования, NVIDIA пришлось внести некоторые серьезные изменения, чтобы лучше поддерживать эти передовые технологии. технологии.
Новая архитектура NVIDIA, Ampere, привнесла еще более серьезные изменения благодаря тензорным ядрам 3-го поколения, которые значительно упростят и ускорят обучение моделей глубокого обучения.
Графический процессор GA100, источник изображения: Nvidia
Эти ядра разработаны с учетом глубокого обучения, и они намного эффективнее старых тензорных ядер, которые использовались в архитектурах Volta и Turing до появления Ampere.
Тензорные ядра предназначены для выполнения операций умножения матриц и свертки, которые являются основой алгоритмов глубокого обучения.
Тензорные ядра NVIDIA 3-го поколения могут работать в 20 раз быстрее, чем старые ядра.
Это высокая скорость, и есть надежда, что она поможет значительно повысить производительность алгоритмов глубокого обучения.
Одной из технологий, в которой на самом деле используется глубокое обучение нейронных сетей, является собственная технология NVIDIA DLSS, и ее может использовать среднестатистический Джо или Джилл сейчас!
Это технология, которая использует глубокое обучение и искусственный интеллект для улучшения графики и производительности игр (в настоящее время) без ущерба для визуального качества.
Изображение предоставлено: Wolfenstein: Youngblood — NVIDIA
DLSS расшифровывается как Deep Learning Super-Sampling.
Когда DLSS включен в поддерживаемых играх, он использует глубокую нейронную сеть для анализа и улучшения стандартных методов улучшения изображения, используемых традиционным сглаживанием.
Улучшенные изображения, созданные с помощью DLSS, обычно сопоставимы с изображениями 4K, но визуализируются со значительно более низким разрешением. Значительно улучшена производительность.
Изображение предоставлено: MechWarrior 5 — NVIDIA
DLSS работает на видеокартах, начиная с графических процессоров с архитектурой Turing, но в прайм-тайм она вошла в поколение Ampere.
Поскольку DLSS – это новая технология, она доступна не во всех играх и не всегда работает в любой ситуации.
Но NVIDIA постоянно работает с разработчиками над улучшением производительности.
Что такое ядра NVIDIA RT?
Эти ядра предназначены для обработки видео и аудио в реальном времени одновременно с глубоким обучением.
Эти ядра помогают при трассировке лучей — методе рендеринга, целью которого является имитация того, как свет отражается и преломляется при прохождении через различные материалы.
Трассировка лучей уже много лет используется в профессиональной 3D-рендеринге, но только недавно она стала применяться для рендеринга в реальном времени. Ядра NVIDIA RT — важная часть этой разработки.
Трассировка лучей на графических процессорах RTX, источник изображения: Nvidia
Ядра NVIDIA RT предназначены для ускорения вычислений трассировки лучей и специально разработаны для этих задач.
Их можно использовать для ускорения рендеринга игр и другой 3D-графики на много порядков.
Ядра RT второго поколения, представленные в архитектуре Ampere, также намного эффективнее и мощнее, чем старые ядра.
Повышение производительности поколений — Nvidia
Новая архитектура NVIDIA — это огромный шаг вперед в мире глубокого обучения и мультимедиа с искусственным интеллектом.
Новые тензорные ядра и ядра RT позволяют создавать действительно потрясающие приложения. Кто знает, что ждет эти новые технологии в будущем?
Возможно, рендеринг в реальном времени с полной трассировкой пути появится в ближайшем будущем, если мы продолжим внедрять инновации такими же темпами.
Что такое ускорители AMD Ray?
Ускорители AMD Ray – это ответ AMD на ядра NVIDIA RT.
AMD присоединилась к соревнованию по трассировке лучей со своей серией RX 6000, а также представила несколько важных функций в архитектурном дизайне RDNA 2, которые помогают конкурировать с ядрами NVIDIA RT.
Предполагается, что эти «ускорители лучей» повысят эффективность стандартных вычислительных блоков графического процессора в вычислительных рабочих нагрузках, связанных с трассировкой лучей.
Однако механизм функционирования Ray Accelerators все еще относительно неясен и все еще находится в зачаточном состоянии, поскольку AMD несколько медленно адаптировалась к революции трассировки лучей в реальном времени.
На данный момент ускорители AMD Ray не совсем соответствуют по производительности относительно более зрелым ядрам RT от NVIDIA.
Кроме того, у AMD нет достойного конкурента технологии NVIDIA DLSS. Однако над аналогичным решением находится активная работа.
Поэтому есть определенный шанс, что ситуация может измениться с новой архитектурой AMD RDNA 3.
Вкратце
Надеюсь, это прояснило для вас ситуацию.
Однако, если вы все еще чувствуете себя потерянным, вот основные моменты, которые вы должны извлечь из этого.
Потоковые процессоры и ядра CUDA — это фирменные наименования одного и того же: параллельного процессора и набора правил для его работы.
На практике они принципиально различаются, поскольку AMD и NVIDIA используют свою собственную уникальную архитектуру.
Но в реальной жизни между ними нет большой разницы в производительности.
Попытка прямого сравнения потоковых процессоров и ядер CUDA друг с другом подобна попытке измерить пробег вашего автомобиля, глядя на размер вашего топливного бака.
Гораздо разумнее просто прокатиться на машине.
Просмотр достоверных данных всегда будет гораздо полезнее, чем сравнение ядер CUDA и потоковых процессоров или любой другой спецификации по отдельности.
- Сколько ядер мне нужно в графическом процессоре?
- Чем больше, тем лучше. У вас не может быть достаточно ядер на GPU. Но большее количество ядер сопряжено с более высокими затратами, поэтому вам нужно сбалансировать это.
- Да. Довольно много. Это, конечно, не единственное, что определяет производительность графического процессора, но он играет в ней большую роль, поэтому вы можете в целом предположить, что большее количество ядер (будь то CUDA, потоковые процессоры или в противном случае) приведет к повышению производительности.
- Моделирование? На самом деле не так много. Моделирование обычно является деятельностью, связанной с процессором. Если вы сталкиваетесь с замедлением работы при моделировании, обычно это происходит из-за нехватки оперативной памяти или из-за того, что ваш процессор не справляется со всеми этими полигонами.
- Они очень похожи по своим функциям и производительности.
- Единственное преимущество CUDA перед потоковыми процессорами заключается в том, что общеизвестно, что она лучше поддерживает программное обеспечение.
- Но в целом между ними нет большой разницы.
- Нет. Ядра CUDA — это запатентованная технология, разработанная NVIDIA, которая доступна только в графических процессорах NVIDIA.
Мы надеемся, что это объясняет, что представляют собой все эти ядра графических процессоров! Есть еще вопросы по ним? Сообщите нам об этом в комментариях или на нашем форуме!
Читайте также: