Как узнать архитектуру видеокарты nvidia

Обновлено: 29.06.2024

Что означает GPU? Графический процессор — специализированный процессор, изначально предназначенный для ускорения рендеринга графики.

Графические процессоры могут обрабатывать множество фрагментов данных одновременно, что делает их полезными для машинного обучения, редактирования видео и игровых приложений.

Графические процессоры могут быть интегрированы в ЦП компьютера или предлагаться в качестве отдельного аппаратного блока.

Технологии обработки графики эволюционировали, чтобы обеспечить уникальные преимущества в мире вычислений. Новейшие графические процессоры (GPU) открывают новые возможности в играх, создании контента, машинном обучении и многом другом.

Технологии обработки графики эволюционировали, чтобы обеспечить уникальные преимущества в мире вычислений. Новейшие графические процессоры (GPU) открывают новые возможности в играх, создании контента, машинном обучении и многом другом.

Что делает графический процессор?

Графический процессор, или GPU, стал одним из наиболее важных типов вычислительной техники как для личных, так и для деловых вычислений. Разработанный для параллельной обработки, GPU используется в широком спектре приложений, включая графику и рендеринг видео. Хотя они больше всего известны своими возможностями в играх, GPU становятся все более популярными для использования в творчестве и искусственном интеллекте (ИИ).

ГП изначально разрабатывались для ускорения рендеринга 3D-графики. Со временем они стали более гибкими и программируемыми, расширив свои возможности. Это позволило программистам графики создавать более интересные визуальные эффекты и реалистичные сцены с помощью передовых методов освещения и теней. Другие разработчики также начали использовать возможности графических процессоров для значительного ускорения дополнительных рабочих нагрузок в области высокопроизводительных вычислений (HPC), глубокого обучения и т. д.

GPU и CPU: совместная работа

ГП развивался как дополнение к своему близкому родственнику ЦП (центральному процессору). В то время как процессоры продолжают обеспечивать повышение производительности за счет архитектурных инноваций, более высоких тактовых частот и добавления ядер, графические процессоры специально разработаны для ускорения рабочих нагрузок компьютерной графики. При покупке системы может быть полезно знать роль процессора и графического процессора, чтобы вы могли максимально использовать оба.

ГП и видеокарта: в чем разница?

Хотя термины GPU и видеокарта (или видеокарта) часто используются взаимозаменяемо, между этими терминами есть тонкое различие. Так же, как материнская плата содержит ЦП, графическая карта относится к дополнительной плате, которая включает в себя графический процессор. Эта плата также включает в себя множество компонентов, необходимых как для обеспечения работы графического процессора, так и для подключения к остальной системе.

Графические процессоры бывают двух основных типов: интегрированные и дискретные. Интегрированный графический процессор вообще не поставляется на отдельной плате, а вместо этого встроен вместе с ЦП. Дискретный графический процессор — это отдельная микросхема, установленная на собственной печатной плате и обычно подключаемая к слоту PCI Express.

Встроенный графический процессор

Большинство графических процессоров на рынке на самом деле представляют собой интегрированную графику. Итак, что такое встроенная графика и как она работает на вашем компьютере? ЦП с полностью интегрированным графическим процессором на материнской плате позволяет создавать более тонкие и легкие системы, снижать энергопотребление и стоимость системы.

Технология Intel® Graphics, которая включает в себя графику Intel® Iris® Plus и Intel® Iris® X e, находится в авангарде интегрированных графических технологий. Благодаря Intel® Graphics пользователи могут испытать иммерсивную графику в системах, которые работают медленнее и обеспечивают длительное время автономной работы.

Дискретный графический процессор

Многие вычислительные приложения могут хорошо работать со встроенными графическими процессорами. Однако для более ресурсоемких приложений с высокими требованиями к производительности дискретный графический процессор (иногда называемый выделенной графической картой) лучше подходит для работы.

Эти графические процессоры увеличивают вычислительную мощность за счет дополнительного энергопотребления и выделения тепла. Для максимальной производительности дискретных графических процессоров обычно требуется специальное охлаждение.

Сегодняшние графические процессоры более программируемы, чем когда-либо прежде, что позволяет использовать широкий спектр приложений, выходящих за рамки традиционного рендеринга графики.

Для чего используются графические процессоры?

Два десятилетия назад графические процессоры использовались в основном для ускорения работы приложений с трехмерной графикой в ​​реальном времени, например игр. Однако в начале 21 века ученые-компьютерщики осознали, что у графических процессоров есть потенциал для решения некоторых из самых сложных вычислительных задач в мире.

Это осознание положило начало эре графических процессоров общего назначения. Теперь графические технологии все шире применяются для решения все более широкого круга задач. Сегодняшние графические процессоры более программируемы, чем когда-либо прежде, что дает им гибкость для ускорения широкого спектра приложений, выходящих далеко за рамки традиционного рендеринга графики.

Графические процессоры для игр

Видеоигры стали более ресурсоемкими, с гиперреалистичной графикой и огромными сложными игровыми мирами. Благодаря передовым технологиям отображения, таким как экраны 4K и высокая частота обновления, а также развитию игр виртуальной реальности требования к обработке графики быстро растут. Графические процессоры способны отображать графику как в 2D, так и в 3D. Благодаря более высокой производительности графики в игры можно играть с более высоким разрешением, более высокой частотой кадров или и тем, и другим.

Графические процессоры для редактирования видео и создания контента

В течение многих лет видеоредакторы, графические дизайнеры и другие творческие специалисты боролись с длительным рендерингом, который связывал вычислительные ресурсы и душил творческий поток. Теперь параллельная обработка, предлагаемая графическими процессорами, позволяет быстрее и проще обрабатывать видео и графику в форматах более высокого разрешения.

Что касается производительности, Intel предлагает бескомпромиссные решения как для ЦП, так и для графического процессора. Благодаря графике Intel® Iris® Xe геймеры и создатели контента теперь могут получить еще более высокую производительность и новые возможности. Графика Intel® Iris® Xe, оптимизированная для процессоров Intel® Core™ 11-го поколения и идеально подходящая для ультратонких и легких ноутбуков, интегрирована с процессором. Некоторые ноутбуки также оснащены Intel® Iris® Xe MAX, первым продуктом Intel с дискретной графикой за 20 лет.

Intel® Iris® Xe MAX был разработан для обеспечения улучшенной производительности графики и мультимедиа, а также для плавного и захватывающего игрового процесса в любом месте с разрешением 1080p. И все это на элегантном легком ноутбуке. Кроме того, сочетая процессоры Intel® Core™ 11-го поколения, дискретную графику Iris® Xe MAX и технологию Intel® Deep Link, вы можете получить 1,4-кратную производительность AI 1 и в 2 раза более высокую производительность при кодировании однопотокового видео 2 по сравнению с дискретной графикой стороннего производителя. . 3

Графический процессор для машинного обучения

Некоторые из самых интересных приложений для технологии GPU связаны с искусственным интеллектом и машинным обучением. Поскольку графические процессоры обладают огромными вычислительными возможностями, они могут обеспечить невероятное ускорение рабочих нагрузок, использующих преимущества высокопараллельной природы графических процессоров, таких как распознавание изображений. Многие из современных технологий глубокого обучения основаны на использовании графических процессоров совместно с центральными процессорами.

Вычисления на графическом процессоре – это использование графического процессора (графического процессора) в качестве сопроцессора для ускорения ЦП в научных и инженерных вычислениях общего назначения.

ГП ускоряет приложения, работающие на ЦП, разгружая часть кода, требующего больших вычислительных ресурсов и занимающего много времени. Остальная часть приложения по-прежнему работает на процессоре. С точки зрения пользователя, приложение работает быстрее, потому что оно использует вычислительную мощность графического процессора с массовым параллелизмом для повышения производительности. Это известно как "гетерогенные" или "гибридные" вычисления.

ЦП состоит из четырех-восьми ядер ЦП, а ГП — из сотен ядер меньшего размера. Вместе они обрабатывают данные в приложении. Эта массивно-параллельная архитектура обеспечивает высокую вычислительную производительность графического процессора. Существует ряд приложений с ускорением на GPU, которые обеспечивают простой доступ к высокопроизводительным вычислениям (HPC).

Сравнение ядер процессора и графического процессора

Разработчики приложений используют производительность параллельной архитектуры графического процессора, используя модель параллельного программирования, изобретенную NVIDIA, которая называется "CUDA". Все графические процессоры NVIDIA — GeForce®, Quadro® и Tesla® — поддерживают модель параллельного программирования NVIDIA® CUDA®.

Графические процессоры Tesla разработаны как ускорители вычислений или сопутствующие процессоры, оптимизированные для научных и технических вычислительных приложений. Последние графические процессоры Tesla 20-й серии основаны на последней реализации платформы CUDA, называемой «архитектурой Fermi». Fermi обладает ключевыми вычислительными функциями, такими как 500+ гигафлопс стандартной аппаратной поддержки операций с плавающей запятой двойной точности по стандарту IEEE, кэши L1 и L2, защита от ошибок памяти ECC, локальные кэши данных, управляемые пользователем, в виде общей памяти, распределенной по всему графическому процессору, объединенной доступ к памяти и многое другое.

Графические чипы начинались как графические конвейеры с фиксированными функциями. С годами эти графические чипы становились все более программируемыми, что привело к тому, что NVIDIA представила первый графический процессор. В период с 1999 по 2000 год ученые-компьютерщики вместе с исследователями в таких областях, как медицинская визуализация и электромагнетизм, начали использовать графические процессоры для ускорения ряда научных приложений. Так возникло движение под названием GPGPU, или вычисления на GPU общего назначения.

Проблема заключалась в том, что GPGPU требовало использования языков графического программирования, таких как OpenGL и Cg, для программирования графического процессора. Разработчики должны были сделать свои научные приложения похожими на графические приложения и сопоставить их с задачами, рисующими треугольники и многоугольники. Это ограничило доступ к огромной производительности графических процессоров для науки.

NVIDIA осознала потенциал предоставления этой производительности более широкому научному сообществу и вложила средства в модификацию графического процессора, чтобы сделать его полностью программируемым для научных приложений. Кроме того, добавлена ​​поддержка языков высокого уровня, таких как C, C++ и Fortran. Это привело к созданию платформы параллельных вычислений CUDA для графического процессора.

Рисунок 1: Архитектура современной видеокарты Nvidia. В Nvidia

Современное графическое оборудование предназначено для высокопараллельных числовых задач и обеспечивает значительные преимущества в плане затрат и производительности. Поставщики графического оборудования теперь предоставляют средства разработки для поддержки высокопроизводительных вычислений общего назначения. Платформа Nvidia CUDA, в частности, предлагает прямой доступ к графическому оборудованию через программу.

Контекст в исходной публикации

<р>. современный графический процессор Nvidia содержит множество мультипроцессоров, каждый из которых состоит из нескольких ядер, как показано на рис. 1. Например, графический процессор в Tesla C1060 содержит 30 мультипроцессоров и всего 240 ядер. В мультипроцессоре ядрам выделяются локальные регистры, и они имеют доступ к быстрой общей памяти. Кроме того, каждый мультипроцессор предоставляет два небольших кэша только для чтения: постоянный кэш и кэш текстур для ускорения глобального чтения устройств. Основное хранилище на карте обеспечивается памятью устройства, которая является общей для всех мультипроцессоров и имеет относительно высокую задержку. Однако эту задержку часто можно скрыть, имея большое количество потоков, готовых к выполнению. Очень важным соображением является то, что максимальная пропускная способность памяти устройства достигается при объединении доступов; это происходит, когда группы из 16 потоков обращаются к непрерывной, правильно выровненной области памяти. 2 .

Похожие публикации

Рисунок 1: Сцена содержит 58M треугольников и визуализируется на GTX 480.

Рис. 4. Dragon, PowerPlant и Lucy, визуализированные с 3 источниками света.
< /p>

В этой короткой статье мы описываем простой подход к слабому сжатию данных вершин для трассировки лучей больших треугольных моделей на графическом процессоре. Недостатком графического процессора является ограниченный объем памяти. Преимуществом графического процессора является высокая производительность вычислений. Иногда бывает трудно загрузить большие модели в GPU, и мы предлагаем для этого сжать вершины.

Таблица 1: Описание наборов данных

Рисунок 5: Перекрытие Hyperbox с другим Hyperbox B. Проблема внутри.

Рисунок 6: Перекрывающийся шаблон на границе двух сжатых гипербоксов.

Рисунок 9: Результаты алгоритма FMN после процесса сжатия

+4

Кластеризация – это метод интеллектуального анализа данных, при котором неразмеченные данные группируются путем выявления в них базовой структуры. Традиционные алгоритмы кластеризации, такие как K-means, требуют формирования количества кластеров в качестве входных данных, и это трудоемкий итеративный процесс. Поэтому необходимы новые алгоритмы адаптивной кластеризации с меньшей временной сложностью.

Таблица 1: Производительность на случайных графиках зависимостей модулей (в секундах).

Рисунок 2: Основные глобальные данные FCA (прямоугольники) и программные ядра FCA.

Таблица 2. Производительность наборов данных Software Engineering [Harman et al.

Мы документируем алгоритм параллельного нерекурсивного поиска луча GPGPU FCA, написанный на nVidia CUDA C. Мы запускаем его на тестах и ​​анализируем зависимость программных модулей. Несмотря на то, что сортировка ядра удаляет повторяющиеся вычисления, 32-битная упаковка и оптимизация структур данных и ядра графического процессора, мы пока не видим значительного ускорения. Вместо него GeForce 295 GTX и Tesla C205.

Рисунок 1. Модель потока: пример макета

Рисунок 2: Упрощенный процесс компиляции

Рисунок 3. Автоматизация процесса сопоставления и оптимизации

Рисунок 6:

Поскольку архитектуры графических процессоров становятся все более важными из-за большого количества параллельных процессоров, среда CUDA от NVIDIA все чаще используется для поддержки приложений общего назначения. Чтобы эффективно использовать мощность параллельной обработки, программистам необходимо эффективно распараллеливать и отображать свои алгоритмы. Сложность этой задачи привела.

Рис. 1

Таблица 1 Количественное сравнение архитектур GPU

Таблица 2. Значения 0, 1 и 2 для SpMV на C1060 и GTX-480
< /p>

Таблица 3 Результаты производительности SpMV при используется псевдовектор x.

Таблица 4 0 , 1 и 2 значения для SpMV с уменьшением индекса на C1060 и GTX -480

+2

В этой статье мы обсуждаем моделирование производительности и оптимизацию умножения разреженной матрицы на вектор () на графических процессорах NVIDIA с использованием CUDA. имеет очень низкое соотношение вычислений и данных, а его производительность в основном ограничена пропускной способностью памяти. Мы предлагаем оптимизацию на основе ELLPACK по двум аспектам: (1) повышение производительности для плотного вектора с помощью r.

Цитаты

<р>. Его основное отличие от ЦП заключается в том, что он облегчает выполнение ресурсоемких и параллельных вычислений. Исходя из требований рендеринга графики, он выделяет больше транзисторов для обработки данных, а не для кэширования данных и управления потоком [33]. Теория рендеринга графики включает в себя проблемы, которые могут быть выражены в виде параллельных вычислений данных. .

<р>. Более того, один мультипроцессор может выполнять несколько блоков потоков. Таким образом, новые блоки начинают выполняться в микроконтроллере, который завершил выполнение блоков предыдущего потока (рис. 2) [33, 36]. .

В этой статье исследуется возможность использования графических процессоров для вычислений с учетом эмоций в реальном времени для ускорения вычислений, занимающих много времени, используемых в таких приложениях. Предлагаемая методология использовалась для анализа энцефалографических и электродермальных данных, собранных, когда участники пассивно рассматривали эмоциональные стимулы, вызывающие воспоминания. Эффективность GPU при обработке электроэнцефалографических и электродермальных записей продемонстрирована путем сравнения времени выполнения анализа хаоса/сложности с помощью нелинейной динамики (многоканальная корреляционная размерность/D2) и алгоритмов обработки сигналов (вычисление уровня проводимости кожи/SCL) в различных популярных программах. среды. Помимо полезной роли параллельного программирования, применение специальных методов проектирования, касающихся управления памятью, может дополнительно улучшить минимизацию времени, которая приближается к коэффициенту 30 по сравнению с языком ANSI C (одноядерное последовательное выполнение). Таким образом, использование параллельных возможностей графического процессора предлагает надежное и надежное решение для определения эмоционального состояния пользователя в режиме реального времени.

 архитектура графического процессора

Следующий контент подробно познакомит вас с архитектурой графического процессора. Как правило, структура видеокарты (от большой к маленькой): кластеры процессоров (ПК) > потоковые мультипроцессоры (SM) > кэш инструкций уровня 1 и связанные ядра. Узнайте больше о структуре компонентов компьютера на веб-сайте редактора разделов MiniTool.

Быстрая навигация:

О GPU (графическом процессоре)

Согласно Википедии, карта GPU, также называемая графической картой или видеокартой, представляет собой специализированную электронную схему. Он специально разработан для быстрого манипулирования и изменения памяти для ускорения создания изображений в буфере кадров, поэтому предназначен для вывода на устройство отображения, такое как монитор компьютера или экран телевизора.

Современная архитектура графического процессора очень эффективна при работе с графикой, а также при обработке изображений. Высокопараллельная структура делает ее более эффективной, чем архитектура центрального процессора (ЦП) общего назначения для алгоритмов, обрабатывающих большие блоки данных параллельно.

В ПК графический процессор может быть встроен в карту расширения (видеокарта), предварительно установлен на материнской плате (выделенный графический процессор) или интегрирован в кристалл ЦП (встроенный графический процессор).

Архитектура графического процессора

Когда речь идет об архитектуре видеокарты, она всегда связана с архитектурой ЦП или сравнивается с ней.

Архитектура графического процессора и процессора

Функция графического процессора заключается в оптимизации пропускной способности данных. Он позволяет одновременно проталкивать через свои внутренние компоненты как можно больше задач, гораздо больше задач, чем ЦП может обрабатывать одновременно. Это все потому, что, как правило, видеокарта имеет гораздо больше ядер, чем процессор.

Тем не менее, на самом деле мы называем ядром ядро ​​CUDA (Compute Unified Device Architecture), которое состоит из полностью конвейерных целочисленных ALU (арифметико-логический блок) и FPU (блок с плавающей запятой) в графическом процессоре. В архитектуре NVIDIA GPU ALU поддерживает полную 32-битную точность для всех инструкций. Целочисленное АЛУ оптимизировано для эффективной поддержки 64-битных операций повышенной точности, а также различных инструкций, таких как логические операции, сравнение, преобразование, перемещение, сдвиг, вставка с обратным битом, извлечение битового поля и подсчет заполнения.

Как правило, архитектура графического процессора очень похожа на архитектуру центрального процессора. Оба они используют конструкции памяти уровней кэша, глобальной памяти и контроллера памяти.

Высокоуровневая архитектура графического процессора предназначена для параллельных вычислений пропускной способности и задействования доступных ядер, а не для доступа к кэш-памяти с малой задержкой, как у ЦП.

Примечание. Подробная архитектура видеокарты сильно зависит от марки и модели различных производителей; архитектура графического процессора Nvidia и архитектура графического процессора AMD отличаются.

Основы архитектуры GPU

В устройстве с графическим процессором есть несколько кластеров процессоров (ПК), которые содержат несколько потоковых мультипроцессоров (SM). Кроме того, каждый SM содержит слой кэша инструкций уровня 1 вместе со связанными с ним ядрами. Обычно один SM использует выделенный кэш уровня 1 и общий кэш уровня 2 перед извлечением данных из глобальной памяти GDDR-5. Таким образом, архитектура процессора GPU допускает задержку памяти.

GCA (графический вычислительный массив)

Обычно GCA, также известный как 3D-движок, состоит из пиксельных шейдеров, вершинных шейдеров или унифицированных шейдеров, потоковых процессоров (ядер CUDA), блоков наложения текстур (TMU), блоков вывода рендеринга (ROP), кэша L2, геометрические процессоры и т. д.

GMC (контроллер графической памяти)

GMC, также известный как контроллер микросхемы памяти (MCC) или блок контроллера памяти (MCU), представляет собой цифровую схему, которая управляет потоком данных, поступающих в графическую память компьютера или из нее. Это может быть отдельный чип; его также можно интегрировать в другой чип, например, разместить на том же кристалле или как неотъемлемую часть микропроцессора. Если GMC существует как неотъемлемая часть, он называется IMC (интегрированный контроллер памяти).

GMC управляет памятью, включая VRAM, WRAM, MDRAM, DDR, GDDR и HBM.

VGA BIOS (базовая система ввода/вывода видеографического массива)

VGA BIOS, также известный как видео BIOS, – это BIOS видеокарты компьютера. Это отдельная микросхема, расположенная на видеокарте, а не часть графического процессора.

BIF (интерфейс шины)

Шинный интерфейс (BI) – это компьютерная шина для взаимодействия небольших периферийных устройств, таких как флэш-память, с процессором. Обычно это SA, VLB, PCI, AGP и PCIe.

pci vs pcie thumbnail

В этом сообщении рассказывается о различиях между PCI и PCIe. Также показано, как их различать.

PMU (блок управления питанием)

PMU — это микроконтроллер (микрочип), который управляет функциями питания цифровых платформ. Он имеет много компонентов, аналогичных обычному компьютеру, таких как ЦП, память, прошивка, программное обеспечение и т. д. PMU — один из немногих компонентов, которые остаются активными, даже когда компьютер полностью выключен и питается от резервной батареи.

В портативном компьютере PMU координирует следующие функции:

  • Контролируйте подключение питания и заряд батареи.
  • Отключайте ненужные части системы, когда они простаивают.
  • Управление функциями сна и питания (включение или выключение).
  • Управление питанием других интегральных схем.
  • Управление интерфейсом встроенной клавиатуры или трекпадов.
  • Заряжайте аккумуляторы, когда это необходимо.
  • Настроить часы реального времени (RTC).

VPU (блок обработки видео)

VPU — это специализированный процессор, который принимает видеопотоки в качестве входных данных и может выполнять очень сложные процессы над входным потоком. Обычно он используется в приложениях и устройствах для машинного обучения и выступает в качестве вспомогательного компонента в этих устройствах.

VPU – это видеокодек, отвечающий за кодирование и декодирование видео. Поэтому его также называют видеокодером и декодером. VPU выполняют сжатие или распаковку файлов MPEG2, Theora, VP8, H.264, H.265, VP9, ​​VC-1 и т. д.

DIF (интерфейс дисплея)

Интерфейс дисплея, также называемый контроллером дисплея, определяет последовательную шину и протокол связи между хостом, источником данных изображения и целевым устройством. Он включает в себя RAMDAC, аудио HDMI, аудио DP, подложку видео (VGA, DVI, HDMI, DisplayPort, S-Video, композитное видео, компонентное видео), PHY (LVDS, TIMDS) и EDID.

миниатюра порта hdmi не работает

Сообщалось о некоторых проблемах, связанных с портом HDMI. Не беспокойтесь. Эта статья написана для вас, чтобы решить проблему с неработающим портом HDMI.

Короче говоря, архитектура графического процессора проще, чем архитектура центрального процессора. Архитектура графического процессора имеет гораздо больше ядер, чем ЦП, для обеспечения параллельной обработки данных с более высокой допустимой задержкой. Такой тип графического процессора известен как графический процессор общего назначения (GPGPU), используемый для ускорения вычислительных рабочих нагрузок в современных высокопроизводительных вычислениях (HPC).

  • Фейсбук
  • Твиттер
  • Ссылка
  • Реддит

ОБ АВТОРЕ

Должность: обозреватель

Окончил университет в 2014 году и в том же году начал работать техническим редактором. Письма связаны в основном с управлением жесткими дисками и резервным копированием и восстановлением компьютерных данных. За годы глубокого погружения в компьютерные технологии Хелен успешно помогла тысячам пользователей устранить досадные проблемы.

Лично Хелен любит поэзию, научно-фантастические фильмы, спорт и путешествия. И она считает, что вся ее жизнь – это лучшее устройство от бога.

Читайте также: