Что такое контроллер Intel

Обновлено: 21.11.2024

марко55

Почетный

Знаю, знаю, старая дилемма.

Поэтому я пользовался обоими, и, честно говоря, они оба мне нравятся. Я также выразил свое мнение и рекомендации в других сообщениях об обоих. Если быть до конца честным, мне трудно отдавать предпочтение одному из них, и, честно говоря, я не знаю, стоит ли мне это делать. Я создаю множество рабочих станций для определенной ниши рынка, каждая из которых имеет массив RAID-5, состоящий из 3-5 дисков по 2 ТБ (или 3 ТБ). Этот логический том используется исключительно для хранения. Никаких баз данных или приложений не установлено.

Итак, мы все знаем аргументы обеих сторон:

Чипсет
pro — стоимость, очевидно,
con — использует хост-процессор (я ни на секунду не покупаю этот, так как едва увидеть использование ЦП. )
за/против - использует ОЗУ для кэширования. Я называю это профессиональным, поскольку я буквально выполнил передачу 80-гигабайтного zip-файла с SM951 на RAID-5 из 4 жестких дисков по 2 ТБ, и он поддерживал (опять же, в буквальном смысле) скорость передачи 2 ГБ/с при записи в массив. . Сейчас. он использовал до 10 ГБ ОЗУ, хотя я поставил 64 ГБ в эти системы, что покрывает такие вещи. Это было бы невозможно с картой RAID. Я ожидаю, что этот уровень передачи упадет примерно на 500-550 МБ/с через несколько секунд.
против - вы теряете свой мобильный телефон, вы теряете свой массив. Конечно, если вы потеряете карту RAID, вы потеряете свой массив, так что.
против — RAID-массив чипсета Intel может быть «ненадежным». Я этого не видел, поэтому мне интересно услышать истории людей.

Выделенная карта — обратите внимание, что я специалист по LSI, поэтому это может быть отражено здесь
pro — разгружает ресурсы хоста (ЦП и память)
pro - производительность якобы выше, чем у чипсетного RAID. В некотором смысле я согласен, но хотел бы, чтобы все высказались по этому поводу из реальной жизни.
pro – можно перенести ваш массив на другую машину.
pro – большая гибкость конфигурации. Я согласен с этим наверняка
pro - поддерживается больше дисков (это единственное, что я могу подвести к выделению)
pro - резервные батареи
con - стоимость
con - еще больше затрат на резервные батареи (в качестве альтернативы всегда есть ИБП)
< u>con – потребляет слот PCIe и линии.
con – всего 1 ГБ кэш-памяти (если только вы не хотите подороже с Areca)

Так дайте это мне, гуру. Я начинаю чувствовать, что это одна из тех вещей, которые зависят от предпочтений каждого сборщика, когда речь идет о массивах с максимальным количеством дисков 4-5, и что нет реального «правильного» ответа. Обычно я могу найти что-то, что действительно скрепляет сделку для одной или другой стороны с подобными вещами, но у меня чертовски много времени с этим.

дртвик

Прославленный

Ну, по большей части он у вас уже есть! Кроме одного. В основном я имею дело с сервером Dell, что означает, что я имею дело с фирменными картами PERC Dell, которые на самом деле являются LSI, и, допустим, вам нравится ваша карта RAID, вы можете добавить туда другую карту LSI, и она может выбрать исходную конфигурацию, и вы получите Возвращаемся назад, как это в значительной степени. Это также должно работать с большинством карт RAID высокого класса. Я не пробовал это ни с чем, кроме карт PERC, так как у меня есть доступ только к ним.

Преимущество RAID-карты в том, что она предназначена для хранения данных. Переместить ее в новую систему не составит труда. Я использую Dell SAS HBA 5 для своих дисков. У меня есть 2 2 ТБ в RAID 0 (у меня есть резервный диск на 4 ТБ, который я резервирую, когда когда-либо много обновляю его), и у него также есть мои другие 2 ТБ, которые сами по себе. Я планирую получить лучшую карту, когда у меня будут деньги, потому что мне нужно расширить возможности хранения, а плата, которую я использую для своего сервера, представляет собой встроенную плату с двухъядерным процессором Celeron. 8 ГБ и твердотельный накопитель, и я не могу заметить разницу в повседневном использовании между этим и моим 8-ядерным процессором AMD с ОС.

Если вы собираетесь использовать ПК и у вас есть RAID 5 или 6 на нем, да, это может привести к его зависанию. RAID 0, 1, 10, 01 не имеет значения, потому что накладные расходы практически отсутствуют, как в RAID 5 и 6.

По МОЕМУ мнению, это зависит от ситуации. Это критически важные данные, которые находятся на RAID 5/6 и имеют много дисков, я говорю карту RAID. Если это просто быстрый RAID 1 или RAID 0 и т. д. для ускорения загрузки или дополнительной защиты, просто используйте встроенный.

марко55

Почетный

Спасибо за отзыв, drtweak. Итак, пока мы говорим, я тестирую это в реальных условиях, и пока вот что у меня есть:

Я только что собрал рабочую станцию ​​с 5960X и четырьмя дисками Toshiba 7200RPM SATA по 3 ТБ.

RAID-5 на чипсете Intel:
- Время инициализации: около 55 часов (ОУЧ). Последний, который я построил с 3 x 2 ТБ, занял около 40. Один до этого с 4 x 2 ТБ занял около 48. макс.
- Я думаю, что по умолчанию используется упреждающее чтение в зависимости от поведения. К сожалению, для этого (и других вещей, но мы знали об этом) нет возможности настройки

Тестирование передачи 86-гигабайтных zip-файлов (в/из 950 Pro)
 – Чтение/запись: около 550 МБ/с.
 – Объем памяти при записи, как и ожидалось, увеличился до 8 ГБ для кэширования.
- Процессор увеличил нагрузку на два ядра до 12-17% при записи. Еще пара около 2-3%, но неизвестно, было ли это для RAID

Crystal Disk Bench:
1 ГБ, QD32
Чтение: 551, запись: 412
Seq Q32T1: 6,17 (1500 IOPS), 1,777 (441 IOPS)

Тестирование перестроения.
Запущено 50 минут назад, все еще на уровне 0%.
Протестированная передача zip-файла на диск во время перестроения: запись застряла вплоть до 7 МБ/с (OUCH)

Теперь, в то же самое время, на моей домашней рабочей станции на LSI 9266-8i я установил 4 x 2 ТБ Toshiba 7200. Я знаю, что это не совсем яблоки к яблокам, поскольку они не 3 ТБ, но см. ниже.

- Время инициализации (не фоновая инициализация): около 4 часов (WIN, большой выигрыш)
- Последовательное чтение/запись, около 575 МБ/с для обоих при максимальном кэше.
- Обратите внимание, что на обоих массивах я использую полосу 64 КБ, обратная запись и дисковый кеш включены. В LSI я включил упреждающее чтение

Тестирование передачи zip-файлов объемом 86 ГБ (в/из 950 Pro)
– Чтение/запись: около 550–575 МБ/с

Crystal Disk Bench:
1 ГБ, QD32
Чтение: 590, Запись: 605
Seq Q32T1: 23 (5700 IOPS), 27 (4192 IOPS) — еще одна победа, и важная один для меня

Тестирование перестроения.
- Начато 60 минут назад, завершено уже на 25 %, осталось чуть более 2 часов (хотя это может измениться). Если бы мне пришлось угадать, это будет около 4 часов.
– Протестирована передача zip-файла на диск снова во время восстановления: устойчивая передача снизилась только до 380 МБ/с примерно на 1/2 пути, а затем снизилась до 360. Опять же, ОГРОМНАЯ победа.

Это то, что я полагал, может произойти. В нормальных условиях работы они будут работать примерно одинаково (во всяком случае, для последовательной работы). Тем не менее, вам нужно иметь немного памяти и немного процессора, если вы используете встроенную плату. При этом, если вам нужен IOPS, а это зависит от ваших приложений, вам нужен выделенный контроллер.

Так что это особенно сводится к непредвиденным обстоятельствам. Если диск выйдет из строя, как быстро вы сможете его восстановить. Я даю запасной диск со всеми своими рабочими станциями, чтобы восстановление могло начаться, как только пользователь заметит неисправный диск. Как мы знаем, в случае с RAID 5, если второй диск умирает во время перестроения, все готово, поэтому время перестроения может быть важным. Я знаю парня, у которого есть 3 x 2 ТБ 7200 в RAID-5 на чипсете Intel, и ему однажды пришлось перестроить. Это заняло более 24 часов.

У меня заказан еще один 9266-8i, и я поставлю его на эту рабочую станцию ​​для управления четырьмя дисками по 3 ТБ, и я буду выполнять те же тесты, что и выше, поэтому у меня есть яблоки к яблокам с такие же диски. Это должно быть интересно.

На данный момент я думаю, что нашел свой ответ, и большинство сборок будут выходить с выделенными картами.

дртвик

Прославленный

Отличная работа! Да, я не был уверен, какой будет производительность на них, но теперь я знаю! Назовите меня старомодным, но я просто старомодный, дайте мне карту RAID, парень. Я получаю около 200 R / W на моем RAID 0 моих 2 ТБ Reds от моего Samsung SSD. SSD находится на SATA 6 Гбит/с, а Dell RAID — на SATA 3 Гбит/с. Я доволен этим для меня. Это просто хранилище только по большей части. Иногда я транслирую свои видео на свой телефон или рабочий компьютер, но кроме этого на диски не происходит никакого реального чтения и записи.

У меня есть клиент, который занимается видеонаблюдением, и он заказывает большие старые серверы с Dell MD Vaults и имеет до 12 дисков по 6 ТБ, и мы настраиваем их как RAID 6 (мы никогда не используем для настройки RAID или чего-либо с эти ребята, пока не узнали, что их старый ИТ-специалист устанавливал для этих парней RAID 0, когда их клиент, полицейский участок, я мог бы добавить, имел файл на диске ПРАВИЛЬНО, когда им нужны были какие-то кадры, лол), но да, они сходят с ума от чтения и записи. RAID 6 с этими парнями для дисков на 7,2 тыс. об/мин.

Но да, опять же, это была полезная информация.

марко55

Почетный

Да, мне интересно посмотреть, как карта LSI взаимодействует друг с другом.

Тизер, ожидающий одобрения предложения, которое я отправил клиенту по серверу хранения и перестройке локальной сети с использованием 24 дисков Hitachi 7200 емкостью 6 ТБ в массиве RAID-60 (под управлением 9361-4i и Intel 12 Гбит/с SAS). расширитель), 10Gbps LAN (множество каналов портов) для рабочих станций, которые будут перемещать данные между своими локальными твердотельными накопителями PCIe и сервером. Я, вероятно, добавлю тесты (синтетические и реальные) сюда, как только закончу.

дртвик

Прославленный

Да, мне интересно посмотреть, как карта LSI взаимодействует друг с другом.

Тизер, ожидающий одобрения предложения, которое я отправил клиенту по серверу хранения и перестройке локальной сети с использованием 24 дисков Hitachi 7200 емкостью 6 ТБ в массиве RAID-60 (под управлением 9361-4i и Intel 12 Гбит/с SAS). расширитель), 10Gbps LAN (множество каналов портов) для рабочих станций, которые будут перемещать данные между своими локальными твердотельными накопителями PCIe и сервером. Я, вероятно, добавлю тесты (синтетические и реальные) сюда, как только закончу.


Это мое лицо, когда я это прочитал

У меня есть клиенты, которые заказывают Dell MD Vaults для своих систем безопасности. У них есть такое пространство. Ну, это больше похоже на 12x6 ТБ в RAID 60, но я хотел бы проверить это. Я не могу полностью запустить сервер, чтобы проверить его (ну, теперь, когда у меня есть портативная версия Windows 10, я могу просто загрузиться с нее и посмотреть). Я видел, как системы с 24 твердотельными накопителями в RAID 5 выдавали 5 ГБ на чтение и запись.

Но да, ПОЖАЛУЙСТА, сообщите о своих выводах!

марко55

Почетный

Итак, я подключил 4 диска по 3 ТБ к LSI 9266-8i. Вот яблоки к яблокам против чипсета Intel RAID на плате ASRock X99 OC Formula (которая, кстати, возвращается из-за сумасшедших проблем с USB 3.0).

После того, как я закончил писать это, я хотел вернуться к началу (здесь) и предварить свои следующие замечания примечанием: это основано на RAID-5. Я не проводил полного сравнения с RAID 10 или даже 0. Я сравнил RAID-0 с твердотельными накопителями на карте LSI с набором микросхем Intel, и из того, что я видел, данные синтетических тестов на самом деле «показались» в пользу чипсет Интел. Я построил RAID-10 на чипсете Intel с теми же самыми дисками 4 x 3 ТБ, но, как ни странно, скорость чтения и записи составляла всего около 350 МБ/с, хотя я ожидал гораздо большей производительности чтения (опять же, синтетический тест CrystalDiskMark). Однако я этого не делал и не инициализировал этот массив полностью.

Итак, без лишних слов:

Инициализация RAID-5:
Время инициализации с использованием набора микросхем Intel: около 55 часов
Время инициализации на карте LSI: 5,5 часов (ПОБЕДА!)

Производительность последовательного чтения/записи при копировании ZIP-файла размером 82 ГБ. Здесь нет явного победителя.
Контроллер Intel RAID (скопирован с твердотельного накопителя Samsung 950 Pro PCIe: около 500-550 МБ/с в конце передачи).
Карта LSI (скопирована с RAID-0 с 4 x 128 850 EVO на LSI) карта): Примерно то же самое. Первые 10 ГБ были скопированы за 10 секунд, затем МЕДЛЕННО уменьшились до 500 МБ/с в конце.

Стоит отметить, что набор микросхем Intel предоставит вам больше кэш-памяти только потому, что кажется, что он будет использовать до 10 ГБ ОЗУ для кэширования, что может быть неплохо. Однако вы хотите убедиться, что данные могут выходить из ОЗУ и записываться на диск с разумной скоростью. по крайней мере, если вы много пишете. На всех моих установках есть ИБП, что дает хоть немного душевного равновесия.

Теперь я смог заметить, что ЦП (в данном случае 5960X) используется при перемещении больших файлов в/из RAID-массива, управляемого набором микросхем Intel. Процессор увеличил нагрузку на два ядра до 12-17% при записи. Еще пара около 2-3%, но неизвестно, было ли это для RAID. Так что не очень большой, но он есть.

Скамейки Crystal Disk:

Набор микросхем Intel RAID: 1 ГБ, QD32
Чтение: 551, запись: 412
4K Q32T1: 6,17 (1500 IOPS), 1,777 (441 IOPS)

LSI: 4 ГБ QD32 (чтобы исключить кэширование где бы то ни было).
Чтение: 548, запись 546 (WIN)
4K Q32T1: 6,46 (1576 IOPS), 8,85 (2161 IOPS) (WIN)

Похоже, что инструменты тестирования (или, по крайней мере, Crystal) не могут использовать кэш RAM на чипсете Intel RAID, что интересно. Это заставляет меня беспокоиться о других приложениях, которые могут иметь ту же проблему. Поэтому я отключил кеширование ввода-вывода (отключение кеша контроллера) на LSI при тестировании. Также отключил упреждающее чтение, чтобы сохранить справедливость. Мне все еще приходилось тестировать, используя 4 ГБ на LSI, потому что делать это с 1 ГБ было УДАЛЕНИЕМ информации. Ниже приведены результаты для 1 ГБ (опять же, кэшированный ввод-вывод и упреждающее чтение отключены. Дисковый кэш включен, как и контроллер Intel).

LSI: 1 ГБ QD32
Чтение: 1529, запись 655 (Еще одна ОГРОМНАЯ победа)
4K Q32T1: 31,6 (7600 IOPS), 18,6 (4550 IOPS) (WIN — даже близко)

Так что да, в большинстве случаев записи, особенно в сценариях бизнес-типа, LSI собирается просто уничтожить здесь разведданные.

Тестирование некоторых перестроений:

Intel chipset RAID:
— Восстановление заняло около 8 часов.
— Протестирована передача 82-гигабайтного zip-файла в массив во время восстановления: запись зависла до 2 МБ/с (OUCH) после около 10 минут, и в этот момент было скопировано всего несколько ГБ, поэтому я, наконец, отменил его, так как он просто не собирался заканчиваться

LSI: (победитель, большое время)
— Восстановление заняло чуть менее 6 часов.
— Передача 82-гигабайтного zip-файла в массив во время восстановления ВСЕ ЕЩЕ переносится со скоростью около 500 МБ/с и завершается БЕЗ проблем. Файл также исходил из RAID-0 из 4 твердотельных накопителей 850 EVO емкостью 120 ГБ на том же контроллере, что потребовало бы дополнительной нагрузки на контроллер для чтения. Довольно впечатляюще.

Вот и все.
1) Выделенный контроллер копит данные при записи, особенно при передаче небольших файлов и передаче
2) Общая производительность с выделенной картой абсолютно лучше, буквально во всех аспектах, кроме больших последовательных передач, где она примерно одинакова < br />3) Нагрузка на хост-систему действительно стала очевидной при использовании RAID-массива чипсета Intel, пусть и минимального (по крайней мере, ЦП). Конечно, у меня было 64 ГБ ОЗУ, поэтому кэширование ОЗУ не было проблемой, но не на всех машинах будет все это в избытке.
4) В случае перестроения Intel RAID может стать непригодным для использования! Плохо, особенно на профессиональной рабочей станции, где время = деньги.

В чем выигрывает чипсет-RAID? Расходы. В общем, если вы можете себе это позволить, приобретите карту. И да, это то, что большинство людей говорили все это время! ;-) Я просто хотел увидеть реальные цифры для себя и подумал, что это может помочь и другим.

дртвик

Прославленный

Чувак, я добавляю эту ветку в закладки только для того, чтобы опубликовать ее для людей, которым нужна реальная производительность, ха-ха. У меня нет ничего "Нового", с чем можно было бы играть. У меня есть карты Dell PERC 6 6-7-летней давности, которые я могу использовать, но нет ничего нового, с чем можно было бы по-настоящему поиграть. Спасибо за информацию!

ЛутцМ

Уважаемый

Привет, ребята! Отличный тред! Может быть, вы можете помочь мне с рекомендацией для карты RAID 5 начального уровня до 200 $ (для целей редактирования видео, избыточности и производительности чтения), я искал пару дней, но ничего не нашел. Кроме того, поскольку у меня нет большого опыта работы с картами RAID, будет ли карта pcie 2.0 x 2 работать с одним из моих слотов X99 SLI pcie 3.0 x16? Кроме того, могут ли эти карты LSI установить некоторые из жестких дисков, например, в RAID5, а другие — в сквозной / нерейдовый или другой уровень RAID, например, 1 или 10? Большое спасибо и извините за нубские вопросы
и С НОВЫМ ГОДОМ!

марко55

Почетный

Привет, Лутц. С Новым годом!

Во-первых, да, карта PCIe 2.0 RAID будет прекрасно работать в одном из ваших слотов PCIe 3.0, так что не беспокойтесь. Что еще более важно, вам необходимо убедиться, что у вас есть достаточное количество линий PCIe, доступных для этого слота, чтобы обеспечить достаточную пропускную способность шины от вашего RAID-массива, и это зависит от вашей модели мобильного устройства и того, что еще у вас есть в других слотах (видеокарты , так далее). Если вы предоставите эти две части информации здесь, я смогу сообщить вам, с чем вы столкнулись.

Что касается "сквозного/нерейдового" режима для некоторых дисков, то он технически называется "JBOD", когда вы изучаете характеристики карт. Карты LSI официально не поддерживают JBOD, НО вы можете использовать диски по отдельности, создав массив RAID-0 на карте, используя только один диск, и вы получите то же самое. Разница между этим и настоящим «JBOD» (сквозным) заключается в том, что карта RAID записывает некоторые данные RAID на один диск, и вы не можете вытащить их из карты и вставить в компьютер через собственный порт SATA, поскольку ОС не сможет прочитать диск, поэтому это следует учитывать.

Другими качественными картами RAID в этом сегменте являются карты Adaptec и Areca. Обе очень хорошие карты, которые я бы установил в любой день. Я сам собираюсь отказаться от LSI только в том случае, если я создаю массив RAID, который, как я думаю, выиграет от большого количества кэш-памяти на карте, и в этом случае я смотрю на высокопроизводительные карты Areca, которые вы можете поставить 8 ГБ Оперативная память для кэша. Опять же, это требует больших затрат и, безусловно, стоит (более 1000 долларов за карту и кэш). Карты Adaptec и Areca также официально поддерживают JBOD, если вас не устраивает «обходной путь» на картах LSI, и все три производителя имеют очень похожие карты в одинаковых ценовых диапазонах.

Если вы хотите сэкономить еще больше и отказаться от 512 МБ кэш-памяти, 9260 — это то же самое, что и 9266, только с половиной кэш-памяти, чего многие пользователи домашних рабочих станций в любом случае не почувствуют. Вы можете получить те, которые используются на ebay для

Графика: Intel Virtual RAID on CPU (VROC) позволяет управлять хранилищем RAID без дополнительного оборудования и необходимости жертвовать драгоценным слотом PCIe.

Когда дело доходит до выбора системы хранения данных RAID для вашего сервера или рабочей станции, нужно учитывать многое. Сколько дисков может войти в массив? Какая емкость хранилища мне потребуется? Какова моя скорость чтения и записи? Какая конфигурация RAID мне подходит? Я больше ценю скорость или отказоустойчивость? Должен ли я выбрать аппаратный RAID или программный RAID? А как насчет гибрида обоих?

Корпорация Intel разработала технологию на основе ЦП специально для твердотельных накопителей NVMe, известную как Intel Virtual RAID on CPU (VROC).Это тип гибридного RAID-решения, предназначенного в основном для клиентов, которых не устраивают ограничения или цена программного RAID-массива и аппаратного RAID-массива соответственно. Это простой выбор, поскольку дополнительное оборудование не требуется; нет замедления работы системы, как при программном RAID; и клиенты могут освободить слот PCIe для другой платы расширения.

В этом сообщении блога мы обсудим Intel VROC, его преимущества и способы включения VROC на серверах и рабочих станциях с поддержкой VROC. Если вы заинтересованы в приобретении защищенного сервера или рабочей станции с поддержкой VROC для своей программы или приложения, мы рекомендуем вам оставаться до конца публикации. Вы не пожалеете.

Графика: Виртуальный RAID-массив Intel на ЦП (VROC) реализуется с помощью устройства управления томами Intel (VMD). Источник: Intel

Что такое Intel VROC?

Intel Virtual RAID on CPU, или Intel VROC, — это гибридное решение для хранения данных RAID для твердотельных накопителей (SSD) NVMe, подключенных напрямую к масштабируемым процессорам Intel Xeon через шину расширения PCIe.

Его можно использовать с твердотельными накопителями Intel NVMe, некоторыми твердотельными накопителями сторонних производителей, и он предназначен в первую очередь для использования с высокопроизводительными профессиональными рабочими станциями и серверными платформами. Поддерживаемые конфигурации можно найти на веб-странице Intel VROC Supported Configurations.

VROC предлагается с новыми масштабируемыми процессорами Intel Xeon Scalable, в частности первого, второго и третьего поколений. Он встроен в ЦП, что позволяет выделенному кремнию вычислять логику RAID для твердотельных накопителей NVMe, основанных на PCIe.

VROC классифицируется как гибридный RAID, поскольку он имеет характеристики, аналогичные двум стандартным решениям RAID: программному RAID и аппаратному RAID.

Intel VROC частично считается аппаратным RAID из-за ключевой функции микросхемы, известной как Intel Volume Management Device (VMD), предлагаемой с более новыми масштабируемыми процессорами Xeon. VROC аппаратно зависит от VMD и поэтому предлагается только с более новыми масштабируемыми процессорами Xeon, перечисленными выше.

VROC частично считается программным RAID, поскольку он по-прежнему использует циклы ЦП для расчета логики RAID, но использует значительно меньше циклов, чем традиционное решение программного RAID.

Фото: Intel VROC не требует адаптера главной шины RAID (HBA) или карты RAID, что освобождает слот PCIe.

Каковы преимущества использования Intel VROC?

По данным Intel, самым большим преимуществом VROC является возможность подключать твердотельные накопители NVMe напрямую к линиям PCIe масштабируемых процессоров Xeon и создавать RAID без использования адаптера главной шины RAID (HBA), иногда называемого картой RAID или , в более общем смысле, сменная карта PCIe.

Проще говоря, для использования VROC не требуется никакого дополнительного оборудования. Это преимущество выгодно для чувствительных к цене клиентов, которые не хотят тратить много денег на аппаратные RAID-контроллеры.

Тем не менее, аппаратный RAID обеспечивает наилучшую общую производительность, поскольку в нем используется выделенный контроллер обработки, который управляет конфигурациями RAID независимо от ОС. Для VROC также не требуется слот PCIe.

Программный RAID, с другой стороны, разделяет свои вычислительные ресурсы с ОС, что может замедлить работу RAID. Однако программный RAID, как правило, дешевле аппаратного RAID, поэтому выбор программного, аппаратного или гибридного RAID-решения зависит от потребностей вашего приложения или программы.

В двух словах, VROC лучше, чем программный RAID для некоторых клиентов, потому что вы не используете мощность ЦП для управления массивом, а также потенциально не так дорого. Одним из существенных преимуществ VROC по сравнению с аппаратным RAID является то, что вам не нужно жертвовать слотом PCIe на вашем сервере или рабочей станции для создания RAID. Если вам нужно несколько графических процессоров, карт FPGA или других карт в вашей системе, вам придется записать одну из них для аппаратного RAID-контроллера.

Нейт Янг, технический директор

VROC также закрывает редкий, но вызывающий головную боль феномен дыр записи RAID 5, во время которого становится невозможно определить, какие блоки данных и четности были записаны, а какие нет на диски в массиве. Проблема вызвана сбоем питания во время записи.

Фото: Intel VROC настраивается в BIOS вашего сервера или рабочей станции. Источник: Intel

Как включить VROC?

Чтобы включить VROC, сначала нужно убедиться, что ваш процессор Xeon его поддерживает.

По состоянию на сентябрь 2020 г. три семейства процессоров Intel Xeon поддерживают VROC:

  • Масштабируемые процессоры Intel Xeon 1-го поколения (-SP, -D, -W)
  • Масштабируемые процессоры Intel Xeon 2-го поколения (-SP, -D, -W)
  • Масштабируемые процессоры Intel Xeon 3-го поколения (-SP, -D, -W)

Функциональность VROC должна быть включена OEM или ODM, у которого приобретен ваш сервер Xeon или рабочая станция. Использование процессора одного из этих семейств Xeon не гарантирует его функциональность, поэтому перед покупкой обязательно уточните у производителя, получаете ли вы решение с поддержкой VROC.

Функциональность обычно достигается с помощью аппаратного ключа Intel VROC, вставляемого в головку ключа материнской платы сервера. Ключ Intel VROC — это механизм лицензирования программного обеспечения Intel VROC и лицензии RAID. Перед покупкой OEM-производитель устанавливает головку ключа и аппаратный ключ на серверные материнские платы с поддержкой VROC.

После покупки сервера или рабочей станции Xeon можно перейти на VROC, купив ключ Intel VROC у OEM-производителя, но ваш сервер или рабочая станция должны быть оснащены процессорами Xeon с поддержкой VROC.

Существует три различных артикула аппаратных ключей VROC:

  • Intel VROC Standard (поддерживает RAID 0, RAID 1 и RAID 10 с использованием любого твердотельного накопителя)
  • Intel VROC Premium (поддерживает RAID 0, RAID 1, RAID 5 и RAID 10 с использованием любого твердотельного накопителя)
  • Только твердотельные накопители Intel VROC Intel (поддерживает RAID 0, RAID 1, RAID 5 и RAID 10 только с использованием твердотельных накопителей Intel)

Intel VROC включается в BIOS сервера или рабочей станции. Процесс активации довольно прост.

Чтобы включить VROC, выполните следующие действия:

1. Установите режим загрузки UEFI

  1. Нажмите F2, чтобы войти в BIOS.
  2. Выберите диспетчер обслуживания загрузки.
  3. Выберите дополнительные параметры загрузки.
  4. Измените режим загрузки на UEFI.
  5. Нажмите F10, чтобы сохранить, и Y, чтобы подтвердить.

2. Включите порты Intel VMD

  1. Прочитайте техническую спецификацию материнской платы вашего сервера (TPS), чтобы определить, какие порты VMD следует включить.
  2. Нажмите F2, чтобы войти в BIOS.
  3. Выберите "Дополнительно".
  4. Выберите конфигурацию PCI.
  5. Выберите устройство управления томами.
  6. Включите правильные порты VMD.
  7. Нажмите F10, чтобы сохранить, и Y, чтобы подтвердить.

3. Создайте том RAID

  1. Нажмите F2, чтобы войти в BIOS.
  2. Выберите "Дополнительно".
  3. Выберите конфигурацию PCI.
  4. Выберите Управление дополнительным ПЗУ UEFI.
  5. Выберите Intel Virtual RAID on CPU (если вы видите список своих твердотельных накопителей NVMe, повторите второй шаг, чтобы убедиться, что вы включили правильные порты VMD).
  6. Выбрать все контроллеры Intel VMD
  7. Выберите «Создать том RAID».
  8. Выберите уровень RAID и выберите диски для включения в том.
  9. Выберите «Создать том».
  10. Выйдите из BIOS, нажав F10, и загрузите ОС.

Вот оно. Вы только что включили VROC на своем сервере или рабочей станции с поддержкой VROC. Удачного рейда!

Чтобы посмотреть видеоролик Intel, на котором основано это руководство, нажмите здесь.

Фото. Решение для хранения JBOD/JBOF от Trenton Systems в сочетании с хост-сервером или рабочей станцией с поддержкой VROC — идеальный вариант использования Intel VROC.

Заключение: варианты использования и преимущества Trenton

Прекрасным вариантом использования Intel VROC является JBOD/JBOF компании Trenton Systems в сочетании с хост-сервером или рабочей станцией с поддержкой VROC. Для Trenton это включает все серверы и рабочие станции для монтажа в стойку с нашей материнской платой SSP8256.

Благодаря этому решению клиенты могут воспользоваться преимуществами практически бесконечного объема хранилища NVMe SSD со скоростью чтения и записи 27 ГБ/с в защищенном решении для хранения с возможностью горячей замены, сконфигурированном с использованием RAID, готового к работе в полевых условиях.

Загрузите это высокопроизводительное решение NVMe SSD в военное наземное транспортное средство, на истребитель, БПЛА, военный корабль ВМФ, производственный цех, на наземную станцию ​​управления (GCS), в установку для сбора радиолокационных данных или в задней части фургон с несколькими камерами, собирающий геопространственные данные в любом месте, где это необходимо вашему приложению или программе.

Лучше всего то, что вы будете знать, что все данные в безопасности, потому что покупаете у американской компании, чьи решения разработаны, изготовлены, собраны, протестированы и поддерживаются в США и оснащены множеством решений для кибербезопасности, включая опросы поставщиков о качестве, контроль версий, программу защиты от подделок (CPP) и комплексный пакет безопасности, обеспечивающий целостную защиту программного обеспечения, встроенного ПО и оборудования.

Но подождите, есть еще одно замечательное преимущество. Наша внутренняя служба поддержки может помочь вам настроить VROC и решить проблемы с VROC, если у вас возникнут какие-либо проблемы. И не забывайте, что вы можете попробовать наши решения бесплатно в течение 45 дней, воспользовавшись нашей программой кредитования.

Если вы заинтересованы в приобретении защищенного сервера или рабочей станции с поддержкой VROC для своей программы или приложения, сообщите нам об этом. Наши инженеры готовы помочь.

Slimbook Intel Controller работает, устанавливая значение TDP вашего процессора. То есть количество энергии, измеренное в ваттах, которое ваш ЦП может потреблять для экономии заряда батареи или повышения общей производительности при тяжелых рабочих нагрузках, таких как задания рендеринга или обработка больших чисел в больших электронных таблицах. Увеличение TDP позволяет процессору чаще или даже постоянно использовать свою повышающую частоту в некоторых сценариях.

Используйте это программное обеспечение с осторожностью, так как выделение тепла резко возрастет при более высоких настройках производительности, мы не можем гарантировать, что все ЦП INTEL будут вести себя одинаково, поэтому ваш пробег может отличаться.

ПРИМЕЧАНИЕ. Включенная безопасная загрузка не позволяет ядру управлять параметрами ЦП.

Контроллер Slimbook Intel разработан с учетом мобильных процессоров Intel.


Если вы хотите попробовать программное обеспечение на любом другом процессоре, вы можете добавить его в файл конфигурации /home/ /.config/slimboookintelcontroller/slimbookintelcontroller.conf, следуя структуре других.

Это приложение подходит для:

Объявление: поддержите разработку наших приложений, присоединившись к нашему Patreon, и получите ранний доступ к новым выпускам приложений и эксклюзивным вкусностям.

Как установить Slimbook Intel Controller в нашу систему?

Чтобы установить это приложение, откройте окно терминала (Ctrl+Alt+T) и добавьте репозиторий Slimbook в свою систему с помощью следующих команд:

Теперь осталось только установить приложение с помощью:

Как использовать Slimbook Intel Controller?

Как только вы откроете приложение, вам будет предложено несколько вариантов и переключателей.

Включить приложение при запуске: если этот параметр включен, приложение будет автоматически запускаться вместе с ОС и применять последний использованный пресет. Чтобы отменить это изменение и восстановить поведение ОС по умолчанию при запуске, просто верните эту кнопку в положение ВЫКЛ.

Раскрывающееся меню индикатора. Отображает ярлыки предустановленных параметров производительности для простого переключения между доступными режимами одним щелчком мыши. Вы получаете доступ к окну настроек, а также выходите из приложения. Последний выбранный пресет останется активным, пока вы не перезагрузите компьютер.

Селектор режима производительности. Это приложение определит ваш ЦП и соответствующим образом установит три режима производительности. Вам будут предоставлены три пресета.

Низкий: в этом режиме устанавливается низкое TDP, что значительно увеличивает время работы от батареи, однако производительность снижается при больших нагрузках.

Средний: этот пресет задает сбалансированное TDP, которое даст вам лучшее из обоих миров. Хорошая производительность и длительное время автономной работы.

Высокий: этот параметр раскрывает весь потенциал вашего ЦП, но не забывайте следить за температурой ЦП и временем автономной работы.

Это руководство содержит пошаговые инструкции по установке RAID-контроллера Intel® RS25DB080 и информацию об использовании утилиты настройки BIOS для настройки одного массива логических дисков и установки драйвера в операционную систему.

Прочитайте все предостережения и предупреждения, прежде чем начинать интеграцию с RAID-контроллером

Выбор правильного уровня RAID

Прежде чем выполнять какие-либо инструкции, прочтите все предупреждения и заявления о безопасности в этом документе. См. также документ с информацией о безопасности серверных плат и серверных корпусов Intel ® по адресу: Предупреждение

Необходимые инструменты

Intel является зарегистрированным товарным знаком корпорации Intel или ее дочерних компаний в США и других странах.
*Другие названия и торговые марки могут быть заявлены как собственность других лиц. Авторские права © 2011, корпорация Intel. Все права защищены.

Intel является зарегистрированным товарным знаком корпорации Intel или ее дочерних компаний в США и других странах.
*Другие названия и торговые марки могут быть заявлены как собственность других лиц. Авторские права © 2011, корпорация Intel. Все права защищены.

Что вам нужно для начала

  • Жесткие диски SAS 2.0 или SATA III (обратная совместимость для поддержки жестких дисков SAS 1.0 или SATA II)
  • RAID-контроллер Intel® RS25DB080
  • Серверная плата со слотом x8 или x16 PCI Express* (этот контроллер соответствует спецификации x8 PCI Express* поколения 2 и имеет обратную совместимость со слотами поколения 1)
  • Компакт-диск с ресурсами для RAID-контроллера Intel® RS25DB080
  • Установочный носитель операционной системы: Microsoft Windows Server 2003*, Microsoft Windows Server 2008*, Microsoft Windows 7*, Microsoft Windows Vista*, Red Hat* Enterprise Linux или SUSE* Linux Enterprise Server, VMware* ESX Server 4 и Citrix* Xen.

1. Проверьте высоту кронштейна

A Определите, подходит ли кронштейн полной высоты к задней панели PCI сервера.
B Ваш RAID-контроллер поставляется с полноразмерным кронштейном. Если требуется низкопрофильный кронштейн, отвинтите два фиксатора, которыми зеленая плата крепится к серебряному кронштейну.

C Снимите скобу.
D Совместите низкопрофильный кронштейн с платой, убедившись, что два отверстия совмещены.

E Замените и затяните два винта.

2 Установите RAID-контроллер

A Выключите систему и отсоедините шнур питания.
B Снимите крышку системы и все другие детали, чтобы получить доступ к разъему PCI Express*.

C Плотно вставьте RAID-контроллер в свободный слот x8 или x16 PCI Express*.
D Прикрепите скобу RAID-контроллера к задней панели системы.

Повышение ценности с помощью Intel

Серверные продукты, программы и поддержка

  • Высококачественные строительные блоки для серверов
  • Большой выбор серверных строительных блоков
  • Решения и инструменты для электронного бизнеса
  • Круглосуточная техническая поддержка по всему миру (код страны AT&T: +866-655-6565)1
  • Обслуживание мирового уровня, включая трехлетнюю ограниченную гарантию и замену по расширенной гарантии1.
  • Информация о продукте, включая краткое описание и технические характеристики продукта.
  • Инструменты продаж, например видеоролики и презентации.
  • Обучающая информация, например Центр онлайн-обучения Intel®
  • Информация о поддержке и многое другое

1Доступно только для участников программы Intel® Channel Program, входящей в сеть Intel® e-Business Network.

3 Подключите RAID-контроллер

A Подсоедините широкий конец прилагаемого кабеля к левому серебряному разъему (порты 0–3).
B Вставьте кабель в серебряный разъем до легкого щелчка.
C При использовании более четырех дисков, подключите широкий конец второго прилагаемого кабеля к правому серебряному разъему (порты 4–7).
D Подключите другие концы кабелей к дискам SATA или к портам на SATA или SAS объединительная панель.

Примечания. Поддерживаются как объединительные платы без расширителя (один кабель на диск), так и объединительные платы с расширителем (всего один или два кабеля). Требуются кабели питания привода (не показаны).

Вид сзади на четыре диска SATA, подключенных к портам 0–3 на RAID-контроллере Intel® RS25DB080

Перейти к шагу 4 на стороне 2

Информация о звуковом сигнале

Информацию о звуковом сигнале и о том, как отключить или отключить его, см. на обратной стороне этого документа.

Справочная схема RAID-контроллера Intel® RS25DB080

сообщить об этом объявлении

Читайте также: