Proxmox как удалить диск

Обновлено: 21.11.2024

Вы ищете, как удалить Proxmox Ceph OSD? Мы можем помочь вам с этим.

Обычно мы можем сделать это как через графический интерфейс Proxmox VE, так и через интерфейс командной строки. Но прежде чем просто удалить экранное меню, его состояние должно быть отключено и отключено.

В Bobcares мы часто получаем запросы на управление хранилищем Proxmox Ceph в рамках наших услуг по управлению инфраструктурой.

Сегодня давайте посмотрим, как наши инженеры службы поддержки удаляют OSD из Proxmox Ceph.

Интеграция Proxmox с Ceph

Proxmox Virtual Environment — это среда виртуализации серверов с открытым исходным кодом.

Принимая во внимание, что Ceph является программно-определяемой платформой хранения данных с открытым исходным кодом. Это распределенное хранилище объектов и файловая система обеспечивают превосходную производительность, надежность и масштабируемость.

Благодаря интеграции Ceph с Proxmox VE мы можем запускать хранилище Ceph и управлять им непосредственно на узлах гипервизора.

Демон хранения объектов для распределенной файловой системы Ceph — ceph-osd. Кроме того, он хранит объекты в локальной файловой системе и предоставляет к ним доступ по сети.

Как удалить Ceph OSD в Proxmox?

Прежде чем удалить OSD напрямую, наши инженеры службы поддержки учитывают состояние OSD в кластере. Обычно экранное меню находится на входе и наверху в кластере.

Итак, давайте посмотрим, как удалить его через графический интерфейс Proxmox VE и из командной строки.

Удалить OSD Ceph через графический интерфейс Proxmox

Теперь давайте посмотрим, как наши инженеры службы поддержки удаляют экранное меню через графический интерфейс.

<р>1. Во-первых, мы выбираем узел Proxmox VE в дереве.

<р>2. Далее переходим в Ceph >> Панель OSD. Затем мы выбираем OSD для удаления. И нажмите кнопку ВЫХОД.

<р>3. Когда статус OUT, мы нажимаем кнопку STOP. Это изменит статус с up на down.

<р>4. Наконец, мы выбираем раскрывающийся список Дополнительно и нажимаем "Удалить".

Следовательно, это успешно удаляет экранное меню.

Удалить OSD Ceph через интерфейс командной строки

Аналогично мы можем удалить Ceph OSD через CLI. Вот шаги, которые выполняют наши инженеры службы поддержки, чтобы удалить OSD из кластера.

<р>1. Изначально нам нужно вынести его из кластера. Мы делаем это для копирования данных в другие OSD. Для этого мы используем команду,

<р>2. Теперь кластер начинает переносить данные на другие OSD. Чтобы наблюдать это, мы используем команду,

Здесь мы внимательно наблюдаем за появлением статуса. Когда миграция завершится, мы закроем это окно.

<р>3. Затем мы останавливаем экранное меню перед его удалением. Здесь мы подключаемся к хосту по ssh и используем команду

Теперь экранное меню недоступно.

<р>4. Мы не можем просто удалить OSD. Во-первых, нам нужно удалить ключ аутентификации OSD. Также мы удаляем OSD из карты OSD и из файла ceph.conf, расположенного по пути /etc/ceph.

Поэтому, чтобы удалить OSD из карты CRUSH, мы используем команду,

Чтобы удалить ключ аутентификации OSD, мы используем команду

Затем для удаления OSD запускаем,

<р>5. Наконец, мы удаляем запись OSD из ceph.conf. Для этого мы подключаемся по ssh к хосту администратора и открываем файл /etc/ceph/ceph.conf. И удалите запись, которая отображается как

Заключение

До сих пор мы видели шаги по удалению Proxmox Ceph OSD. Обычно мы делаем это как через графический интерфейс Proxmox VE, так и через интерфейс командной строки. Сегодня мы увидели, как наши инженеры службы поддержки удалили его без каких-либо ошибок.

Похожие сообщения:

ЗАЩИТИТЕ ВАШ СЕРВЕР ОТ СБОЯ!

Никогда больше не теряйте клиентов из-за низкой скорости сервера! Позвольте нам помочь вам.

Наши специалисты по серверам будут контролировать и обслуживать ваш сервер круглосуточно и без выходных, чтобы он оставался молниеносно быстрым и безопасным.

Я закрыл Proxmox, удалил диск (диск ни для чего не использовался), который я пометил вторичным как LVM-Thin (образ диска, контейнер), прежде чем удалить его из Proxmox.

Оно по-прежнему отображается в меню слева, а в сводке указано, что оно включено, но не активно.

Как его отключить/удалить из списка?

Вы можете вручную отредактировать /etc/pve/storage.cfg и просто удалить раздел для этого хранилища.

Это то, что я искал. Есть ли служба, которую мне нужно перезапустить после редактирования?

Есть инструкция, как удалить ceph?

Я считаю, что правильный способ — сначала удалить все ссылки на него через веб-интерфейс, а затем физически отключить диск.

Система поступает правильно, показывая вам то, что у вас было (хотя бы в минимальном виде).

Вы должны изящно отступить. Не могу просто дернуть его.

Я уверен, что способ есть.

Представьте, что это требование, а затем диск физически выходит из строя только для того, чтобы удалить ссылку. Это было бы серьезным упущением.

Он показывает настроенные устройства хранения независимо от того, присутствуют они или нет, поскольку они могут быть обычными хранилищами, которые не всегда доступны или подключены к сети.

вам просто нужно удалить ссылку с вкладки центра обработки данных.

Не правильнее ли сначала удалить его из своего хранилища в Proxmox? Вы можете сначала сделать резервную копию, переместить или стереть это пространство, думая о том, куда оно пойдет дальше. Вы же не хотите, чтобы он был завален вещами, верно?

Затем перезагрузите компьютер и убедитесь, что он исчез. Неисправность. Затем отключить?

Возможно, выключите питание, верните его, загрузитесь, проверьте его в Proxmox, а затем сделайте все правильно на этот раз.

Возможно, выключите питание, верните его обратно, загрузитесь, проверьте его в Proxmox, а затем сделайте все правильно на этот раз.

За исключением того, что это тоже не "правильно". нет необходимости проходить через все это только для управления устройствами хранения.

Оперативное добавление и удаление хранилища на физическом хосте является законным использованием. ни в том, ни в другом случае перезагрузка не требуется. вы можете сделать это, пока система работает. SATA, SAS, Serial и PCI(e) — это протоколы с горячей заменой, которые включены по умолчанию во многих системах, особенно на материнских платах для серверов или потребительских платах среднего и высокого класса.

Хорошей практикой является очистка дисков перед удалением для защиты данных, но это не имеет ничего общего с процессом добавления или удаления хранилища. Что, если в хранилище есть образы резервных копий, которые перемещаются в холодное хранилище? рана не хочет стирать это!

Кроме того, хранилище в proxmox не всегда является физическим диском на машине. Это также может быть сетевое местоположение (NFS/SMB/CIFS) или даже веб-сайт, определяемый URI (Ceph/WebDav)

Правильный ответ — просто перейти в Центр обработки данных -> Хранилище и управлять им там, так как хранилища управляются во всем кластере, а не на конкретном хосте. Даже отдельный экземпляр Proxmox по-прежнему является «центром обработки данных» для инструментов управления PVE.

Этот подключаемый модуль является частью коллекции community.general (версия 4.2.0).

Возможно, у вас уже установлена ​​эта коллекция, если вы используете пакет ansible. Он не включен в ansible-core. Чтобы проверить, установлен ли он, запустите ansible-galaxy collection list .

Чтобы установить его, используйте: ansible-galaxy collection install community.general .

Чтобы использовать его в плейбуке, укажите: community.general.proxmox_kvm .

Краткий обзор

Позволяет создавать/удалять/останавливать виртуальные машины Qemu(KVM) в кластере Proxmox VE.

Начиная с community.general 4.0.0, больше нет значений по умолчанию, см. proxmox_default_behavior.

Требования

Приведенные ниже требования необходимы для хоста, на котором выполняется этот модуль.

Параметры

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию да .

Если для параметра proxmox_default_behavior установлено значение compatiblity , для этого параметра по умолчанию используется значение -serial unix:/var/run/qemu-server/ .serial,server,nowait .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию нет .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию 0 .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда значение по умолчанию — cnd .

Имя ВМ для клонирования. Если установлено значение vmid, значение clone может быть произвольным, но оно необходимо для запуска клонирования.

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию 1 .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию используется kvm64 .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию 1000 .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию нет .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию используется qcow2 . Если для параметра proxmox_default_behavior задано значение no_defaults , не указание этого параметра эквивалентно установке для него значения unspecified .

Параметр хоста – это сквозной пропуск хост-устройства PCI. Синтаксис HOSTPCIID: bus:dev.func (шестнадцатеричные числа).

rombar=boolean default=1 Укажите, будет ли ПЗУ устройства отображаться на карте памяти гостя.

/!\ Эта опция разрешает прямой доступ к оборудованию хоста. Так что мигрировать такие машины больше нельзя - используйте с особой осторожностью.

IP-адреса используют нотацию CIDR, шлюзы указывать необязательно, но они должны находиться в той же подсети, что и указанный IP-адрес.

Специальная строка 'dhcp' может использоваться для IP-адресов для использования DHCP, и в этом случае не нужно указывать явный шлюз.

Если включена функция cloud-init и не указаны ни IPv4, ни IPv6-адреса, по умолчанию используется DHCP на IPv4.

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию да .

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию 512 .

Допустимые значения: "model="XX:XX:XX:XX:XX:XX",bridge="value",rate="value",tag="value",firewall="1|0", стволы="вланид"" .

Модель является одной из e1000 e1000-82540em e1000-82544gc e1000-82545em i82551 i82557b i82559er ne2k_isa ne2k_pci pcnet rtl8139 virtio vmxnet3 .

Параметр моста можно использовать для автоматического добавления интерфейса к устройству моста. Стандартный мост Proxmox VE называется vmbr0.

Option rate используется для ограничения пропускной способности трафика от и до этого интерфейса. Он указывается как число с плавающей запятой, единицей измерения является «мегабайт в секунду».

Если вы не укажете мост, мы создадим сетевое устройство kvm 'user' (NAT), которое предоставляет службы DHCP и DNS.

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию да .

Указывает гостевую операционную систему. Это используется для включения специальной оптимизации/функций для определенных операционных систем.

У этого параметра нет значения по умолчанию, если только для параметра proxmox_default_behavior не установлено значение совместимости ; тогда по умолчанию используется l26 .

Включить/отключить флаг защиты виртуальной машины. Это включит/отключит операции удаления ВМ и удаления диска.

Импульсом для этой записи в блоге послужила довольно разочаровывающая попытка поменять местами 2 диска в моем кластере Proxmox между двумя моими узлами. Оба этих диска изначально были частью кластера Ceph, который я использую для общего хранилища. Причина замены заключалась в том, чтобы просто сделать хранилище на узел немного более сбалансированным, речь шла о дисках на 240 ГБ и SSD на 500 ГБ.

Отказ от ответственности Я не знаю, насколько опасны команды в этом посте, и они могут принести больше вреда, чем пользы

При запуске обмена дисками я установил оба диска как "Out" в графическом интерфейсе Proxmox Ceph, а затем отключил их, после чего я уничтожил работающие OSD. (Это не оказало реального влияния на работоспособность пула, поскольку я работаю с размером = 3 в кластере, поэтому это только вызвало некоторый баланс/заполнение).

Я ошибочно предположил, что операция "уничтожить" аккуратно очистила диски и базовые структуры LVM, которые Ceph использует для своих OSD.

Как только я вставил диск емкостью 500 ГБ в следующий хост, он появился в lsblk как имеющий запись LVM. Эта запись не существовала в различных выходных данных vgdisplay, lvdisplay, pvdisplay lvm. С помощью parted я решил просто повторно инициализировать диск с новым чистым GPT, ожидая, что это поможет. После этого повторного чтения таблицы разделов с помощью partprobe запись LVM все еще была там. Еще более любопытно, что в графическом интерфейсе Proxmox диск был показан как тип «Device Mapper». Это должно было насторожить, но этого не произошло.

Вместо того, чтобы искать, что именно представляет собой диск «Device Mapper», я продолжал пытаться стереть диск классическими средствами, wipefs для очистки подписей, gdisk для удаления всех таблиц GPT и т. д. Ничего из этого не сработало, и я застрял. с диском, который я не смог повторно добавить в пул.

Наконец я решил посмотреть, что происходит с диском, и с помощью вывода fdisk -l я увидел, что запись LVM отображается как устройство /dev/mapper/.

Я понятия не имею, что такое устройства сопоставления устройств и насколько они важны, но я обнаружил, что ими можно управлять с помощью команды dmsetup.

Я обнаружил неисправное устройство в dmsetup ls с его длинной строкой Ceph. А потом просто удалил его с помощью dmsetup remove $longcephstring$ . Как только это было сделано, запись исчезла из lsblk, и диск появился как неиспользуемый в графическом интерфейсе Proxmox.

Читайте также: