Ivan
мне кажется можно разнести крашмапом данные так, чтоб при падении шасси можно было работать.
Д
один в 220 смотрит вторйо в инвертор
Ivan
но это конечно не очень надежно
Ivan
нужно 3 шасси
Д
вооот
Д
это я понял уже давно
Д
но 3 шасси не купят
Д
так бы было идеально и я бы с ceph остался
Д
вот по этому смотрю в сторону репликации
Д
а так сейчас получается, электричество отключают 10 минут и все рухнуло.
Д
и второй шасси не спасает соответственно.
Д
Это нужно будет учесть я уже подумал про это, но мне важны критикал ресурсы. остальное подождать может
Д
так то должно хватать
Д
Ivan
как быть с данными которые не успели приехать по репликации ?
Д
Qdevice 3 физ машинка?
Д
Д
Д
если еще будет пара полок, вопрсо с HA можно будет решить?
Д
получается что на полке тоже должен быть zfs?
Ivan
Сергей
https://github.com/ewwhite/zfs-ha/wiki
Д
вообще планируется взять вот такие
Д
https://server19.ru/catalog/19_rn2-ss12/rn2ss12r/
Д
ну так если виртуалка окажется на шасси где отключится питание
Д
все пропало
Д
при потери электрики железно 4 ноды падают
Сергей
при потери электрики железно 4 ноды падают
я вот даже сейчас не скажу - если бы у вас был полноценный HA и общее хранилище, то как переживёт кластер падение 5 нод из 9 и что будет с теми ВМ, которые вы назначите как HA.
есть эмулятор ha в проксе, поставьте его - изучите
Д
из за рейд котроллера?
Д
ну тогда как вариант делать из каких то нод общее хранилище
Д
у нас 10
Д
по ним через 10 коммутатор да
Д
то есть соединить все 10G можно
Д
из за этих интерфейсов в частности и смотрим в сторону этих полок
Сергей
а в шасси нет других интерфейсов для подключения дисковых полок?
Д
походу нет
Сергей
а как диски сейчас к блейдам подключены?
Д
вы про сетевое хранилище?
Д
пока не знаю это впланах
Сергей
вы про сетевое хранилище?
я про то, что можно полку подключить к одному из блейдов и один из блейдов будет по сути - сервером, который будет раздавать общее хранилище другим серверам в этом же шасси и через сеть
Сергей
а что это за блейды, неужто у них нет интерфейсов для подключения полок?
Д
ну вот этот сервак
Д
https://www.dell.com/ly/business/p/poweredge-c6220-2/pd
Д
там и стоят сейчас диски ssd в ceph
Д
по 480
Сергей
ну так и превратите один из блейдов на каждом шасси в NAS, который будет отдавать общее хранилище в кластер. А между собой эти NAS можно синхронизировать. Я выше ссылку давал ZFS HA
Сергей
Д
согласен
Д
читаю
Сергей
читаю
есть ещё проект esos. который также умеет делать программные хранилки. Сделан на основе linux, внутри себя тоже умеет zfs.
Д
Сергей
и у вас насколько я понимаю сетевая на 10гбит/с - двухпортовая?
Д
да
Сергей
да
значит можно сделать бондинг и получить 20гбит/с для раздачи shared storage
Д
думаю что да
Ivan
а каким способом можно понять реальный размер сектора ssd накопителя ?
Сергей
Сергей
я думаю что можно не заморачиваться и просто ставить ashift=12
Ivan
уверен что врут
Ivan
512 байт пишут
Ivan
вот думаю что 8к реально
Ivan
во всяком случае читал, что так многие производители домашних ссд делают
Ivan
как бы это на практике быстро чекнуть ?
Сергей
жаль что я свой пул собрал уже после того как это обсуждалось)
Сергей
и у меня осталось 12. для nvme
Сергей
Ivan
fio на устройство
я подметил, что чем больше блок пишешь, тем производительнее запись. самые выигрышные размеры 32М-64М.
Ivan
или я что-то не так делаю ?
Сергей
я бы тестировал то, что будет использоваться более чем в 80-90% случаев