Д
вот кстати думаю а для полки есть смысл ssd кеш делать?
Д
Есть такой параметр в описании "Возможность включения SSD-cache, без покупки доп. лицензий" хотя пока не понял что это.
Сергей
вот кстати думаю а для полки есть смысл ssd кеш делать?
это нужно читать описание хранилища
Д
спросил у менеджера, жду ответа пока
Fedor
Зфс предполагает работу на строго локальных дисках, даже сас экспандеры не рекомендуются. Будет медленнее.
Vladislav
https://habr.com/ru/company/selectel/blog/510446/
Fedor
Чем больше диск, тем меньше иопс на терабайт...
George
Чем больше диск, тем меньше иопс на терабайт...
И тем дольше полноё чтение/запись диска)
Fedor
👍
Алексей
Fedor
А ленточные библиотеки не дешевле будут?
Ilia
это если скорость "выбрать ленту+вставить ленту" устроит диск же мгновенно доступ к данным дает
Fedor
такие диски кроме как для архивных целей даже и не знаю, как ещё использовать
Ilia
холодные БД и всякий nosql помойки?
Fedor
наверное, очень холодные.)
Fedor
не те, к которым можно обратиться сразу из приложения
Fedor
с неконкурентными запросами, и так далее
Vladislav
Диски более 10ТБ пора называть инфарктными. Ибо после их смерти данные почти невозможно восстановить.
Anonymous
вот кстати думаю а для полки есть смысл ssd кеш делать?
Чето не заметил бонусов на пуле в 40гб кеш был 1гб всего (сам ссд 120гб пустой). Странно както
Д
Добрый день, а возможно к существующему пулу, из 1ТБ в зеркале, добавить еще одно такое же зеркало?
Vladislav
да, можно, но если вы захочете равномерно распределить данные между всеми устройствами, то придется сделать финт ушами.
Д
а там нет ни чего вроде, только поставил с нуля
Д
только поставил но полуилось как то странно
Д
Д
первый через веб добавлял
Д
может из за этого?
Vladislav
останется переподключить устройства, но через GPT метки
Vladislav
ну сами посмотрите, что вы добавили. Если диски вдруг сменят нумерацию - пул может развалиться
Д
то есть верхние надо отключить получается и заново подключить?
Vladislav
наоборот, нижние :)
Д
ну на первом сервере вроде бы тоже также
Д
Vladislav
ну, тут смена нумерации дисков в зеркале ничего не изменит
Д
а как его можно разобрать zpool detach?
Vladislav
да, по одному detach и attach с нужной меткой
Vladislav
Например zpool detach rpool sdg zpool attach rpool sdh /dev/disk/by-id/wwn-0x5000cca0252faee4
Д
сделал zpool destroy и все диски пропали
Д
Д
странно почему здесь не удалился
Vladislav
не надо было делать destroy
Д
все походу переустаналивать тепрь
Д
вроде написано что пул удаляет
Григорий
все походу переустаналивать тепрь
прочитайте уже документацию к проксмоксу!
Д
ну я и прочитал что команда удаляет пул, удалил
Григорий
так а хранилище кто удалит?
Д
ага
Д
👍
Д
теперь надо понять как диски увидеть с веб интерфейса пропали видимо форматировать нужно
Vladislav
используйте системную консоль
Vladislav
веб-морда Proxmox - очень обрезанная
Д
я уже понял
Д
получается одно зеркало можно создать второе ручками, тогда надо было все ручками
Д
да, по одному detach и attach с нужной меткой
Владислав получается так правильно нужно?
George
ну сами посмотрите, что вы добавили. Если диски вдруг сменят нумерацию - пул может развалиться
Не развалится, zfs'у пофиг на имя и порядок, он на содержимое смотрит
George
Внутрях id у вдева есть, если грубо
Alexander
Вопрос: ZFS на Hetzner Cloud Volumes вместо luks + xfs хорошая идея или не очень?..
Alexander
(Volumes на Ceph на 3 серверах, память вроде не ECC на нодах)
Fedor
Смотря чего хочется этим достигнуть.
Fedor
Хецнер клауд волюмес это виртуальные диски?
Alexander
Смотря чего хочется этим достигнуть.
хочется надежности, скорость не так важна
Alexander
Хецнер клауд волюмес это виртуальные диски?
я так понимаю, это вот это https://docs.ceph.com/docs/jewel/rbd/rados-rbd-cmds/#resizing-a-block-device-image (блочные устройства Ceph, каждый volume физически находится на 3 серверах, диски SSD)
Alexander
у них можно подключить к 1 VPS несколько volume'ов, каждый из которых может быть от 10 ГБ до 10ТБ, можно ресайзить
Fedor
Почему спрашиваю - зфс проектировалась под поведение обычных жёстких дисков, учитывая то, что если диск ответил Ок при записи - данные точно сохранены.
Fedor
Поведение виртуальных дисков, в которых вложено некоторое количество уровней абстракции, может отличаться от эталонного, скажем так. Даже на стороне гипервизора.
Fedor
При каком-то из сбоев на пути следования может произойти порча данных - то, что зфс считала записанным, пропадёт и возникнет неопределенное состояние.
Fedor
Если важна надежность, я бы не стал так экспериментировать без локальных хранилищ.
Alexander
ясно, спасибо)
Alexander
а если бы диски были локальными, но память не была бы ECC?
Alexander
я немного поискал в истории чата и не понял этот момент, без ECC-памяти хранилище с ZFS будет работать менее надёжно, чем XFS?
Fedor
а если бы диски были локальными, но память не была бы ECC?
Повреждение битов в памяти перед записью заблокирует больший объём информации в случае с зфс, чем с другими фс
Fedor
Эти данные можно достать, естественно
Fedor
Но зфс явно сигнализирует о том, что было повреждение
Alexander
ага, то есть какие-то скрипты/программы, которые попытаются прочитать эти участки, не смогут это сделать без ручного вмешательства потому что ZFS явно скажет, что тут всё сломано?
Fedor
Да.
Alexander
понял, спасибо)
Fedor
Скажет в виде io error вроде
Fedor
И подрастут каунтеры ошибок
George
Если важна надежность, я бы не стал так экспериментировать без локальных хранилищ.
а потом человек приходит в клауд флуд и говорит что "а в чатике зфс сказали что менее надёжно")))