Владимир
Цифры
все замеры делались мною года 3 назад, сейчас у меян всё на ZFS
Владимир
я не могу вам предоставить цифры, но вы сами можете их получить если не поленитесь и выполните тесты
Vladislav
И если мы говорим про "высоконагруженные БД", то мы говорим про enterprise level диски и HDD
Владимир
И если мы говорим про "высоконагруженные БД", то мы говорим про enterprise level диски и HDD
я уже подчеркнул выше что у меня был очень негативный опыт с плохими дисками, и подчёркиваю что да, диски нужны нормальные
Vladislav
Если сравнение идёт между nvme "500ГБ Aliexpress 100000% write speed" за 5$ и HDD enterprise WD 330, ля, классное сравнение спасибо
Владимир
как было до, и как стало после внедрения zfs
Владимир
как вообще можно сранвивать разношёрстное железо
Владимир
или вы теоретик?, я практик
Vladislav
Ибо там HDD
Владимир
Владимир
и там не mirror
Vladislav
А SSD массивы все на mdadm\lvm
Владимир
Да?)
Vladislav
Владимир
какой тип vdev?
Vladislav
Я самоубийца делать raidz1-2-3 на таком количестве HDD (36 штук (26 data + 10 spares))? Я не настолько любитель низких скоростей
Владимир
mirror, raidz1, raidz2, другой вариант
Vladislav
какой тип vdev?
Там 13 зеркал
Владимир
Я самоубийца делать raidz1-2-3 на таком количестве HDD (36 штук (26 data + 10 spares))? Я не настолько любитель низких скоростей
ну я просто подумал что может причина почему вы говорите про плохую скорость как раз в этом))
Владимир
Там 13 зеркал
и скорость массива будет ограничена скоростью самой медленной пары))
Vladislav
? ZFS на nvme я тестил поверх 6x nvme PM9A3 1.92ТБ с 256 ГБ оперативы Где сравнивал stripe-s
Владимир
вы же в курсе про это?
Владимир
Это 13 пар одинаковых дисков
у меня нет в работе на столько больших масивов, обычно не более 3х зеркал, может есть какие-то особенности в больших массивах, не могу знать
ViP
https://www.oracle.com/a/ocom/docs/zs7-2-datasheet-russian.pdf
так ето еще 2018 году было. за 5 лет очень сильно поменялось в плане железа
LordMerlin
А вот когда говорят про БД на ZFS. Это именно линукс БД Типа Postgre и файл лежит в самой файловой системе? Если говорить про миррор из SSD, то если делать mdadm+ext4 и на нем qcow файл диска с ntfs унутре на которой лежит MS SQL база. ТО это драматичнее будет медленнее, чем ZFS Mirror на котором как блочник лежит диск который ntfs + MS SQL?
LordMerlin
БД на ZFS может быть в виде zvol
Верю, я в этом не знаток)
Animal
Тут я ахуел и не понял
ну если я правильно понял у чела там пачка "слоев" слоев получилась. Фс на кукоу на мирроре а сверху бубенчики...
Михаил
Коллеги, простой #вопрос . Сейчас я решаю задачу по подключению хранилки через ZFS over ISCSI. LIO не подошел из-за одного досадного бага при клонировании дисков. К TrueNAS так же возвращаться не хочется. В списке выбора IET это open-iscsi или какой-то другой провайдер?
Михаил
open-iscsi это LIO
это который пакет targetcli-fb
LordMerlin
ну если я правильно понял у чела там пачка "слоев" слоев получилась. Фс на кукоу на мирроре а сверху бубенчики...
Хоспадя, спросил про влияние zfs именно напрямую если база лежит в ней как файл или как zvol и опосредовано, если там виртуалка. Все такие умные. Ну давайте, как правильно крутить mssql в виртуалке?
Vladislav
open-iscsi это LIO
Ладно, нет
Vladislav
это который пакет targetcli-fb
https://scst.sourceforge.net/comparison.html
Vladislav
open-iscsi это вообще клиент вроде как
Vladislav
Ну и управлялка для LIO
Vladislav
А вообще, оба вопросы очень косвенно относятся к ZFS @EvgenyKus @CMAPTu
Vladislav
Хоспадя, спросил про влияние zfs именно напрямую если база лежит в ней как файл или как zvol и опосредовано, если там виртуалка. Все такие умные. Ну давайте, как правильно крутить mssql в виртуалке?
Но отвечая на него Собрать стенд, проверить несколько файловых систем и реализаций, выбрать наилучшую по производительности\надёжности\удобству использования
Михаил
А вообще, оба вопросы очень косвенно относятся к ZFS @EvgenyKus @CMAPTu
Ок, прошу прощения. В чате по Proxmox я так же задавал этот вопрос. Там помощи не дождался.
LordMerlin
А вообще, оба вопросы очень косвенно относятся к ZFS @EvgenyKus @CMAPTu
Да, согласен. Просто первая часть вопроса про базу именно по сабжу. Вторая, про абстракции - да, оффтоп.
Ivan
Ок, прошу прощения. В чате по Proxmox я так же задавал этот вопрос. Там помощи не дождался.
в чате пару человек только zfs over scsi юзают. экзотическая штука из-за того что подержки железом нет.
LordMerlin
Хз 😂 но смысл qcow на zfs. Не вижу. У меня есть одна виртуалка с win 10прям на zvol. Но без мсскуэля.
Ээээ. А вгде я такое сказал? Перечитайте пожалуйста. Вся проблема отвечающих, что ни будь написать первым.....
Animal
qcow с zfs вообще не связан никак
zfs сама по себе cow. И поверх еще cow? Ну хз
LordMerlin
qcow с zfs вообще не связан никак
Как это, а тот самый COW? ))))
Vladislav
Хотя бы схемки запили бы, если никак не получается сформулировать нормально
LordMerlin
Хотя бы схемки запили бы, если никак не получается сформулировать нормально
Все я там нормально спросил. Ладно. Заканчиваем оффтоп.
Vladislav
Если вопрос как крутить MS SQL поверх ZFS - Вариант 1. Предпочительный 1) На Linux создаёте zvol 2) Резервируете для БД ОЗУ со стороны виртуализации 3) отдаёте zvol через kvm\qemu адаптер как диск 4) профит Вариант 2. Странный. 1) Создаёте диск qcow на zfs пуле.
LordMerlin
Таки да. Использую первый вариант.
LordMerlin
Тюнинг по вкусам
Чего именно?
Михаил
Если вопрос как крутить MS SQL поверх ZFS - Вариант 1. Предпочительный 1) На Linux создаёте zvol 2) Резервируете для БД ОЗУ со стороны виртуализации 3) отдаёте zvol через kvm\qemu адаптер как диск 4) профит Вариант 2. Странный. 1) Создаёте диск qcow на zfs пуле.
У меня был как-то вариант, похожий на 2: zfs расшаренный через nfs, на котором создавались qcow2. Девопсы пытались это сразу в прод пихнуть. Общая производительность дисковой в гостях была крайне низкая.
Vladislav
Насколько я помню MS sql - 64k volblocksize, dedup off, compression lz4, префетч можно делать агрессивней (смотря сколько памяти доступно)
Georg🎞️🎥
Ну а что делать )) место нужно )) скорости хватает вообщем то ))
Autumn
Ок, прошу прощения. В чате по Proxmox я так же задавал этот вопрос. Там помощи не дождался.
я не видел вопроса, но думаю что никто так зфс на проксе не гоняет, ну или очень мало кто, все его крутят локально прямо на проксе и юзают сразу датасет или звол
Autumn
У мен так 🤣🤣🤣👋raidz на 60 винтах ))
Я вот себе тоже задал вопрос, как по другому? В том же чате про прокс я кидал свежие тесты, там есть рейд60 против рейд10 на шпинделях, могу кинуть сюда, но тест был под виртуализацию и бэкапы прежде всего сравнить разные варианты организации пулов, так что не для всех актуален. Касательно шпинделей и рейд 60 против рейд 10, каждый может оценить скорость, но результат по объему дискового явно не в пользу 10-го.
Autumn
В принципе тест ради этого и затевался, потому что надо под связку прокс+зфс взять в ЦОДе сервера, а там железо максимум на 10 ссд и вот меня жаба просто придушила на 3.8 или 7.6 ТБ ссдхах делать 10-й рейд на двух зеркалах. Просрать столько дискового рука не поднимается.
Vladislav
Зеркало это всегда надёжность в 1 диск
Autumn
И зеркало - это же два диска в зеркале унесут все , так что и к надёжности этого вопрос
ну я для 48 шпинделей использовал трипл миррор, а так да, это дичь 10-20 ссд в зеркале где гарантированно только одна выживет, а получить 30% от 100% - да я себя задушу
Autumn
Зеркало это всегда надёжность в 1 диск
вот так и возвращаемся к рейд 60 из z2 по 6 дисков
Autumn
под виртуализацию по моим тестам разницы особой нет с рейд 10, зато профит на емкости ссд фулл флеш пула огромный
ViP
всем привет! Немного запутался, если я хочу создать пул zfs raid10 надо предварительно подготовить диски в parted GPT 1 4096MB 1920GB 1920GB primary zfs raid