Roman
Дедуп очень специфичен и нужен только для одинаковых данных
Владимир
в общем я лично для себя решил что дедупликация мне не нужна))
Roman
Ivan
Владимир
Владимир
внезапно я в курсе про слои, внезапно если есть хоть не большое отличие это уже разные слои
Владимир
и дедуп тут в целом может применяться причём очень легко, ну если бы он не был таким тупым
Василий
Дедуп как стадия взрсления: все проходят через нее
Пока не появится офлайн версия дедупа, он нафиг не нужен
Владимир
он мне на самом деле не то чтобы и нужен был, я просто хотел протестирвоать фичу и забыл выключить её))
Владимир
охренел от аткого наказания)))
Василий
Владимир
Владимир
ещё как выключается
Владимир
zfs set
Владимир
Владимир
и остались я так полагаю до тех пор пока данные не обновятся
Владимир
с таким же успехом можно сказать что сжатие нельязв ыключить
Владимир
сжатые данные то остались
Василий
Василий
Владимир
для меня это не логично, но у меня нет доказательств против твоего утверждения
Василий
Владимир
Δαρθ
кстати про сжатие. оно имеет смысл на быстрых нвме ссд?
Δαρθ
в смысле не станет ли оно основным тормозом?
Fedor
станет, скорее всего
Fedor
на 20-30к иопсов становилось
Serega
Ребят, zfs+kvm. Почему zvol volblocksize рекомендуется 4K, соотвественно page size гостя. При этом для dataset recordsize (128к default) рекомендуеся тюнить под workload, в духе 16к под базу, и больше под другие задачи. Но ведь гость в qcow2 будет по прежнему иметь page size 4k. В чем прикол?
Сергей
Semyon 🌀
Сергей
А какой бест практикс?)
на zfs не использовать qcow2, а размещать гостей в zvol. С нужным размером блока (как например в Proxmox дефолтный blocksize=8k). Или 16к, если очень хочется разместить СУБД внутри ВМки (хотя я против такого), для СУБД как раз лучше подходит контейнер в filesystem с recsize требуемого размера
Serega
вчитался в zfs perf tuning, 4k для обоих recordsize/volblocksize. Чтобы соотвествовало пейджсайзу
Serega
кстати прокс как делает? на каждого гостя по zvol или все вмки в датасете? ну если прокс на одном хосте.
Сергей
Serega
бот не разрешил линк на Джима Салтера запостить. Но вообщем zvol vs qcow это спорно.
я за прометеус переживаю, там 1-2 байта на точку…
Сергей
Serega
бенчмарки проводили?
Сергей
Внутри ВМ, которая на qcow, лежащая как файл на ZFS - ни разу. Внутри ВМки на zvol, да - делал.
Буду очень сильно удивлён если первый вариант окажется быстрее
Serega
Салтер утвердждает что таки быстрее, если выполнен тюнинг под ворклоад.
jrs-s net /2018/03/13/zvol-vs-qcow2-with-kvm/
Сергей
Салтер утвердждает что таки быстрее, если выполнен тюнинг под ворклоад.
jrs-s net /2018/03/13/zvol-vs-qcow2-with-kvm/
судя по треду, где участвует автор:
https://www.reddit.com/r/zfs/comments/846hok/benchmarking_zvol_vs_qcow2_with_kvm/
он тестировал на ВМ, с cache=writeback. Я бы поостерёгся это использовать на ВМ с критичными данными. Да и если почитать тред полностью, то там дальше есть другой тест (в котором тоже участвует JRS)
https://www.reddit.com/r/zfs/comments/86khhr/benchmarking_raw_image_vs_qcow2_vs_zvol_with_kvm/
где результаты уже практически 1 в 1.
ну и я бы учитывал что за 3 года ZFS сделала в своём развитии много больше чем QCOW. Так что тесты нужно проводить заново)
Serega
Нет ничего плохого в writeback. Для критических данных делают кластеризацию на уровне приложения (хотя если много денег то можно и на уровне виртуалки сделать fault-tolerance, но это не cloud-native.) Но вот и я про то что надо тестировать, а не бросаться голословно.
Ivan
Fedor
врайтбек опасен тем, что в какой-то момент он захочет сфлюшить всё, и весь ио встанет.
Fedor
не говоря о том, что подменяются понятия - приложение получило ответ, что данные надёжно зафиксированы, а на самом деле они висят в памяти и могут пропасть в любой момент из-за сбоя питания или среды исполнения.
Fedor
я говорю только про софтовый врайтбек - в аппаратном от второго есть защита.
Fedor
ага. тут надо уже у бизнеса интересоваться пограничными моментами.
Fedor
и врайтбек - это огромное расходование рамы, иначе он будет не быстрее, чем обычное синхронное обращение к дискам.
Ivan
Fedor
да нормально он там живёт.
Fedor
если настроен с умом
Serega
Serega
Владимир
в случае ZFS есть же арк кеш, которого мне пока с головой, кеширование на уровне kvm мне чёт не зашло
Владимир
зачем создавать ещё один слой
Владимир
Кто-нибудь знает минусы использования ZFS под хранение баз мускуля?
Василий
Василий
Владимир
Василий
Смешно, готовить екст4, лол. Видимо ты её умеешь готовить zfs
а что его готовить? выравнять ashift и дофига памяти. дофига памяти . дофига памяти . дофига памяти и все равно он будет тормозить. можно sync выключить и atime, будет тормозить меньше, но будет. можно добавить ssd для лога и ссд для кеша чтения. будет тормозить меньше.. возможно (у меня 180гб ссд на 14тб, папдания в кеш мизерные, а если синк выключен, то лог на ссд понту пихать нет)
Василий
вы же sync=enable гоняете? :)
Владимир
Владимир
Попадания в кеш
Владимир
Чивооо
Василий
Владимир
Я вырубаю арк кеш для волюма с мускулем
Владимир
Какой же болван использует арк кеш в мускуле