Fedor
системный
Их развелось как мух за баней кстати.. надо б почитать про них
central
Зфс читает весь блок при каждом ио
под капотом можно прочитать вообще весь диск одним разом, однако с точки зрения софта ничего не изменится
Василий
последовательное это чтение блоков один за другим: блок N, N+1, N+M где M количество блоков, рандомное чтение, это чтение в случайном порядке, хз, зачем сюда приплетать recordsize и все остальное
потому что если ты будешь слать последовательно запросы прочитай мне один блок 4кб - то ни о каких 3.5гб/с на нвме ты не получишь. особено учитывая, что ссд в принципе пофиг с какого места кусок читать
Василий
порядком доступа
ссд пофиг последовательно. там нет перемещения головок
George
ссд пофиг последовательно. там нет перемещения головок
ну если вы подменяете понятия, то диалога не получится, удачи вам
Fedor
ссд пофиг последовательно. там нет перемещения головок
Те же переключения там тоже небесплатны, хоть и не так влияют на производительность
George
nvme как протокол потому и появился, чтобы снизить накладные расходы на каждый запрос + количество параллельных запросов максимизировать
Fedor
Там меньше проявляется этот эффект - и всё. Чистая физика.
Fedor
Это я про хдд/ссд
George
плюс возвращаясь на уровень приложений - подавляющее большинство ПО оперирует блоком 4К до сих пор, увы
Fedor
В отношении производительности зфс- видел продукт на 10миопс
Fedor
Так что не такая уж она и медленная
central
В отношении производительности зфс- видел продукт на 10миопс
а что есть из сопоставимого по IOPS-ам на других ФС?
Fedor
плюс возвращаясь на уровень приложений - подавляющее большинство ПО оперирует блоком 4К до сих пор, увы
Планировщик мерджит, и очереди в целом справляются относительно. Размер ИО в среднем по больнице 50на50 виндов и линуксов где-то 32-64кб
Fedor
а что есть из сопоставимого по IOPS-ам на других ФС?
Я говорю про решения :) Вот лвм столько может и не вытянуть, хотя может я его не до конца дотюнил
George
Планировщик мерджит, и очереди в целом справляются относительно. Размер ИО в среднем по больнице 50на50 виндов и линуксов где-то 32-64кб
всё верно, и префетчер везде есть тоже именно по этой причине. Я просто хотел подчеркнуть, что тут минимум 3 места с разным поведением - приложение, ядро, ФС
George
Планировщик мерджит, и очереди в целом справляются относительно. Размер ИО в среднем по больнице 50на50 виндов и линуксов где-то 32-64кб
эх, такие бы кандидаты к нам приходили на собесы) большинство даже не знает про синхронную/асинхронную запись
George
не то что про весь pipeline
Fedor
Эх) Я может пообщался бы кстати, если Москва. Судя по тому, что видел, задачки у вас интересные :) Да или просто пивка условного попить.
George
Эх) Я может пообщался бы кстати, если Москва. Судя по тому, что видел, задачки у вас интересные :) Да или просто пивка условного попить.
пошёл в личку. Если кто ещё желающие пообщаться по работе с нами - тоже в личку стучитесь, пример позиции https://team.mail.ru/vacancy/17089/ , на этом оффтоп закончу✌
George
интересно про sdn почитать
вот доклад от моего коллеги https://www.youtube.com/watch?v=iqSXRZ8b_bk
Ivan
спасибо
Василий
я вот знаю что летсенкрипт, таймвеб, клоудфлер, сбер такси —- на зфс)
а можно про клоутфлер? а то нагуглить ничего не смог
Ivan
вот доклад от моего коллеги https://www.youtube.com/watch?v=iqSXRZ8b_bk
тут очень высокоуровневое описание
George
тут очень высокоуровневое описание
да, там в основном про control plane, можете в личку вопросы задавать если есть конкретные
werter
Список WD hdd с CMR для ZFS https://documents.westerndigital.com/content/dam/doc-library/ru_ru/assets/public/western-digital/product/internal-drives/wd-blue-hdd/product-brief-western-digital-wd-blue-pc-hdd.pdf
Alexey
Всем привет, подскажите как ZFS работает поверх LVM ?
Alexey
Спасибо, ответ очень доходчивый ответ, а какие доводы я могу привести архтектору, что так делать не стоит (кроме задержек)?
central
если прочитать определение zfs можно понять что в нем присутствует "and volume manager" а lvm Это volume manager
Alexey
Всем спасибо)
Олег
pool destroy -f data3 cannot destroy 'data3': pool is busy он уже umount и точно не чем незанят lsof не показывает отркытых файлов zfs unmount data3 cannot unmount 'data3': not currently mounted Перезагрузка крайне нежелательна, вопрос что можно еще сделать?
Alexander
Добрый день, а какие решения существуют для HA с ZFS кроме Lustre ?
nikolay
https://forums.servethehome.com/index.php?threads/nfsv3-vs-nfsv4-vs-iscsi-for-esxi-datastores.23203/
nikolay
интересные показатели
Василий
интересные показатели
"The zfs dataset (for NFS) and zvol (for iSCSI) both had zfs sync=disabled."
Василий
NFS быстрее чем VMFS)
Василий
хотя да, для нищебродов и тестов, нфс рулит (сам такой)
Alexander
А кроме коммерческих типа Nexenta ничего нет?
Alexander
NFS быстрее чем VMFS)
VMFS - вообще тормозятина, особенно со снэпшотами, да еще снэпшоты глючные, могут не смержиться до апгрейда до новой версии. Какой смысл вообще использовать этот ESXi, когда есть KVM? ESXi нода стартует только полчаса почти со всеми инициализациями и монтированиями. А KVM раз в 10 быстрее.
Ivan
🤦‍♂️
честно говоря со снапшотами vmfs проблема имеет место быть
Alexander
честно говоря со снапшотами vmfs проблема имеет место быть
Ну во первых , если уж мы хоти поговорить тут о виртуализации, какого рожна держать снапшоты виртуалок? Зачем?🤦‍♂️
Alexander
Вы ман хоть откройте к виртуализации , или кб шечку, там написано , как использовать снапшоты
Alexander
Ivan
Вы ман хоть откройте к виртуализации , или кб шечку, там написано , как использовать снапшоты
даже в рамках создал снап-сделал бэкап-удалил снап порой возникают проблемы
Alexander
Вот серьезно?🤣
Ivan
Какие?
зависает и не удаляется. или в лучшем случае не создается.
Alexander
Как тут любят говорить есть пруф с заведенным кейсом?)) ниразу не встречал такую проблему с удалением снапшота
Василий
Вы серьезно? Кто то долго хранит снапшоты?🤔
ну не долго, но какая разница сколько? ЗЫ: я ) только на зфс правда. но держку год)
nikolay
Как тут любят говорить есть пруф с заведенным кейсом?)) ниразу не встречал такую проблему с удалением снапшота
вам повезло. к проблеме с консолидацией снапшота добавляется проблема с производительностью VM, которая впадает в ступор. но это не для текущего чата обсуждение. лучше в профильный пойти.
Alexander
Хочешь по… ставь квм, где не работает мультипас, что там в нем с миграцией? Что там в нем с на?
Ivan
Вы серьезно? Кто то долго хранит снапшоты?🤔
чую я не стоит показывать скрипт zfs снапшотера, который каждые 15 минут делает снапшот 😃
Alexander
в чатике вима тема частая
Вим не читаю) это взаимодействие апи! В ручную проблем не видел
Василий
Как тут любят говорить есть пруф с заведенным кейсом?)) ниразу не встречал такую проблему с удалением снапшота
снапы бывают не грохаются, ручками грохаются. но думаю это не совсем проблеьа снапошотов
Ivan
https://github.com/zfsonlinux/zfs-auto-snapshot а он и в репах есть
nikolay
чую я не стоит показывать скрипт zfs снапшотера, который каждые 15 минут делает снапшот 😃
возможно народ путает снапы на уровне zfs (схд) и снапы на уровне вирт. машин (vmfs) - это две большие разницы.