George
Выступал на питерском хайлоаде про ZFS https://highload.ru/spb/2023/abstracts/10158 Уже видео появилось https://www.youtube.com/watch?v=x2XYOOiyhSc
следом ещё один доклад, только с Сербии на английском https://www.youtube.com/watch?v=g4DwezuyNlI слайды bit.ly/serb_zfs_23
George
эту ссылку можно публиковать в крупных чатиках ?
да, без ограничений, мне только интересно где оно появится
Ivan
да, без ограничений, мне только интересно где оно появится
https://t.me/ru_proxmox/233883 чатик не сильно крупный, но всё же.
George
для боевого пула не стоит на файлах создавать вдевы)
George
в общем то об этом и говорит zfs вам
George
ну зачем вам ещё одна фс под фс?
George
технически то всё возможно, вопрос целесообразности
George
ну стоит почитать чем одна команда от другой отличается. attach это добавление миррора к существующему vdev
Станислав
Так в той ошибке предлагает -f добавить
Станислав
Добавление файла навредить может
Станислав
Потому и предупреждает
Станислав
Можно, купив диск)
Игорь
чем грозит добавление миррора через add ?
Тут два варианта: - если мысль сформирована верно, то у вас будет страйп из зеркал, т.е. RAID10 - если мысль ошибочна, то через add зеркало не добавляется, а формируется stripe, т.е. RAID0 - суть сложение накопителей, выдерни любой и массив мëртв. Зато это самый производительный массив.
Станислав
Ivan
Миррор вы добавляете не к пулу, а к vdev
всмысле миррор - два диска как один vdev
Ivan
ладно, до меня дошло. всем спасибо )
Станислав
всмысле миррор - два диска как один vdev
Верно. А RAID10 - это два vdev+vdev, а каждый vdev - mirror
George
чем грозит добавление миррора через add ?
add это ДОБАВЛЕНИЕ нового vdev. По стечению обстоятельств новый вдев может быть сразу миррором, raidz и тд (или просто страйпом)
George
attach это ПОДКЛЮЧЕНИЕ нового диска в виде миррора к СУЩЕСТВУЮЩЕМУ vdev
Игорь
Если к пулу RAID10 добавить ещë один mirror, то добавится ëмкость пула, но он по-прежнему будет RAID10. Извлечь потом будет нельзя в текущих версиях, хотя такие доработки есть в планах, вроде, но не знаю, в каком состоянии.
George
Станислав
Точно, про ashift забыл
Игорь
Если в пуле только мирроры, то можно извлечь, если места на оставшихся vdev достаточно
А другие типы RAID добавление и удаление накопителей ещë не умеют? Читал, что будет. Так и не понял когда.
Игорь
Ivan
* если только мирроры/страйпы И ashift у всех один и тот же
зачем позволять ашифт отличный от имеющегося делать ? по хорошему такое надо запретить или через форс.
𝚔𝚟𝚊𝚙𝚜
Всем привет. В рамках знакомства с Talos, пытаюсь собрать модуль ZFS под него. У меня возникла тупая проблема с зависимостями: 1.913 configure: WARNING: cannot find tirpc via pkg-config or in the standard locations 1.913 configure: error: in `/tmp/build/0': 1.913 configure: error: neither libc sunrpc support nor libtirpc is available, try installing libtirpc-devel саму libtirpc я нашёл, скачал и распаковал но вот как передать её ./confiugre скрипту я что-то не пойму
𝚔𝚟𝚊𝚙𝚜
мне же не нужно её предварительно собирать?
Mikhail
талос совсем пустой - там вообще всё надо собирать (
𝚔𝚟𝚊𝚙𝚜
талос совсем пустой - там вообще всё надо собирать (
Мне нужен только модуль, там вроде не так много зависимостей, или я ошибаюсь?
Mikhail
У libtirpc по моему зависимостей нет - её тебе по идее надо собрать
Mikhail
Может быть попросит rpcbind
𝚔𝚟𝚊𝚙𝚜
талос совсем пустой - там вообще всё надо собирать (
В общем кажись получилось https://github.com/siderolabs/pkgs/pull/763/files
𝚔𝚟𝚊𝚙𝚜
Никакого libtirpc не нужно, если собираешь с --with-config=kernel
Georg🎞️🎥
Подскажите, пожалуйста А сколько нынче можно выставить L2arc write max и boost .. чтобы он работал «на все деньги» :)))👋
Georg🎞️🎥
12 Mb =))
Я 50 поставил 😱😱
Aleksandr
Georg🎞️🎥
Побагатому
Диск должен тянуть🤔 даже 200🤷🏻‍♂️
𝚔𝚟𝚊𝚙𝚜
inqfen
Нигде не видел талос кроме как под куб
inqfen
А в нем зфс кмк юзлесс
𝚔𝚟𝚊𝚙𝚜
Но зачем
Не стану скрывать основная затея была в том, чтобы разобраться с тем как подпихивать сторонние модули ядра. Юзкейс пока что могу назвать только один - LINSTOR и другие CSI драйверы, которые могут использовать ZFS как бэкенд хранения
inqfen
Ну такое еще ладно
inqfen
О кстати, ты у нас линстор мастер же, можно на тебя с несколькими вопросами в лс через пару дней напасть?
inqfen
А то как раз дрбд сетаплю и несколько непоняток
inqfen
Раньше было пофиг, а сейчас там трафика под гигабит будет наваливаться и по разным сайтам физически
Shaker
Не стану скрывать основная затея была в том, чтобы разобраться с тем как подпихивать сторонние модули ядра. Юзкейс пока что могу назвать только один - LINSTOR и другие CSI драйверы, которые могут использовать ZFS как бэкенд хранения
Неплохая затея, наверное. Я часто видел, как данные на zfs умирают из-за разных проблем с памятью/проводами. Далее CKSUM ошибки, и спасает только бэкап. Вопрос как тут поможет drbd конечно, но вдруг )) Ошибок там великое множество, по разным причинам, можно только удачи пожелать в написании csi.
Shaker
А что рассказывать ) с одними ошибки , с другими нет. Это не самая большая боль, но ведёт к проблемам.
Artem
Электрика - наука о контактах!
Shaker
Часто бывает ?
В целом, раза 2 в год. А потеря данных из-за софт ошибок с zfs, раз в год. На каком-то из zfs инстансов раз в квартал что-то приходится «чинить». Сейчас в топе перегрузка интерфейсов сас по полосе, из-за чего приходится схд с последовательным подключением подключать параллельно. Иначе в пиковых нагрузках происходит read timeout и zfs выкидывает диски в offline.
Shaker
Софт ошибки - это какого рода ? Перегруз по полосе - это когда на hba к примеру висит много винтов/// полок через чур и контроллер не тянет нагруз ?
Да, у нас до 5 полок на 1 hba с резервированием канала. Но разделено на два сервера-контроллера, multipath не используем. Винты стали делать быстрые ))) И текущих каналов не хватает, мечтаем о 24G.
Shaker
Сейчас сокращаем до 2 полок на канал. Увеличиваем контроллеры. Ощущается небольшой архитектурный тупик )))
Fedor
а что за память стоит?
Fedor
в бмц насчет нее ничего в логах нет?
Shaker
а что за память стоит?
Да обычная серверная ECC DDR4 2666
Fedor
тогда надо ее менять, я думаю, или саму платформу проверять
Shaker
Это уже не первый случай, я же говорю, со временем память может умирать. И это уносит часть данных ZFS
Fedor
но это точно не софтовая проблема
Shaker
Ну, понятно как это работает. Однако защиты от этого не хватает. В этот раз унесло около 12TB.
Fedor
можно попробовать прочитать сбойные блоки, там где-то битик один поменялся во всем блоке - и блок считаетс поврежденным
Fedor
с другими фс эти потери такого рода тоже были бы, но они были бы незаметны
Алексей
Ребята, всем привет. у меня raidz2 из 16 дисков по 16 тб (если это важно: рекордсайз 1МБ, заполненность 75.2%) все программы которые могли бы обращаться к пулу выключены. все диски читают по 250-280 операций в секунду в среднем скорость ресильвера ~80мб/сек, а это значит что процесс закончится где-то через месяц. слишком долго. как улучить скорость ресильвера, и/или почему может быть так медленно?
Shaker
можно попробовать прочитать сбойные блоки, там где-то битик один поменялся во всем блоке - и блок считаетс поврежденным
Да, пофиг. Мы наученые опытом, храним в разных местах сразу по зонам ))) Это так, к слову о стабильности и мыслях drbd+zfs ))
Fedor
это правильно)
Алексей
CPU какой ? Что еще на сервере ? Какие BPN/HBA ?
Intel(R) Xeon(R) CPU E5-2666 v3 @ 2.90GHz LSI 9201-16i