Владимир
и повторяю что тут это офтоп
Andrey
как связано отсутствие своп файла с тем что вы написали), Вы что решили что если свапа нет то обязательно должен быть ООМ килл?)), смешно)
Я не говорил, что обязательно Просто это очевидная проблема,которую нужно проверить в первую очередь
Владимир
Я не говорил, что обязательно Просто это очевидная проблема,которую нужно проверить в первую очередь
очевидно что лучше посмотреть дескрайб подов и увидеть причину их рестартов, а не пытаться угадать))
Lone
Привет. Я пишу маленькую программку-инсталлятор и у меня регулярно возникает вот такая ситуация: # zpool destroy -f zroot cannot unmount '/mnt/var/tmp': no such pool or dataset could not destroy 'zroot': could not unmount datasets Это лечится каким-то способом кроме перезагрузки? TIA
Lone
а он у вас вообще есть?
# zpool status pool: zroot state: ONLINE config: NAME STATE READ WRITE CKSUM zroot ONLINE 0 0 0 e99764c3-795c-4ecb-beef-973231976726 ONLINE 0 0 0 errors: No known data errors
central
на этом разделе система стоит?
central
последняя строчка в ошибке то же играет роль
Lone
Да. Когда я запускаю инсталлятор первый раз, то все создается нормально. Когда я запускаю инсталлятор второй раз, когда он должен убить предыдущую конфигурацию, то возникает вот такая проблема.
Lone
boot ставится на отдельный раздел. Собственно, у меня 3 раздела: /boot/efi /boot / - тут zfs
Nikita
возможно df -h что-нибудь скажет...
Lone
/var/tmp - это dataset в пуле zroot, который на момент инсталляции импортирован в /mnt.
Lone
Я каким-то образом манипулируя разными атрибутами вышел из состояния, когда я не могу убить пул, но до сих пор не понимаю почему я попадаю в такое состояние и благодаря чему я могу из него выйти. У меня немного сложная логика, которая работает со всеми файловыми системами и я пытаюсь засунуть в эту схему zfs.
Nikita
Я каким-то образом манипулируя разными атрибутами вышел из состояния, когда я не могу убить пул, но до сих пор не понимаю почему я попадаю в такое состояние и благодаря чему я могу из него выйти. У меня немного сложная логика, которая работает со всеми файловыми системами и я пытаюсь засунуть в эту схему zfs.
попробую аккуратно предположить, что какой-то процесс чем то занимается в tmp и не даёт его размонтировать, нужно смотреть на состояние системы в этом конкретной точке, что примонтировано, что запущено и т.д., в том числе вдумчиво вручную проделать все операции, которые в эту точку приводят.
Lone
попробую аккуратно предположить, что какой-то процесс чем то занимается в tmp и не даёт его размонтировать, нужно смотреть на состояние системы в этом конкретной точке, что примонтировано, что запущено и т.д., в том числе вдумчиво вручную проделать все операции, которые в эту точку приводят.
Никакой процесс ни чем не занимается в tmp. Единственное, что я делаю - дергаю zpool create/import/export/destroy, zfs mount, ну и обычные mount/umount ... А так - да. Метод научного тыка - это наше всё. Ладно. Спасибо за сочувствие. Попытаюсь методом перебора найти работающую комбинацию.
Алексей
Ребята, всем привет. не пинайте больно жизнь заставляет! ДАНО: контроллёр адаптек и 15 блинов в раид6. на этом блочном устройстве развернут пул. батарейки нет, кеширование на запись включено. ВОПРОС: что будет с пулом при power outage, полное разрушение пула или потеря последних условно минут/секунд? заранее спасибо. прошу не говорить что так делать не нужно, я знаю.)
Алексей
В случае с ZFS можно будет откатиться на более старые записи, но ручным образом Но опять же % что это вообще произойдёт
условно решит ли вопрос с разрушением пула делающийся раз в минуту по крону снапшот?
Vladislav
Дать гарантии не могу, ибо мне теперь интересно, что будет если это выпадет на момент записи метаданных
Ivan
условно решит ли вопрос с разрушением пула делающийся раз в минуту по крону снапшот?
нет. контроллер рапортует что всё записалось, а по факту может не записаться что-то
Алексей
нет. контроллер рапортует что всё записалось, а по факту может не записаться что-то
снапшот же есть предыдущей минуты и штук 10 предыдущих тоже!
Алексей
потеря нескольких минут не критична.
Ivan
было же пару историй в духе когда контроллер сдох, то произошел откат на полгода назад.
Алексей
было же пару историй в духе когда контроллер сдох, то произошел откат на полгода назад.
но были ли там ежеминутные или хотяб месячной давности снапшоты. вот в чем вопрос
Алексей
если я правильно понимаю идеологию снапшота в зфс, всё что под снапшотом изменить невозможно никакими операциями поверх него
Алексей
только если там указатели какие-нибудь грубо говоря не будут записаны сбойным образом
Алексей
раз записано, то всё. навека. изменению не подлежит
Ivan
если я правильно понимаю идеологию снапшота в зфс, всё что под снапшотом изменить невозможно никакими операциями поверх него
ты же не можешь сказать контроллеру - "запиши все данные по этому снапу на диск, чтоб я спал спокойно"
Ivan
хз че там запишется а чего нет
Ivan
это при хорошей нагрузке.
Ivan
при мелкой нагрузке скорее всего будет почти линейно писать
Алексей
нагрузка не планируется быть высокой. условно говоря до 20 мегабайт в секунду на все 15 блинов.
Алексей
и столько же на чтение
Ivan
в 6 рейде скорость записи = скорости одного диска, емнип )
Vladislav
Минус ещё такты на вычисление хеш сумм
Ivan
Минус ещё такты на вычисление хеш сумм
пффф, ну это серьезного вклада не вносит
Vladislav
Ну не скажи
Vladislav
нагрузка не планируется быть высокой. условно говоря до 20 мегабайт в секунду на все 15 блинов.
Вопрос, почему не собрать 15 блинов в 0 рейде каждый и собрать raidz2? Или система уже боевая?
Алексей
и кэш выключить ))
слишком медленно получается! до невозможности!
Vladislav
жбода нету там
Я имел ввиду именно просто 0-й рейд, тогда хотя бы можно будет пытаться следить за дисками к примеру
Sergey
нагрузка не планируется быть высокой. условно говоря до 20 мегабайт в секунду на все 15 блинов.
"блины" какие? Какой шаблон нагрузки? Запись каким блоком будет идти?
Vladislav
в каком плане следить?
Как Вы узнаете, что один из дисков приказал долго жить?
Алексей
"блины" какие? Какой шаблон нагрузки? Запись каким блоком будет идти?
блины HGST HUH721010AL шаблон нагрузки рандомное чтение и запись 50/50. размер блока на зфс 4мб, но данные могут приходить как и неск кб так и неск мб.
Sergey
блины HGST HUH721010AL шаблон нагрузки рандомное чтение и запись 50/50. размер блока на зфс 4мб, но данные могут приходить как и неск кб так и неск мб.
я вас очень огорчу, но без slog и special на ссд дай Бог 20МБс получите производительности, а то и меньше
Алексей
я вас очень огорчу, но без slog и special на ссд дай Бог 20МБс получите производительности, а то и меньше
о чем я и сказал. без кеша на запись фактически 100% загрузка без остановки
Алексей
с кешем - на расслабоне
Art
что-то я думаю, что если бы откат на снапшот спасал, то не было бы 100500 предостережений из каждого утюга что нельзя зфс поверх хард-рейда юзать
Алексей
вот я почему то это тоже слышал...
LordMerlin
Мне это предеостережение видится так, что хоть ЗФС и молодец, нго ей надо из чего то собираться. А если у тебя под ней будет аппаратный РАЙД6 и он поломается, развалится, то и ЗФС не из чего будет собираться. Не будет томов доступных.
Georg🎞️🎥
в 6 рейде скорость записи = скорости одного диска, емнип )
Это про iops, а скорости записи / чтения выше 1 винта
Алексей
без батарейки на кэш всякое случиться может
Всякое может и без контроллера случиться. Вопрос именно в разрушении. Будет оно или нет. Или будет только потеря части данных
LordMerlin
Ну тут размышления чисто могут быть если массив живой. Тогда его принимаем как за просто диски. И уже из этого допущения рассматриваем зфс. Просто если нижний уровень, сам массив дохлый то уже ни богфс ни чёртфс не спасет.
Ivan
жаль что не рассматривается вариант сделать нормально
Fedor
Нет гарантий порядка записи старых данных перед новыми
Fedor
Что-то из прошлого тысячелетия может не записаться , хотя новое будет записано
Fedor
Итог - каррапт
Egor
Если бы можно было из ОС принудить контроллер к сбросу данных из кэша на диск - проблема бы легко решалась
Fedor
Из какого тысячелетия? Снапшоты ежеминутные
Порядок записи среднего слоя не гарантирует что старые данные будут записаны ранее новых
Fedor
😁