Arseniy
Все там лежит так, как и в гуе... развернул снапшот датасета virtual_machines
Arseniy
Как можно видеть, датасет развернулся, а вот внутри него нет ни одного ZVOL... В гуе аналогично. Вот я и пытаюсь понять
Станислав
Выполнение снимков вышестоящего датасета рекурсивно разве не предполагает сохранение состояния всех вложенных датасетов? Нет, не rollback. Создал клон, развернул рядом
В вашем контексте рассматривайте каждый датасет и zvol как отдельный, не важно куда он вложен сейчас. Рекурсивный снимок означает, что вам не нужно на каждом делать аналогичную операцию, zfs сделает это вместо вас. Но он не восстановит вложенные структуры вместо вас. Если хотите скопировать датасет/zvol, то скопируйте его индивидуально
George
а вот это уже странно. вопрос к экспертам) @gmelikov
много текста, но zvol это тоже сам по себе датасет же
Arseniy
Понял, значит я ошибался. Спасибо большое всем за помощь и за информацию
Aleksey
Понял, значит я ошибался. Спасибо большое всем за помощь и за информацию
Есть шанс восстановить или это не так критично потерять?
Arseniy
Есть шанс восстановить или это не так критично потерять?
Я уже восстановил из бэкапа. Просто искренне верил, что можно из локального снапа)
central
/report
Group Butler
/report
Reported to 1 admin(s)
Dexex
Короче для syncoid гигабита мало.
Dexex
Пришлось две оптики впендюрить. Капец оно грузит линки
Fedor
зависит от количества новых данных на единицу времени
Fedor
Пришлось две оптики впендюрить. Капец оно грузит линки
если лацп, разгоняться не будет, так как там чаще всего хеширование по срц-дст айпи и порту. будет загружен один из линков в полку, если соединение с сендом только одно
Fedor
он умеет эктив в виде бонда
Dexex
он умеет эктив в виде бонда
Поподробнее - у меня там стоит active
Dexex
То есть с одной стороны пассивные с другой активные.
Fedor
Поподробнее - у меня там стоит active
https://wiki.mikrotik.com/wiki/Manual:Interface/Bonding
Dexex
https://wiki.mikrotik.com/wiki/Manual:Interface/Bonding
У меня swos коммутатор. Так что это не про меня.
Fedor
У меня swos коммутатор. Так что это не про меня.
Тоже умеют, надо мануалы смотреть
Dexex
Тоже умеют, надо мануалы смотреть
Там вообще никаких настроек кроме active, passive и протокола.
Fedor
А, так это оно и есть
Dexex
А, так это оно и есть
Федор, да я хз. Там они в группе, ничего там выбрать нельзя. Ща покажу. Чего там настраивать, там этого ничего нет
Dexex
вот
Dexex
static - просто задать группу в ручную. Вот и все
Fedor
Этого достаточно, да. Не будем оффтопить.
Vladislav
Вот помощи в настройке микротика я не ожидал тут увидеть Особенно учитывая, что человек не способен открыть документацию
Dexex
Вот помощи в настройке микротика я не ожидал тут увидеть Особенно учитывая, что человек не способен открыть документацию
Вот не надо передергивать. Я открывал и там этого ничего нет, что доступно в routeros. Что мы тут и выяснили по итогу.
Nikita
/report
Group Butler
/report
Reported to 1 admin(s)
Dexex
Все же лучше не да нет, но передернуть, чтобы в чате не нервничать.
Да я посмотрел, в том то и удивление было, что мне начали предлагать варианты и говорить, что можно. https://wiki.mikrotik.com/wiki/SwOS/CSS326#LAG Мне сказали, что я не умею читать документацию. Это как заболевание называется?
Dexex
Недопередергивание.
Хорошо Жень я понял
Илья
Вот не надо передергивать. Я открывал и там этого ничего нет, что доступно в routeros. Что мы тут и выяснили по итогу.
Не переживай Владислав Лосев, очень душный тип, его лучше не о чем не проситть))
Vladislav
Vladislav
А ещё предоставлять всю информацию об их проблеме включая логи Какой же душный
Dexex
Да, заставляю людей смотреть гугл и документацию
Так она полностью сказала то, что изначально сказал я. Потому я и уточнял, поскольку нет такого в мануале)
Dexex
Мне не понятен вот такой момент. Если я ставлю active с двух сторон, то так есть правильно, или все же лучше одну сторону в passive, а вторую в active? У меня cisco 2960 >> CSS326
Dexex
Короче со стороны cisco тоже стоит active, все работает. channel-protocol lacp channel-group 4 mode active
Dexex
Ладно забейте. Если знаете просто момент интересен.
Алексей
я точно в микротик чат смотрю? 😃
Vladislav
во всем виноват он @neurox )))))
Konstantin
Коллеги! Подскажите, есть следующая конфигурация 14 x 2.2 TB SAS HDD HPE 4 x 2.9TB SAS SSD Создал сейчас raidz2 конфигурацию из HDD, хочу добавить ssd как cache, log, пока что профиля нагрузки на зфс нет, пытаюсь посмотреть что можно из этого выстроить (кофнигурацию изменить/заменить нет возможности) уже всё куплено и запущено. Вопрос касательно log, вот мне эти ссд размером в 2.9 ТБ вообще, не пришей кобыле хвост, они как будто бы оверхед тут, я могу их полностью отдать под лог в мирор два из них полностью не повлияет ли это на что-либо ? Или всё таки создать мне разделы условно в 16гб и зеркалировать уже их.
Konstantin
оперативной памяти в сервер 256Gb, кроме как ПО, которое будет активно писать на этот zfs pool ничего не будет
Алексей
Было бы неплохо дождаться профиля нагрузки чтоли
Fedor
Что за софт?
central
/report
Group Butler
/report
Reported to 1 admin(s)
Sergey
banofbot пригодился бы может
Alex
Alexander
это откуда такие цифры?
мне кажется это очевидно, но если вам не доступна математика 8 класса то вот: 8*1024*1024/300/3600 = 7.76 с учетом того что у вас довольно идеальный hdd и дает писать всегда 300мб сек
Alexander
Ну приведите свои вычисления, может у вас есть лучше метод подсчета?
llacqie
хамло. мало того, еще и не разбирается в вопросе. Пшел в сад.
Объясните пожалуйста в чем он не прав, мне его вычисления кажутся правильными
Alex
Объясните пожалуйста в чем он не прав, мне его вычисления кажутся правильными
zfs не нужно синхронизировать всё устройство, достаточно только занятый объем. За счет этого на пустом пуле, например, ресильвер может длиться секунды.
Alexander
ну граничные то условия тоже надо считать - всегда по худшему сценарию. иначе никакой гарнтии бизнесу дать нельзя.
Alexander
представляете лицо менеджера если ему сказать что массив за минуты восстанавливается, а через 5 лет когда диски забиты один из них вылетит. И влетит это все на 8 часов восстановления? Так и работы лишится можно быстро.
Sergey
dRAID?
Animal
8 часов? Эх....как быстро. У меня вон raidz1 3x6tb за 1 день - 10% ресильвится только ((
Vladislav
ну граничные то условия тоже надо считать - всегда по худшему сценарию. иначе никакой гарнтии бизнесу дать нельзя.
Так, Первое, никогда не будет перестроения рейда с максимальной скоростью диска. Второе, у Вас массив будет отдыхать на весь период ребилда? Третье, если есть zvol, то как бэ он немного большим будет, поэтому всегда стоит считать относительно 80% размера пула. Поэтому наихудший сценарий это 30-50 МБ/с
Vladislav
Объясните пожалуйста в чем он не прав, мне его вычисления кажутся правильными
Человек считает это как - Rebuild rate 100% - Доступ от приложений сверху = 0% - все диски свежие в идеальном состоянии
Vladislav
Объясните пожалуйста в чем он не прав, мне его вычисления кажутся правильными
Я ещё вижу интересную инфу, что ребилд в ZFS идёт как Каждая транзакция в пуле заново записывается на диск https://www.reddit.com/r/zfs/comments/4192js/resilvering_raidz_why_so_incredibly_slow/cz0lqre/
Vladislav
"Basically, it starts with every transaction that's ever happened in the pool and plays them back one-by-one to the new drive. This is very IO-intensive. " Но что-то я не уверен, что это так
Станислав
"Basically, it starts with every transaction that's ever happened in the pool and plays them back one-by-one to the new drive. This is very IO-intensive. " Но что-то я не уверен, что это так
Я тоже сомневаюсь в этом, иначе можно было бы откатиться на любое количество транзакций при необходимости
Vladislav
А это точно не так