George
Но вам стоит сначала понять а нужно ли вам tiered решение, оно редко когда нужно просто так
George
Ну диски курят, только нвме нагружен
George
util норм
George
значит вам и tiered решение не нужно)
Николай Орлов
вопрос немного не по теме, подскажите у кого есть опыт хочу прикрутить на сервере что то типа iscsi, штука очень прикольная, но есть ограничения по одновременному доступу с нескольких машин. В какую сторону можно посмотреть или samba наше все?
central
Ivan
Николай Орлов
консультант плюс будет стоять
LordMerlin
А значит винда, а значит самба
Николай Орлов
понравилась идея с тем что диск подклбчается как внутренний
Николай Орлов
Ivan
central
Николай Орлов
я вас услышал, спасибо, попробую самбу
Николай Орлов
думал может есто что-то интереснее
LordMerlin
Клиентов то сколько? Если 1 то пусть будут iscsi
Николай Орлов
Николай Орлов
Ivan
минимум 3
оно не законфликтует оттого что кто-то файл занял ?
Николай Орлов
LordMerlin
Если Ч+З то только САМБА, а если ридонли то и iscsi ВЗЛЕТИТ
LordMerlin
Но лучше САМБА)))
LordMerlin
Главное сделать СМБ2 или даже СМБ3 чтобы было. Там скорость прилично поднята
Николай Орлов
nikolay
Ivan
еще у zfs+samba есть очень удобная фича - поддержка shadow copy из снапшотов
https://github.com/zfsonlinux/zfs-auto-snapshot/wiki/Samba
Николай Орлов
nikolay
Николай Орлов
ну не в смысле база данных)))
Николай Орлов
не совсем правильно выразился
Ivan
Николай Орлов
да
Николай Орлов
на одной машине обновил допустим систему, вторая ничего не увидит пока не переконектишь
nikolay
да
если речь идет о том что приложение на клиенте не может подключиться к базе или отваливается в процессе работы, то надо смотреть что в логах на клиенте относительно smb шары. если есть ошибки указывающие на временную недоступность, то проверять настройки шары на сервере. также посмотреть логи на сервере и погуглить в плане настройки samba под файловые базы 1с и/или аналогичного приклада.
nikolay
ну и сеть - могут быть проблемы с сетевой связанностью если шара становится временно недоступной на клиенте. но это обсуждать в чате по zfs не вижу смысла.
Николай Орлов
всем спасибо
nikolay
народ, подскажите в illymos команда zpool iostat с какого момента начала понимать ключи -l или -q ?
nikolay
судя по https://www.illumos.org/issues/11682 примерно год назад, это верно?
George
хех, на OpenZFS Leadership meeting сейчас обсуждают использование S3 как бэкенд для ZFS
George
для кейса баз данных
George
и, на удивление, предполагаемая схема выглядит рабочей и даже не дерьмом (группировка блоков в крупные объекты, локальные ARC для чтения и SLOG для синхронной записи)
Evgenii
а s3 умеет как блочное устройство подключаться? или в zfs хотят внедрить слой логики, которому это будет не нужно?
George
ооо, и этот же подход на SMR диски отлично ложится
George
George
Evgenii
это прикольно ))))
George
вообще, с подходом жирных TXG это даже не смотрится полным ужасом
Evgenii
Evgenii
большая группа транзакций?)
Evgenii
Мне кажется Безос должен вам заплатить за эту фичу :) он озолотится, если она появится
Evgenii
хотя s3 щас не только у Amazon, это уже промышленный стандарт. Они кстати судились из за того, что многие начали копировать их API, но проиграли
Roman
nikolay
Eugen
Всем привет. Помогите разобраться с поведением или это баг в zfs.
Есть пул на 1000 гигов.
На нем я не могу создать 2 толстых файловых системы zfs на 500 и 600 гигов (refreservation = 500 и 600 гигов соответственно). И это правильно.
НО
1 создаю толстую ФС на 500 гигов
2 включаю на ней дедупликацию
3 заливаю туда 200гиг, т.е. 20 одинаковых файлов по 10 гигов
4 наблюдаю картину что реально записалось чуть больше 10 гигов на пул и коэф дедупа 20
5 вижу что 190 гигов толстая фс вернула пулу , потому что у пула свойство available увеличилось примерно на столько.
6 создаю вторую толстую фс на 600 гиг, zfs разрешило создать
8 на пуле ещё 90 гиг свободных вижу
9 удаляю все данные с дедуплицированной толстой фс
10 я так понимаю она пытается себе назад 190 вернуть
11 вижу что те 90 свободных из пула исчезли , на пуле стало 0 , но откуда ещё 100 гигов удалось взять ????
12 результат следующий , что не получилось вначале сделать , удалось другим путём , у меня 2 Толстых фс 500 и 600 гигов соответственно на пуле в 1000 гигов. Вопрос откуда эти 100 гиг если их физически нет. Получается толстые фс которым предоставлено обязательное пространство делят между собой общее пространство пула ? Что будет с данными если забить и ту и ту фс полностью ? Они перетруться или zfs не даст записать ? Как сумма refreservation 2х датасетов больше чем размер пула ????
Можете пожалуйста объяснить такое поведение???
Рефрезервация это ограничение на запись данных на сколько я помню, то есть резервированный обьем для фс. Просто когда место закончится, то писать больше нельзя будет
Константин
Минимальный объем пространства, гарантированный набору данных, не включая его потомков.
Eugen
Да, но пока место не использовпно физически то выделять можно, даже если у нескольких в сумме обьем больше чем диск
Eugen
Как пример, есть фс с рефрезервацией 350гб, и в ней куча клонов фс с той же величиной, клонов и по 100 бывает, хотя диск всего то 4тб физически
George
George
Всем привет. Помогите разобраться с поведением или это баг в zfs.
Есть пул на 1000 гигов.
На нем я не могу создать 2 толстых файловых системы zfs на 500 и 600 гигов (refreservation = 500 и 600 гигов соответственно). И это правильно.
НО
1 создаю толстую ФС на 500 гигов
2 включаю на ней дедупликацию
3 заливаю туда 200гиг, т.е. 20 одинаковых файлов по 10 гигов
4 наблюдаю картину что реально записалось чуть больше 10 гигов на пул и коэф дедупа 20
5 вижу что 190 гигов толстая фс вернула пулу , потому что у пула свойство available увеличилось примерно на столько.
6 создаю вторую толстую фс на 600 гиг, zfs разрешило создать
8 на пуле ещё 90 гиг свободных вижу
9 удаляю все данные с дедуплицированной толстой фс
10 я так понимаю она пытается себе назад 190 вернуть
11 вижу что те 90 свободных из пула исчезли , на пуле стало 0 , но откуда ещё 100 гигов удалось взять ????
12 результат следующий , что не получилось вначале сделать , удалось другим путём , у меня 2 Толстых фс 500 и 600 гигов соответственно на пуле в 1000 гигов. Вопрос откуда эти 100 гиг если их физически нет. Получается толстые фс которым предоставлено обязательное пространство делят между собой общее пространство пула ? Что будет с данными если забить и ту и ту фс полностью ? Они перетруться или zfs не даст записать ? Как сумма refreservation 2х датасетов больше чем размер пула ????
Можете пожалуйста объяснить такое поведение???
а, у вас обычные датасеты. В общем то да, ЕМНИП резервирование для каждого датасета отдельно происходит, понятие свободного места - динамическое, с включённым дедупом и сжатием возможны такие ситуации, если не следить и рассчитывать "впритык" место.
Ну и понятие "толстая" фс в рамках zfs - это эфемерная вещь, она не более чем пытается зарезервировать заранее место.
Будет проверка жёстче по месту - многие будут выть "почему я снапшот создать не могу, место же есть".
George
так что кратко - включаете дедуп или сжатие - не пытайтесь резервировать больше чем есть по факту
George
просто не резервируйте больше чем есть за счёт дедупа)
Константин
Evgenii
Константин
George
George
вам либо шашечки, либо ехать, в ZFS свободное пространство резервируется виртуально, я выше описал уже
Константин
Все это будет приближенно
Константин
Константин
как будет пространство делиться по итогу в такой ситуации?
Константин
если в лоб создать так нельзя , не позволяет zfs, потому что не хватает места:
size is greater than available space
но через дедуп и такие манипуляции с данными получается зарезервировать больше чем available
Может быть это все таки баг в чистом виде??? и поведение после будет непонятно: либо данные тупо перезапишутся и что то потрется , либо будет ограничение и перевод в какой то момент датасета в редонли и гарантированный минимум, описанный в мане, не является таким