Dmitry
А лучше, если тестировать предварительно забив данными случайными на два раза
George
Алексей
Dmitry
Тогда вы получите sustained производительность и энтерпрайзы покажут, кто тут папа
Алексей
riv
Да, через ссш это вечность
Я бы не сказал. До 300...500 мегабит разница не особенно заметна.
Причем ssh можно попросить передавать данные с соответсвующин QoS
Сергей
riv
Сергей
riv
Алексей
Dmitry
riv
Сергей
Fedor
главное, чтобы места под снапшот для переноса хватило
Dmitry
Fedor
тогда нормально
Dmitry
Всем спасибо, завтра утром буду пробовать, о результатах отпишусь
riv
понял, они в процессе передачи друг другу шлют подтвержение. Типа rsync, но на уровне самого zfs
Берем датасет
root@htz-vm00 ~ # zfs send -nP zfs-ssd-big/local/proxmox/vm-421-disk-2@backup-2020.09.22-11.55
full zfs-ssd-big/local/proxmox/vm-421-disk-2@backup-2020.09.22-11.55 89590497976
size 89590497976
Посылаем его через пайп, для простоты локально через pv и прерываем через ^C
root@htz-vm00 ~ # zfs send zfs-ssd-big/local/proxmox/vm-421-disk-2@backup-2020.09.22-11.55 | pv --size 89590497976 | zfs receive zfs-ssd-big/resume_test -s
^C.4GiB 0:00:21 [ 537MiB/s] [======> ] 12% ETA 0:02:27
И теперь у нас на destenation появился параметр:
zfs get all zfs-ssd-big/resume_test
zfs-ssd-big/resume_test receive_resume_token 1-1196b77aaf-e8-789c636064000310a500c4ec50360710e72765a5269740f80cd8e4d3d28a5381f20c0e363b98a0f26c48f2499525a9c540baa088611d1316fd25f9e9a599290c0c530b4ed4ba0628bc8d4092e704cbe725e6a6323054a515eb1617a7e82665a6ebe7e42727e6e81714e557e4e657e897e5ea9a1819eaa6641667eb1a39242526679716e81a191819e81958ea1919e91a1aea999a82dd0e0060ab27c8 -
Проверяем сколько осталось:
```
zfs send -nP -t "1-1196b77aaf-e8-789c636064000310a500c4ec50360710e72765a5269740f80cd8e4d3d28a5381f20c0e363b98a0f26c48f2499525a9c540baa088611d1316fd25f9e9a599290c0c530b4ed4ba0628bc8d4092e704cbe725e6a6323054a515eb1617a7e82665a6ebe7e42727e6e81714e557e4e657e897e5ea9a1819eaa6641667eb1a39242526679716e81a191819e81958ea1919e91a1aea999a82dd0e0060ab27c8"
resume token contents:
nvlist version: 0
object = 0x1
offset = 0x2b83c4000
bytes = 0x2ae007270
toguid = 0xed2050457dc87095
toname = zfs-ssd-big/local/proxmox/vm-421-disk-2@backup-2020.09.22-11.55
full zfs-ssd-big/local/proxmox/vm-421-disk-2@backup-2020.09.22-11.55 78081298504
и продолжаем передачу
root@htz-vm00 ~ # zfs send -t "1-1196b77aaf-e8-789c636064000310a500c4ec50360710e72765a5269740f80cd8e4d3d28a5381f20c0e363b98a0f26c48f2499525a9c540baa088611d1316fd25f9e9a599290c0c530b4ed4ba0628bc8d4092e704cbe725e6a6323054a515eb1617a7e82665a6ebe7e42727e6e81714e557e4e657e897e5ea9a1819eaa6641667eb1a39242526679716e81a191819e81958ea1919e91a1aea999a82dd0e0060ab27c8" | pv --size 78081298504 | zfs receive zfs-ssd-big/resume_test -s
^C82GiB 0:00:12 [ 480MiB/s] [===> ] 8% ETA 0:02:17
Я прервал еще раз и теперь токен поменялся
zfs get receive_resume_token zfs-ssd-big/resume_test NAME PROPERTY VALUE SOURCE
zfs-ssd-big/resume_test receive_resume_token 1-12bba4d398-e8-789c636064000310a500c4ec50360710e72765a5269740f80cd8e4d3d28a534b40329b8c58a0f26c48f2499525a9c540dae249b11a0b16fd25f9e9a599290c0c530b4ed4ba0628bc8d4092e704cbe725e6a6323054a515eb1617a7e82665a6ebe7e42727e6e81714e557e4e657e897e5ea9a1819eaa6641667eb1a39242526679716e81a191819e81958ea1919e91a1aea999a82dd0e0043e527a1 -
```
riv
Я запутался в тегах, надеюсь принцип ясен.
riv
Токен как видите действительно длинный
George
George
один тупо срёт в stdout, другой тупо читает из stdin
Сергей
нет, zfs send и recv односторонние
я думал что там подобие rsync. Но тут вручную приходится токены указывать при обрыве. При наличии свободного места проще rsync сделать и на месте принять zvol.
George
т.е. если сильно захотеть - можно каждый второй мегабайт по другому коннекшену слать и собирать потом) но видать такого не делали за ненадобностью
Dmitry
George
George
inverse multiplexer типа
Dmitry
Алексей
Ну чисто технически можно делать скрипт который запросит текущий токен на дстнейшне и подставит в команду сенд
Алексей
Хм блин а это идея
Алексей
И в кого я такой умный 😂
Алексей
Надо будет сделать
Dmitry
Алексей
George
George
Syncoid zfsnap zrepl
riv
Куча решений уже, если что
А ссылочку? Ну или опыт. Я вот все пилю сам. Понимаю, что велосипедостроением занимаюсь, но что делать. Зато я хорошо знаю свойства своих решений.
riv
Ivan
А подскажите как быть с зашифрованными датасетами. Просто так инкремент не докидывается.
Fedor
за это время передалось бы уже, мне кажется
Ivan
да, но мне же нужно понять как работать с шифрованным датасетом. а то вместо передачи пары гигов каждый раз передавать 200-300 не очень хочется.
Fedor
@gmelikov, привет. вроде бы, шифрованные инкременталки должны работать?
George
Fedor
@simubishi собирай стенд, тестируй :D
Fedor
на свежих версиях
George
Ivan
на свежих версиях
не готов выходить из зоны комфорта :D
все что выходит за пределы тестовой репы дебиана - не для меня )
Ivan
Fedor
тогда рсинком :D
Sergey
роде это как раз фишка зфс была, что не надо на принимающей стороне расшифровывать ничего, можно инкрементом зашифрованный стрим слать
Ivan
Ivan
короч -i надо отделить от vw
Ivan
тогда робит )
George
Ivan
вот блин, проигнорил очевидное
Ivan
Autumn
Так что я включаю lz4 обязательно.
Autumn
К слову в некоторых местах после включения наблюдал повышение производительности, но в каких уже не вспомню.
Autumn
Бля сорян. Чето я тупанул.реально читаю шифрование а думаю про сжатие. Надо заканчивать работать :)
Nikita
Господа, сорри за вопрос, ответ на который можно найти в гугле, но всё, что я нахожу выглядит несколько противоречиво.
Нужно экспертное мнение
Nikita
В случае использования zfs on linux, работает ли нативное расшаривание zfs-пулов? Без использования samba, только силами zfs?
Если да - то где почитать корректную доку?
Если нет - где можно почитать про корректное расшаривание zfs-пулов через samba и nfs? Настройку юзеров, прав и т.п.
Nikita
Я долго мучил zfs-ную доку от оракла, но видимо в случае zol она не особо актуальна.
Или руки мои кривы
Или proxmox в своём дистрибутиве намутил каких-то тонкостей.
Nikita
Сценарии использования шареных пулов следующие - общая файловая шара для windows-систем (причем желательно видеть в "теневых копиях" снимки zfs), nfs и samba-шары для линуксовых хостов (общее хранилище кластера, хранение "дисков" виртуалок, вольюмы докеров и бэкапы)
George
smbshare/nfsshare видел хорошую причину только одну использовать - когда нужно настройки таскать в пуле, например на другой сервер через zfs send
Nikita
Огонь, спасибо огромное.
Т.е. насколько я понимаю, корректный сценарий следующий - создаем сабвольюм на zfs пуле, ставим на хост samba, выдаем пермишны системному юзеру на этот сабвольюм, шарим самбой.
Верно?