George
George
ну всё, zfsonlinux теперь официально мейнстрим https://github.com/openzfs/zfs
George
старые ссылки работают, там редирект со старого проекта
Fedor
Есть рекомендации по настройке связок бд и зфс
Fedor
Надо поискать будет
Fedor
Например, чтоб два раза данные не фиксировать :)
Vladislav
Решил таки делать экспорт настроек ZFS пула.
Хочется придумать названия проекту.
Пока придумал названия скриптов zpool_export и zpool_import
George
Vladislav
добавил
Vladislav
Подскажите утилиты синхронизации (типа master-slave) двух пулов на разных машинах
Vladislav
Смотрю zrepl, но он слишком сложный в использовании
Vladislav
мне нужна частая синхронизация, а не автобэкапер по расписанию
George
George
только частотой
Vladislav
типа lsync, но снапшотами
Сергей
Vladislav
Сергей
ему только perl нужен
Сергей
Package: pve-zsync
Version: 2.0-2
Priority: optional
Section: perl
Maintainer: Proxmox Support Team <support@proxmox.com>
Installed-Size: 56.3 kB
Depends: perl:any
Download-Size: 14.9 kB
APT-Sources: http://download.proxmox.com/debian buster/pve-no-subscription amd64 Packages
Description: Proxmox VE ZFS syncing tool
Tool for automated syncing of ZFS subvolumes and pools.
Сергей
Vladislav
Мне нужна проверка на мастере, если файл изменился/добавился в течении короткого промежутка времени, тогда создаем репликацию на слейв
Vladislav
Список пока выглядит так:
zrepl
sanoid
psy0rz/zfs_autobackup
Rsnapshot
zxfer
sysutils/zfs-replicate
sysutils/zap/
George
Vladislav
Вопрос по реогранизации ZFS разделов.
ZFS раздел tank/video занимает 10ТБ, контент в основном лежит во взложенной директории serials
Свободно еще 24T
/tank/video/
serial_fragments/
serials/
video_parts/Нужно как-то один из последних снимков tank/video, малой жертвой, склонировать в /tank/video/serials_new/
Vladislav
делаю клонировние
zfs clone tank/video@2020-03-04_00.01.00--1w tank/video/serials_new
Vladislav
Получаю :
NAME USED AVAIL REFER MOUNTPOINT
tank 10,5T 24,4T 96K /tank
tank/video 10,5T 24,4T 10,3T /tank/video
tank/video/serial_fragments 22,9G 24,4T 22,9G /tank/video/serial_fragments
tank/video/serials_new 0 24,4T 10,3T /tank/video/serials_new
tank/video/video_parts 65,6G 24,4T 65,5G /tank/video/video_parts
Vladislav
Помогло
cd /tank/video/serials_new/serials/
mv * ..
nikolay
кто может подсказать в какую сторону копать? две системы centos7.6.1810 ( 3.10.0-957.12.1.el7.x86_64) и centos7.7.1908 (3.10.0-1062.12.1.el7.x86_64), в каждой собран zfs pool. при подаче нагрузки по разным дискам в произвольном порядке в messages возникают ошибки вида
nikolay
Mar 4 01:09:13 test kernel: sd 0:0:14:0: [sdn] tag#50 FAILED Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Mar 4 01:09:13 test kernel: sd 0:0:14:0: [sdn] tag#50 Sense Key : Hardware Error [current] [descriptor]
Mar 4 01:09:13 test kernel: sd 0:0:14:0: [sdn] tag#50 Add. Sense: Track following error
Mar 4 01:09:13 test kernel: sd 0:0:14:0: [sdn] tag#50 CDB: Read(16) 88 00 00 00 00 00 18 d8 5b a0 00 00 00 28 00 00
Mar 4 01:09:13 test kernel: blk_update_request: critical target error, dev sdn, sector 416832416
nikolay
или Mar 4 14:26:13 tmn-metro kernel: sd 0:0:32:0: [sdaf] CDB: Write(16) 8a 00 00 00 00 01 e0 29 05 00 00 00 00 08 00 00
Mar 4 14:26:13 tmn-metro kernel: sd 0:0:32:0: [sdaf] FAILED Result: hostbyte=DID_TIME_OUT driverbyte=DRIVER_OK
Mar 4 14:26:13 tmn-metro kernel: sd 0:0:32:0: [sdaf] CDB: Write(16) 8a 00 00 00 00 01 e0 29 05 00 00 00 00 08 00 00
Mar 4 14:26:13 tmn-metro kernel: blk_update_request: I/O error, dev sdaf, sector 8055751936
nikolay
zfs помечает диски как degraded или как failed. smartctl ничего криминального не показывает. zpool clear сбрасывает ошибки, пул помечается как чистый, потом по новой. ошибки могут возникать по разным дискам, в том числе по тем, по которым уже возникали.
Vladislav
контроллер или интерфейсный кабель виноват
nikolay
в обоих серверах сразу? два lsi 9305 в одном сервере + две jbod полки. один lsi 9305 во втором + один jbod.
nikolay
в сервере где подключены два jbod по 40 дисков в каждом ошибки идут по дискам в каждой внешней полке.
Gustavo Imputsa
Это сейчас температура 47 у него? У меня такое было при перегреве, сначала разные сектора не читались и clear помогал, потом помогать перестал)
Gustavo Imputsa
Но это на правах кулстори, я не шарю особо.
Ещё такая была история, на блейдовых серверах (с общим питальником) было что то с статикой и отваливался pci синхронно на двух нодах, и кстати этого нет в dmesg по дефолту
Vladislav
Gustavo Imputsa
История: lsi брендированный dell при нагреве уходил в какую то странную защиту при которой на несколько порядков падали иопсы. И температуру там вроде не посмотреть стандартными средствами, только через утилиту
короче я бы посмотрел температуру везде где она есть, особенно на hba
Сергей
nikolay
Сергей
nikolay
еще общий вопрос - имеет ли смысл обновлять драйвер mpt3sas на версию с сайта broadcom? fw дисков обновил, прошивки на hba вроде тоже свежие..
Сергей
nikolay
Сергей
nikolay
на сервере с одной полкой последнее ядро из офф репо и актуальная версия zol к нему.. ошибки пока были один раз по одному диску, сейчас гоняем на нем синтетику и смотрим на результаты.
George
George
George
nikolay
George
George
вот интересный топик по теме с кучей инфы https://github.com/openzfs/zfs/issues/4713
George
вот это смягчает проблему для zfs https://github.com/openzfs/zfs/issues/6885
George
в общем по какой-то причине у вас некоторые диски таймаутятся, в тредах выше есть примеры как люди подключивают таймауты (костыль), посмотрите
George
а конкретные диски или рандомно валятся?
George
если конкретные - проблема с диском, если рандомные - всё, что выше надо смотреть
Konstantin
Привет всем.
#вопрос: Нормально ли использовать FreeNas с огромным объемом RAM, SSD под SLOG и включенной дедупликацией на одном сервере, и при этом делать бэкапы в другой FreeNas/чистый ZFS с ресурсами на несколько порядков скромнее? Собственно вопрос наверно в том, как будет работать при этом дедупликация и сжатие? Умрет ли второй сервер от требуемого RAM для дедупликации большого zpool или zfs как-то умеет "перекидывать" DDT между своими "братьями"?
В целом, хотелось бы услышать, как правильно организовать подобную схему? Данных много, один сервер боевой (с большим кол-вом ресурсов), второй только для бэкапа и восстановления с него (не для пользовательской нагрузки).
Спасибо!
Vladislav
и какая разница в RAM ?
Konstantin
4TB и 128GB например.
Vladislav
с головой хватит бэкапному серверу
Vladislav
dedup и компрессия используют CPU
Konstantin
Я правильно понял, что правило 5GB RAM на 1TB zpool не работает в таком случае?
Vladislav
грубо говоря нет.
Konstantin
А если все таки разобраться? :) Если zpool будет больше 1PB, то как будет жить второй сервер?
Vladislav
грубо говоря 1GB RAM на 1TB zpool + сколько то гигов RAM выделить под горячий кеш
Vladislav
и мониторить через zfs-stats