Василий
Fedor
Alexander
вот. Саня! тру решение
Только VMWare мне еще не хватало.
Тогда уж внутри нее запустить HyperV и внутри S2D, на котором создавать ZFS пулы.
Alexander
Сколько времени я потратил на все эти VMWare, HyperV и т.п. :(
Надо будет взять на заметку как вариант платного сервиса для мелкого бизнеса - миграция со всех этих технологий на KVM и SunOS.
Fedor
По опыту. Есхи ведёт себя очень стабильно в продуманных решениях, никакие проксмокс с ней не сравнятся.
Для бизнеса - самое оно.
Василий
Fedor
Василий
Василий
Василий
Fedor
Fedor
Василий
Fedor
Ха это когда один из серверов может быть штатно выведен из эксплуатации
Alexander
Инструментально сможешь доказать?
У меня есть dd копия пула, она помирает после нескольких скрабов.
Могу продемонстировать на новом исправном оборудовании.
Fedor
Учитывая, на каком оборудовании ты это все делаешь, подозреваю, что дело совсем не в атаках.
Fedor
Василий
ну да, виноват конечно есх)))
inqfen
от хуеруких инженеров в ПФР спасёт только пистолет, всё об этом говорит
Fedor
Fedor
Fedor
Блокировки, сэр
Василий
Alexander
Ты свое железо hcl конечно же не проверял?)
Сервер X3690 не проверял, но очень похожие сервера только в 2 раза толще шли сертифицированными под датацентры.
Но на нем я видел только один розовый экран, другой на Blade S, и еще один на Kraftway.
Ivan
Василий
Ivan
если что kvaps всем поможет )
Ivan
The
The
Стораджа, для вирт-машин
На говнопалках под залог своей жопы — не, я бы лучше предложил бизнесу тырпрайзное.
Если есть возможность, лучше всё же HA через приклад.
Alexander
inqfen
Да, попобавы
Alexander
Alexander
Да, попобавы
Такая:
https://lurkmore.to/%D0%9F%D0%BE%D0%BF%D0%BE%D0%B1%D0%B0%D0%B2%D0%B0
?
А я то думаю, что за Hollywood мне кино показывает по ночам, а оказывается это бэтмен.
inqfen
если еть кеш на запись, то можешь и потерять
Alexander
L2ARC безопасно.
Alexander
Сначала посмотреть: zpool status
Потом:
zpool remove pool_name device_name
Alexander
Да.
Alexander
А вообще-то SLOG из всего одного устройства - это не самая лучшая идея.
И потом под SlOG отдано в 4 раза больше, чем под L2ARC, - совсем неправильно.
Под SLOG достаточно и одного гига.
Alexander
SLOG - это logs, нужно использовать зеркала, потому что если одиночный слог помрет, то будет как минимум потеря данных за несколько последних секунд работы системы.
Раньше при потери слога пул вообще не импортировался, но это давно уже решили.
Alexander
Тогда проще вообще sync=disabled?
Alexander
Зеркало SLOG влияет отрицательно по сравнению с одиночным SLOG и тем более по сравнение с sync=disabled.
Fedor
С л2арк данные не потеряешь, но ИО на момент отключения может встать.
Dmitry
Товарищи, а разъясните, пожалуйста такую вещь. Вот я поставил скраб
scan: scrub in progress since Sun Jul 25 09:08:10 2021
1.77T scanned at 31.3G/s, 16.3M issued at 288K/s, 32.2T total
0B repaired, 0.00% done, no estimated completion time
что означает scanned и issued? В чем отличие?
Alexander
pool: test3
state: SUSPENDED
status: One or more devices are faulted in response to IO failures.
action: Make sure the affected devices are connected, then run 'zpool clear'.
see: https://openzfs.github.io/openzfs-docs/msg/ZFS-8000-HC
scan: scrub in progress since Sun Jul 25 16:53:57 2021
0B scanned at 0B/s, 0B issued at 0B/s, 7.17G total
0B repaired, 0.00% done, no estimated completion time
config:
NAME STATE READ WRITE CKSUM
test3 UNAVAIL 0 0 0 insufficient replicas
sde UNAVAIL 0 0 0
sdf UNAVAIL 0 0 0
sdg UNAVAIL 0 0 0
errors: List of errors unavailable: pool I/O is currently suspended
Ivan
как бы у тебя диски отвалились
Alexander
Может я хочу переподключить диски и создать на них новый пул с таким же именем test3.
Ivan
Ivan
Разве это зависит от дистра?
возможно от версии ядра. вообще в линуксе встречаются подвисания из-за пропажи блочных устройств. фс тут бывает бессильна. посмотри есть ли процессы с флагом D.
Ivan
Alexander
Т.е. для создания нового пула с именем test3 - только reboot?
Наверно лучше использовать ZOL для каждого пула в отдельной KVM гостевухе?
Тогда можно легко отщелкивать мертвые виртуалки с suspended пулами?
Ivan
Alexander
После переполнения свободного места на ext4 контейнерами докера и потом частичной очистки через docker rmi
ext4 ушла в состояние R/O во время первого же очередного билда:
fsck -f /dev/zvol/temp/docker_vol
fsck from util-linux 2.33.1
e2fsck 1.46.2 (28-Feb-2021)
/dev/zd0: recovering journal
Superblock needs_recovery flag is clear, but journal has data.
Run journal anyway<y>? yes
fsck.ext4: Input/output error while recovering journal of /dev/zd0
fsck.ext4: unable to set superblock flags on /dev/zd0
/dev/zd0: ********** WARNING: Filesystem still has errors **********
scrub ничего не находит
"супернадежная" ext4?
Alexander
Откатился на старый снэпшот, ext4 сама не хочет чиниться.
Alexander
Еще и вся виртуалка зависла :(
Alexander
An issue affecting the physical host this Linode resides on has been detected.
We are working to resolve the issue as quickly as possible and will update you as soon as we have more information. Your Linode will return to its previous state once the issue is resolved. Thank you for your patience and understanding.
Alexander
Походу линода сдохла от моих докер билдов с гиговыми контейнерами.
Twissel
Twissel
Alexander
И что, теперь срочно переходить на SmartOS Triton ?
Alexey
/stat@combot
Combot
Total messages: 31733