Станислав
Вы знаете закон Каннингема?)) Сейчас была его наглядная демонстрация, а учитывая Ваше уязвленное мной самолюбие Вы включились активнее всех стараясь дать верный ответ)))
Ничего подобного. Я просто не сразу сообразил про опцию -n, хотя пользуюсь частенько. Просто в чате кто-то отвлекает чушью
Maksym
Коллеги, подскажите пожалуйста! Я посылаю датасет с одного пула на другой в пределах 1 системы. Какой командой можно сделать процесс видимым? Я делал так: zfs send poola/dataset@snap_1 | zfs receive -F poolb/dataset_b/dataset_c
Vladislav
нет
Открываем гугл Вводим zfs send receive progress И видим https://docs.oracle.com/cd/E36784_01/html/E36835/gnheq.html Да, оракл zfs не совсем openzfs, но в общих чертах документацию - можно использовать
Maksym
получилось
Δαρθ
А вот возник глупый вопрос, OpenZFS поддерживает ли парадигму "открыть файл/удалить файл без закрытия"? Ну в смысле если так делать (многие софты так делают) то всё будет как и с другими ФС? А что произойдёт с занятым местом если будет креш?
Δαρθ
сделать rm -f на файл открытый на zfs?
ну типа да. В линуксе тогда пока не закроют FD с этим FD можно работать (писать-читать), а реально место на ФС должно освободиться только когда FD закрыт
Δαρθ
Ну в смысле понятно что такое в целом должно работать, вопрос про то что с занятым местом после креша будет )
Vladislav
Ну в смысле понятно что такое в целом должно работать, вопрос про то что с занятым местом после креша будет )
Нуууу, банальный тест dd if=/dev/random of=./t.6 bs=1M count=1000 fio --filename=t.6 --direct=1 --rw=randrw --bs=256k --ioengine=libaio --iodepth=32 --runtime=120 --numjobs=4 --time_based --group_reporting --name=throughput-test-job --eta-newline=1 и из второго терминала rm -f t.6 - показывает мне, что Ну и фио продолжает работать с файлом
Vladislav
Как только FIO отпустило -
Vladislav
Если в момент пока fio живо сделать power off
Maksym
Уважаемые коллеги! Если переслал снапш датасета командой zfs send, то его в новом месте надо активировать? Дело в том, что послал, а его нет))). Или я закрытием консоли отменил пересылку?
Александр
zfs list -t snap
Александр
Два варианта или не доехал, или не смотрю
Maksym
zfs list -t snap
и он появится?
Александр
и он появится?
А он доехал?
Ivan
Ребята, подскажите, как правильнее сделать. У меня есть пул он шарится по NFS. А также на нем есть много датасетов и парамметры шаринга забираются с пула. Соотвественно у меня у клиентов в KDE в долфине слева в разделе Сеть все датасеты отображены как отдельные шары. А мне нужно чтобы только корневая была и все. Я могу пробежаться по всем датасетам и отключить там шару, или может crossmnt отрубить (т.к. он по дефолту включен). Как правильнее?
Maksym
Вот не вижу его, в листе тоже пусто.
Александр
Вот не вижу его, в листе тоже пусто.
В процессе пересылки команда отработала?
Александр
Или вылезла ошибка?
Александр
Если ошибка, значит не доехал, если ошибок нет, значит доехал, нужно смотреть со снэпами
Maksym
Не знаю, я закрыл гуи с консолью. Думаю это отменило всё.
Ivan
Расскажи мне, причём тут ZFS?
При том что это настроено в ZFS
Maksym
Ну вот вам ответ на вопрос
транзакции или всё или ничего? Там 4тб
Ivan
Прямо или косвенно, не суть важно. Но связано. Вот я и спросил
Vladislav
При том что это настроено в ZFS
ахуеть, а ZFS как связан с тем, как Вы настроили NFS?
Maksym
Нет, да
да-да
Александр
да-да
Ты задал два вопроса, Я на два ответил.
Vladislav
При том что это настроено в ZFS
https://t.me/it_chats В раздел про linux
Vladislav
транзакции или всё или ничего? Там 4тб
Посмотрите активность сети через nmon тот же, если активности нет - процесса нет Если его переслали - смотрите командой выше А вообще, Вы бы фулл команду дали
Александр
Не знаю, я закрыл гуи с консолью. Думаю это отменило всё.
Вот тут процесс прерван, так что велика вероятность отмены
Станислав
Не знаю, я закрыл гуи с консолью. Думаю это отменило всё.
Если закрыть терминал, то прерывается сессия и всё, что отрыто в данный момент под неё. Могут даже прерываться процессы, запущенные с '&', смотря как настроена ОС
Станислав
Используйте screen для таких задач
Maksym
Vladislav
Написать, не совсем картинка, но ладно
Vladislav
Да, закрыв консоль, если нет возможности ввода - Вы прервали выполнение передачи снапшота ctrl+z можно нажать, если совсем всё плохо (но не проверял)
Станислав
чтобы отслеживать прогресс в процентах, можно для pv использовать опцию -s <размер>. Как в zfs узнать объем передаваемых данных, сейчас не вспомню, но это можно
Vladislav
Золотое правило, если Вы не можете вводить в консоль текст, и там идёт какой-то процесс - значит Вы убьёте этот процесс закрыв консоль (исключение screen\tmux\отображение работы демона и т.д.)
Vladislav
Если убить screen/tmux то то же самое получится :)
Нууу, это сложнее сделать, чем просто нажав на крестик
Станислав
Ещё можно избежать декомпрессии передаваемых блоков, если использовать zfs send -cL .... В передающем и принимающем датасетах должны быть одинаковые настройки сжатия
Станислав
А если мне надо другое сжатие, то нет смысла в этом флаге?
Само собой. Хотя я соврал, наверное, по поводу одинаковых настроек сжатия, в мане почитайте, там написано что должно совпадать
Ivan
Ребята, подскажите. Поскольку настройка шары NFS делалась через парамметры ZFS, то думаю многие с этим сталкивались. Вот вверху я подсветил сам пул, а все что ниже это датасеты на этом пуле. Настройки шары датасеты наследуют от пула, собственно это по умолчанию. Клиенты монтируют только корневой пул. Как видите, на клиенте в Dolphin отображаются все и сам корневой пул и датасеты на нем. А можно как-то сделать так чтобы у клиентов отображался только корневой датасет и все, чтобы они не путались? Я попробовал на датасетах поставить set sharenfs=off не помогло. Отдельно NFS не настраивался никак. Весь шаринг делался чисто средствами ZFS
riv
zfs set mountpoint=...
Alex
А если смонтировать их в иерархически независимые папки?
а разве локальный mount влияет на сетевые шары? :\
Ivan
а разве локальный mount влияет на сетевые шары? :\
Да похоже что никак. Т.к. это не помогло.
Alex
Да похоже что никак. Т.к. это не помогло.
честно почти не трогал нфс. Но интересно =) А у вас линух или фря?
Alex
там где пул
Alex
Линь и на клиентах тоже
ну на клиентах понятно, да. А что в /etc/exports ?
Ivan
ну на клиентах понятно, да. А что в /etc/exports ?
Ну сам /etc/exports пустой, а в /etc/exports.d/zfs.exports все шары как пула так и всех датасетов
Ivan
Если поставить датасету sharenfs=off, то шара исчезнет из /etc/exports.d/zfs.exports
Ivan
Но в долфине, ссылка на шару датасета останется. Чудеса )
Alex
Но в долфине, ссылка на шару датасета останется. Чудеса )
о как! а она там остается просто видна или прямо доступ есть и файлы открываются? может он просто кэширует и всё
Ivan
о как! а она там остается просто видна или прямо доступ есть и файлы открываются? может он просто кэширует и всё
После того как я сделал sharenfs=off тестовому датасету, перезапустил zfs-share и nfs-server, также перемонтировал пул на клиенте, зашел по ссылке она чуть чуть подумала, как если бы шара отвалилась, и потом файлы отобразились.
Vladislav
Если поставить датасету sharenfs=off, то шара исчезнет из /etc/exports.d/zfs.exports
Причём тут ZFS всё ещё? У Вас буквально вопрос про NFS. Ручками Вы его настраивали или через автоматизацию не влияет на тематику вопроса.
Ivan
о как! а она там остается просто видна или прямо доступ есть и файлы открываются? может он просто кэширует и всё
Я думаю дело в клиенте. Я щас проверил mount | grep nfs на клиенте и там все шары смонтированы.
Ivan
Буду копать проблему на клиенте. Спасибо
Юрий
Доброго! Есть владельцы дисков Western Digital Green/Red, которые работают 24/7? Пытаюсь понять почему отключение таймера сна (A)PM через idle3ctl (ну или каким-либо другим способом) является не рекомендованным. Возможно не совсем по профилю залетел, но мало ли
Юрий
Потому что green не предназначены для работы 24/7 А Red как бэ и так не должны спать Если Вы для zfs - берите красные
А, утилиту изначально делали под зелёнку… Ну да, у меня красные. Просто у них выставлено 138 (0x8a) или может это нормально Model Family: Western Digital Red Device Model: WDC WD40EFZX-68AWUN0 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 12 9 Power_On_Hours 0x0032 088 088 000 Old_age Always - 8948 193 Load_Cycle_Count 0x0032 200 200 000 Old_age Always - 1509