1
спасибо,ребята.
1
если еще подскажите,чего выебывается ssh я буду вообще рад. в rc.conf добавил sshd_enable="yes", в конфиге ssh махнул порт 22 на 2222. все. теперь он до днс какого-то хера доебывается, в родной локалке с местными ip. отстал я от жизни.
Vladislav
# sysrc -a | grep sshd
sshd_enable: YES
sshd_flags: -oPort=1022 -oCompression=yes -oPermitRootLogin=yes -oPasswordAuthentication=yes -oProtocol=2 -oUseDNS=no
1
1
рад,чтотлет 20 назад,смотря наизоопарк линуксячук,выбралифрю. с охуеннейшем хэндбуком и добрым сообществом. это помтавило меня на правильные рельсы.
теперь-то поыигу win/lin/freebsd, ну всюду что-то новенькое но осваивпется на раз.а нсли реально на одн раз -то можнотпросто в таких каналах спросить,сделать и забыть. эх, где мое irc... Дообра вам. и я чем смогу -помогу.
1
очепяток дохрена,извиняйте. праздники. грустные.
star
Подскажите, пул это ≠ файловая система?
central
нет
star
Понял, спасибо)
Vladislav
/report злостный оффтоп
nikolay
народ, еще раз задам вопрос - должен ли zvol помечать блоки как свободные после выполнения fstrim -av внутри виртуальной машины к которой этот самый zvol подключен как блочное устройство? другими словами освободится ли место на уровне zfs pool после выполнения указанной команды внутри VM?
nikolay
после запуска fstrim мне выдало следующее (внутри гостевой ос)
nikolay
[root@obj04 network-scripts]# fstrim -av
/import/objects2: 16.4 TiB (17985433317376 bytes) trimmed
/import/objects: 29.7 TiB (32590653698048 bytes) trimmed
/var/log: 7.3 GiB (7839670272 bytes) trimmed
/boot: 781.7 MiB (819613696 bytes) trimmed
/: 7.7 GiB (8200372224 bytes) trimmed
nikolay
/import/objects: 29.7 TiB (32590653698048 bytes) trimmed - это zvol объемом 96 Тб. на уровне гостевой ос показывает что место освобождается (если я правильно понимаю вывод команды), на уровне zvol и zfs пула без изменений
Ivan
nikolay
Ivan
zvol должен быть тонким, диски вм scsi или virtio на scsi контроллере с опцией discard
Ivan
nikolay
мм, точно zvol должен быть тонким? гугл вроде не выдает такого требования. discard как раз и нужен для того, чтобы освобождались блоки на толстых томах, на thin вольюме оно по умолчанию будет освобождаться если внутри ос это поддерживается
Ivan
George
Ivan
reservation != refreservation
nikolay
reservation != refreservation
пардон, NAME PROPERTY VALUE SOURCE
zones/3256b4bb-b33e-cb00-e152-c0e3e18b33b1-disk1 refreservation none local
nikolay
nikolay
сейчас zfs list показывает used вот так
nikolay
zones/3256b4bb-b33e-cb00-e152-c0e3e18b33b1-disk1 96.4T 5.40T 96.4T -
nikolay
но до возникновения проблем с переполнением used не был равен размеру zvol
George
nikolay
а logicalused другое отображает
nikolay
zones/3256b4bb-b33e-cb00-e152-c0e3e18b33b1-disk1 written 96.4T -
zones/3256b4bb-b33e-cb00-e152-c0e3e18b33b1-disk1 logicalused 84.2T -
zones/3256b4bb-b33e-cb00-e152-c0e3e18b33b1-disk1 logicalreferenced 84.2T
George
в zfs free space эфемерный, примерно посчитанный, не всегда равный фактическому
Ivan
nikolay
том 100% не тонкий, когда-то его создавали без опции -s
Ivan
Ivan
т.е. толстый можно тонким сделать и уменьшить размер
Ivan
чет мне кажется что уже был вопрос такой у тебя, и порешили на том, что гипер фичу не поддерживает
nikolay
virt-install -n test --network=bridge:br0 --ram 24048 --arch=x86_64 -vcpus=8 --cpu host --check-cpu --disk path=/dev/zvol/zones/3256b4bb-b33e-cb00-e152-c0e3e18b33b1-disk0 --disk path=/dev/zvol/zones/3256b4bb-b33e-cb00-e152-c0e3e18b33b1-disk1 --graphics vnc,listen=IP --os-type linux --os-variant=rhel8.6 --boot hd,menu=on
nikolay
зацепил пул и поднял виртуалку
Ivan
https://gist.github.com/aladuca/854b78585c2bba961386
вроде вот этого не хватает bus=scsi,discard=unmap
Ivan
и этого --controller=scsi,model=virtio-scsi
nikolay
гм.. т.е. это может быть проблема на стороне настроек VM а не zfs?
Ivan
да
nikolay
так.. вопрос наверное не по теме чата, но спрошу - можно изменить настройки у VM чтобы она не потеряла после ребута этот диск?
George
Ivan
Ivan
Станислав
Привет всем, я сейчас наверное задам глупый вопрос, сразу извиняюсь) но, имеем пул, на нем датасет, выставлено рекордсайз 1М, имеем другой пул, также с датасет с рекордсайз 1М, первый датасет это сингл диск, второй - рейд з2, так вот, почему при записи на сингл диск система работает с блоками, по размеру примерно равными 1МБ, а при записи на рейдз2 - примерно 200-256к? (он сделан на 8 дисках), параметр смотрю iostat'ом, который wareq-sz
Станислав
это при простом копировании файлов с одного пула на другой, и примерно такое же поведение при чтении файлов с пулов, на единственном диске размер блока для чтения всегда равен 1МБ, читаю командой dd, с разным размером блоков, хоть 4к, хоть 128к, хоть 4М, размер запрашиваемого блока с физического диска одинаков (1МБ), а при чтении с массива raidz2, по 170к примерно
Ivan
Привет всем, я сейчас наверное задам глупый вопрос, сразу извиняюсь) но, имеем пул, на нем датасет, выставлено рекордсайз 1М, имеем другой пул, также с датасет с рекордсайз 1М, первый датасет это сингл диск, второй - рейд з2, так вот, почему при записи на сингл диск система работает с блоками, по размеру примерно равными 1МБ, а при записи на рейдз2 - примерно 200-256к? (он сделан на 8 дисках), параметр смотрю iostat'ом, который wareq-sz
данные же размазываются по дискам
Станислав
данные же размазываются по дискам
просто я считал, что если размер блока 1МБ, то соответственно на каждый отдельный физический диск размер записи будет равен 1МБ (собственно нечто подобное размеру блока на аппаратном рейд массиве)
George
Станислав
так-то получается примерно как есть - 1МБ рекордсайз, поделим на 6 дисков + 2 чётности, получаем примерно 128к (очень грубо)
George
George
но разницы для zfs технически - ноль
Arseniy
George
иметь возможность пул на меньшие диски перетащить
George
и тд)
Arseniy
Загрузился через Porteus, взял сырой диск и через gparted почистил, создал заново GPT-разметку, создал раздел без форматирования (unformated). Грузанулся в основной хост, создал пул через zpool create pool0 /dev/sda/. Теперь после попытки прочитать информацию о разметке диска вылетает такое предупреждение, если выбрать current GPT - в целом всё работает. Это штатно?
George
> Грузанулся в основной хост, создал пул через zpool create pool0 /dev/sda
именно /dev/sda? хз что пошло не так, но кажется это не норма)
Alexander 🖨
На /dev/sda0, наверное, надо было?
Nikita
Alexander 🖨
Возможно, главный плюс создания на разделе - это то, что если засунуть диск в систему, которая не знает про zfs, то она все равно увидит, что диск занят
Nikita
George
George
(по крайней мере openzfs 2)