@freebsd_ru

Страница 83 из 669
Andrey
21.02.2017
11:51:49
jidckii
21.02.2017
11:52:25
пол года работало нормально и побольше трафика приходило

и нет никаких ограничений по 5 рейду

разработчики на рекоментуют в 1 vdev больше 9 дисков пихать

Google
jidckii
21.02.2017
11:53:24
каких то конкретных рекомендаций в документации нет

что то вы сочиняете кажется

диски новые

WD RE 4tb

@Krond , ты тут вроде умный, не подскажешь ?

при чем я бы понял, если бы там какая то DB была, она могла бы такой iops делать

просто iscsi таргет примонтирован к венде и раздается как CIFS ifhf

d этот момент заливали 3 больших файла

не куча мелких операций

Volodymyr Kostyrko
21.02.2017
11:57:41
Нормально вроде всё собрано… хотя iscsi не крутил.

zpool status тоже ничего не показывает?

Andrey
21.02.2017
11:58:08
d этот момент заливали 3 больших файла
а попутно парочку старых удалять?

Volodymyr Kostyrko
21.02.2017
11:58:11
размер блока какой и что хранится на диске?

Google
jidckii
21.02.2017
11:59:07
http://scr.keikogi.ru/jidckii/1487678344661.png

Andrey
21.02.2017
11:59:43
там вон ещё и scrub в прогрессе

jidckii
21.02.2017
12:05:22
[root@frank-data1] ~# zfs get all data NAME PROPERTY VALUE SOURCE data type filesystem - data creation Mon Oct 17 16:12 2016 - data used 16.5T - data available 11.5T - data referenced 47.1K - data compressratio 1.08x - data mounted yes - data quota none default data reservation none default data recordsize 128K default data mountpoint /mnt/data default data sharenfs off default data checksum on default data compression lz4 local data atime on default data devices on default data exec on default data setuid on default data readonly off default data jailed off default data snapdir hidden default data aclmode passthrough local data aclinherit passthrough local data canmount on default data xattr off temporary data copies 1 default data version 5 - data utf8only off - data normalization none - data casesensitivity sensitive - data vscan off default data nbmand off default data sharesmb off default data refquota none default data refreservation none default data primarycache all default data secondarycache all default data usedbysnapshots 0 - data usedbydataset 47.1K - data usedbychildren 16.5T - data usedbyrefreservation 0 - data logbias latency default data dedup off local data mlslabel - data sync standard default data refcompressratio 1.19x - data written 47.1K - data logicalused 17.7T - data logicalreferenced 25K - data volmode default default data filesystem_limit none default data snapshot_limit none default data filesystem_count none default data snapshot_count none default data redundant_metadata all default [root@frank-data1] ~# zfs get all data/frank NAME PROPERTY VALUE SOURCE data/frank type volume - data/frank creation Wed Nov 2 13:43 2016 - data/frank used 14.1T - data/frank available 11.5T - data/frank referenced 12.4T - data/frank compressratio 1.08x - data/frank reservation none default data/frank volsize 23T local data/frank volblocksize 16K - data/frank checksum on default data/frank compression lz4 local data/frank readonly off default

data/frank copies 1 default data/frank refreservation none default data/frank primarycache all default data/frank secondarycache all default data/frank usedbysnapshots 1.69T - data/frank usedbydataset 12.4T - data/frank usedbychildren 0 - data/frank usedbyrefreservation 0 - data/frank logbias latency default data/frank dedup off inherited from data data/frank mlslabel - data/frank sync standard default data/frank refcompressratio 1.08x - data/frank written 279G - data/frank logicalused 15.2T - data/frank logicalreferenced 13.4T - data/frank volmode default default data/frank snapshot_limit none default data/frank snapshot_count none default data/frank redundant_metadata all default

data/frank - это zvol анонсирован в венду

там отформатирован как ntfs blocksize 8kb

Volodymyr Kostyrko
21.02.2017
12:07:42
ntfs умеет blocksize 64kb

один блок 64kb или 8 блоков по 8kb плюс минимум 7 записей в индексе

Вот и высокий iops.

Ну а скраб это всё мелкопошинованое читает.

jidckii
21.02.2017
12:12:53
Вот и высокий iops.
не совсем понял...

вот смотри zvol с класером 16 kb у меня

а в ntfs я размечаю его уже в 8 кб относительно вот этой таблицы

http://scr.keikogi.ru/jidckii/1487679151787.png

так как размер тома 23 Тб

Volodymyr Kostyrko
21.02.2017
12:15:12
У меня виртуалка с XP на 40G нормально живёт на 64k.

Таблица учитывает только потери памяти и ограничение на размер диска.

А вот например сжатие lz4, и распределение данных у ZFS как прийдётся — не учитывает.

jidckii
21.02.2017
12:16:49
я так и не понял, из-за чего высокий iops то вылез ?

Google
Volodymyr Kostyrko
21.02.2017
12:16:56
Не дай бог ещё снепшот хоть один сделать — диск вообще вечным тормозом станет.

jidckii
21.02.2017
12:17:13
суть в том, что его не боло раньше такого при точно всех тех же входных данных

Volodymyr Kostyrko
21.02.2017
12:17:49
Ну сейчас это явно scrub. При скрабе система перечитывает все данные с диска и проверяет хеши.

jidckii
21.02.2017
12:18:51
я повторю вопрос, как лучше диагностировать проблему ?

как лучше мониторить проблему и понять в чем дело ?

Volodymyr Kostyrko
21.02.2017
12:19:26
Ну вот смотри, у тебя лежит файли на 2Mb кусками по 8kb подряд. По умолчанию ZFS пытается не перезаписывать совпадающие по хешу кластеры, то есть если в файле что-то изменится - все изменившиеся блоки будут лежать в другом месте, там где было место.

я повторю вопрос, как лучше диагностировать проблему ?
Да пройдёт скраб ещё месяц ничего происходить не будет.

jidckii
21.02.2017
12:22:52
ох, сложны для меня все эти схд, с сетями как то попроще ))

Volodymyr Kostyrko
21.02.2017
12:22:54
А потом ежемесячный скраб можно просто выключить если в железо веришь.

jidckii
21.02.2017
12:24:31
в железе то уверен, но UPS не оч хороший и эл. бывает моргает

jidckii
21.02.2017
12:25:38
А потом ежемесячный скраб можно просто выключить если в железо веришь.
можешь понятным более языком объяснить, что делает скарб ?

я тут прочитал http://docs.oracle.com/cd/E19253-01/820-0836/gbbwa/index.html

но чет не очень въехал

Volodymyr Kostyrko
21.02.2017
12:27:32
Читает всё содержимое пула, проверяет хеши и восстанавливает данные если находит ошибки. Типа fsck.

jidckii
21.02.2017
12:29:03
Понял, ну да, данных там ного и все время меняется по 500гб в день ротация файлов

а так как пул большой, видать по этому и долго чекает

Спасибо

Denis 災 nobody
21.02.2017
12:46:31
Google
Denis 災 nobody
21.02.2017
12:47:18
там вон ещё и scrub в прогрессе
скраб дико тормозит, да.

и места должно быть достаточно

jidckii
21.02.2017
12:48:13
да места то вроде норм

http://scr.keikogi.ru/jidckii/1487681285145.png

просто как бы уже 3 дня сканирует ))

у меня все жалуются,что обменник тупит ))

Admin
ERROR: S client not available

Sergey
21.02.2017
13:02:53
скраб можно подтюнить, чтобы он меньше нагрузку создавал

Goletsa
21.02.2017
13:09:02
просто как бы уже 3 дня сканирует ))
У меня 12ТБ двое суток без нагрузки вычитывает

Профилактически

Sergey
21.02.2017
13:11:28
https://wiki.freebsd.org/ZFSTuningGuide#Scrub_and_Resilver_Performance https://forums.freebsd.org/threads/36111/

jidckii
21.02.2017
13:31:03
блин, не помню, а как вывести текущее значение vfs.zfs.scrub_delay

jidckii
21.02.2017
13:33:56
бля, точно

вот тупанул

Goletsa
21.02.2017
15:32:01
@fandrey спамиры

Andrey
21.02.2017
15:54:43
done

Goletsa
21.02.2017
19:28:31
Подскажите, pf rdr позволяет запросы на днс сторонние завернуть на локальный сервер днс?

например перехватить все что летит на 53 порт

Google
Anton
21.02.2017
20:17:43
Позволяет. Но нужно следить чтобы ответы проходили через этот же pf

Алексей
21.02.2017
20:51:16
А есть вообще какой-нибудь хороший мануал на русском по ipfw. А лучше учебник даже. Чтобы типа прочитал, сделал, добавил ещё чего-то, проверил, ещё добавил, проверил, офигел, воззрадовался и стал буддой :)

jagga
21.02.2017
20:51:32
лиссяру копай

Karter
21.02.2017
20:53:13
ipfw.ru/bash

Лел.

Алексей
21.02.2017
21:07:04
Так пробовал. Как-то там во-первых не по-русски у меня. А во-вторых скудновато. Ну или скудновата та его часть, которую я смог понять на английском :(

Кстати, как втащить русские маны на фряху? И есть ли такое вообще?

Den
21.02.2017
21:07:45
там в начале диаграмма со схемой прохождения пакетов и точками перехвата, ну а дальше по тексту

Andrey
21.02.2017
21:09:40
а потом он узнает о нетграф ....

Roman
21.02.2017
21:25:11
Зачем?

Goletsa
21.02.2017
21:25:41
а потом он узнает о нетграф ....
у меня он используется

Goletsa
21.02.2017
21:32:42
ревизорро на свои днс гвоздями прибить

Andrey
22.02.2017
11:33:15
Аааа... недели 2 уже, срамота http://www.bsdportal.ru/viewtopic.php?f=12&t=28255

Алексей
22.02.2017
14:17:30
Подскажите пожалуйста, можно ли каким-нибудь образом достучаться до системного кронтаба /etc/crontab при помощи консольной утилиты crontab или она только для управления пользовательскими кронтабами, лежащими в /var/cron/tabs ? Как вообще правильнее запускать задачи от имени рута кроном: системным кронтабом или пользовательским рутовым из /var/cron/tabs/ ?

Страница 83 из 669