@devops_ru

Страница 1591 из 4568
blkmrkt
23.11.2016
15:51:19
а если хардвар раид с кешем 512мб например и батарейкой, и если в буфере меньше 512мб, то fsync возвращает моментально*

?

Alex
23.11.2016
15:51:24
Так как ZoL не имеет отношения к стандартному файловому кэшу линукс

Google
Alex
23.11.2016
15:51:52
Да, так и вот

Получается, что между вызовами принудительного fsync в ZFS проходит 5 секунд

Рекомендации по размеру ZIL звучат как "чтобы на пару раз от барьера до барьера хватило"

То есть - 2*5

А далее надо смотреть поток

И помнить, что в ZIL попадает не все

Viktor
23.11.2016
15:54:12
L2arc куда?

Alex
23.11.2016
15:54:23
L2ARC куда что?

L2ARC это кэш на чтение

Viktor
23.11.2016
15:54:33
на чем хранить будем

у вас zfs на проде есть?

как оно?

Alex
23.11.2016
15:55:02
Есть

Google
Alex
23.11.2016
15:55:04
Нормально

Viktor
23.11.2016
15:55:06
у нас дальше стендов не пошло

Alex
23.11.2016
15:55:20
Ну - а вы что с ним пытались делать?

На каком железе?

Viktor
23.11.2016
15:55:24
Нормально
сколько IO выжимает?

Alex
23.11.2016
15:55:48
сколько IO выжимает?
У меня где-то были отчеты fio, но я тестировал два года назад

И все забыл

Нам хватает с запасом

Viktor
23.11.2016
15:56:19
sas 10K как освновное хранилище, разные ssd под zil и l2arc

мы ходели его как сторадж для виртуалок

Alex
23.11.2016
15:56:48
Ну - у нас он так и используется

Viktor
23.11.2016
15:56:57
но с масштабированием без даунтайма не получилось

не смогли в это

Alex
23.11.2016
15:57:11
И знаю еще несколько мест, где он так же используется или использовался

Viktor
23.11.2016
15:57:27
закончилось все брендовым SAN

с недорогими SSD с записью начинались проблемы, с дорогими этот огород в малых масштабах не имел смысла

у нас цель была 20ТБ в максимальной емкости при 5К iops

Alex
23.11.2016
15:59:42
Ну - терабайт может быть хоть 50 Смотреть надо hit rate

Viktor
23.11.2016
15:59:46
стартовать собирались с 4ТБ

Alex
23.11.2016
15:59:50
Памяти на машине сколько было?

Google
Viktor
23.11.2016
16:00:03
от 32 до 128

Alex
23.11.2016
16:00:08
От 32?

Ну, поздравляю

А как подключалось такое хранилище, по iSCSI?

В принципе, я могу попытаться дописать экспортер и наладить рисование hit rate на наших коробках

Alex
23.11.2016
16:01:46
Размер ARC экспортер уже пишет и так

Viktor
23.11.2016
16:01:46
10g

Alex
23.11.2016
16:02:05
Для munin я все это сделал годы назад - так что, у кого ZoL, можно брать и пользоваться

Viktor
23.11.2016
16:03:50
до какого обьема доросли? росли постепенно? или сразу запустили сколько надо было?

Alex
23.11.2016
16:04:11
Сразу запустили

Терабайта по 2 с небольшим на машину

Alex
23.11.2016
16:05:04
На машинах строго по 128G RAM

Как что-то можно делать с 32 при таких объемах - ума не приложу

Но, опять же, возможно, что никакой нагрузки на чтение и нет вовсе никогда

Смотреть надо графики

blkmrkt
23.11.2016
16:34:58
в продолжение истории со сломанным RAID5, вот ответ от суппорта в дц на вопрос что он сделал: You are correct, both md2 and md1 were missing a partition: sdc2 and sdd3. I've installed "SmartMonTools" and ran "smartctl -a /dev/sdc" and then "smartctl -a /dev/sdd" to check if either of the drivers had permanent damage. Both passed self-testing successfully and showed no "bad" or "reallocated" sectors. While this is an indication that something might be wrong with the drives themselves, practice shows that re-adding the partitions usually solves the problem permanently or until end-life cycle for the drive. Yesterday I've re-added both partitions with "mdadm --add /dev/md2 /dev/sdd3" and "mdadm --add /dev/sdc2 /dev/md1". After that, re-sync automatically began. Both /dev/md1 and /dev/md2 were marked as degraded because of missing partition members. Получается что /dev/sda он и не трогал, и оно работало в составе raid ранее с такой разметкой как на картинке, да?

targitaj
23.11.2016
16:42:24
Oleg
23.11.2016
16:42:42
Google
targitaj
23.11.2016
16:44:22
или там несколько дисков выпало?

вали оттуда

закрывай с ними вообще всю работу

они невменяемые

blkmrkt
23.11.2016
16:46:49
showed no "bad" or "reallocated" sectors

targitaj
23.11.2016
16:47:05
а, тьфу, NO

Admin
ERROR: S client not available

targitaj
23.11.2016
16:47:10
просмотрел

blkmrkt
23.11.2016
16:49:17
хорошая истрия (2005) про склеивание страйпов райда вручную http://freesoftwaremagazine.com/articles/recovery_raid/

targitaj
23.11.2016
16:49:25
чот приустал...

так-то, наверное, ничего сверхсложного. Наверное, кропотливая работа, внимание и время надо.

blkmrkt
23.11.2016
16:55:17
короче наверное нет смысла таблицу разметки копировать и вообще sda трогать, просто подниму raid из livecd и прочекаю файловую систему

targitaj
23.11.2016
16:56:08
так, стоп, я просмотрел, там же партиции двух разных дисков в фейл упали

не одного диска, а двух разных

просто попробуешь собрать массивы?

blkmrkt
23.11.2016
16:57:01
хмм, точно, раид же поверх этих партиций работает?

Google
blkmrkt
23.11.2016
16:57:37
тогда сначала fsck всех дисков по отдельности с авторемонтом, а уже потом пробовать собирать массивы?

targitaj
23.11.2016
16:57:48
sdd3 и sdc2

машина на руках?

онлайн? в дауне?

вроде машина в ДЦ, ты рядом или как?

blkmrkt
23.11.2016
16:59:27
онлайн? в дауне?
Машина в дц, ос не загружается, я с livecd забутился

blkmrkt
23.11.2016
16:59:35
targitaj
23.11.2016
16:59:45
Через ipmi
ну да, считай что рядом

blkmrkt
23.11.2016
16:59:51
Угу

targitaj
23.11.2016
17:00:00
сама она совсем не грузится?

вот поэтому следует выделять под / отдельный массив уровня зеркало

blkmrkt
23.11.2016
17:00:55
сама она совсем не грузится?
Грузится в какую-то эфемерную файловую систему, тк не может считать что-то там с диска

blkmrkt
23.11.2016
17:01:19
Щас скрин найду выше

targitaj
23.11.2016
17:01:35
странно это

короче, смысл простой

у тебя сейчас в каждом массиве по 5 участников

всего 3 массива

на 2 массивах из 3 вылетело по 1 участнику

Страница 1591 из 4568