Александр
Хотя, всё зависит от нагрузки
Alexey
мы же не знаем сколько и чего и как там по нагрузкам -
Александр
И вообще у Алексея в фамилии ошибка
Александр
:-\
kiosaku
систему на raid1
kiosaku
всё остальное - отдельными osd
kiosaku
смысл raid10 под систему - непонятно
Алексей
каждый диск = osd
kiosaku
Алексей Абайдулин, [05.04.17 13:23] Скорость записи почему-то всего 80МБ\с диски sas в Raid50
kiosaku
создали рейд50 и на нём завели диски, которые потом как osd подключили?
citius
1Гб на сторадж думаю печалька в любом случае. хотя-бы MTU нормальное накрутить надо.
Алексей
да
Dimonyga
С таким кейсом цепх не очень подходит. он заточен под много виртуалок.
Dimonyga
а у вас планируется всего 3
Алексей
не ну просто у ноды 3 нет 10GB
kiosaku
делаете 1 raid1 для системы
kiosaku
оставшиеся диски подключаете, как raid0, либо в engineering mode
Алексей
а у вас планируется всего 3
нет еще сервер и еще сторедж как минимум.
kiosaku
1 диск - один raid0
Алексей
и скорость с 30 дисками в Raid0?
Алексей
на 3 нодах
kiosaku
ниже будет, чем 30x100MB/sec
Алексей
есть формула?
kiosaku
явно ниже 1GB/sec :)
kiosaku
поставьте виртуалку - погоняйте её под нагрузкой
Алексей
т.е. чем больше дисков в Raid 0 тем лучше?
kiosaku
не нужен raid0 ceph-у
kiosaku
он сам обеспечивает и raid0 и raid1 ...
Anonymous
Парни, с pg_num для cephfs в пулах дата и метадата вообще хоть кто-то игрался (50-50% как-то подозрительно)?
kiosaku
возможно, ваш контроллер не умеет enginnering mode и придётся создавать raid0 по количеству дисков
Алексей
понятно! raid0 + 10Gb Lan
kiosaku
т.е. если у вас 4 свободных диска
kiosaku
то не создаёте 1 raid0 из 4-х дисков в контроллере
kiosaku
а создаёте 4 raid0, каждый - из одного диска
kiosaku
но готовьтесь к тому, что в проксмоксе не увидите smart у дисков
Алексей
а без ceph реализовать быструю общую хранилку возможно?
kiosaku
если не нужен HA, то делайте raid10
kiosaku
но вам он, вроде бы, нужен
kiosaku
но там есть вроде подводные камни, когда хотите больше 2-х копий данных хранить
kiosaku
хотя я на проксмоксе делал master+2slave drbd
kiosaku
но там есть ограничения по live migration
Евгений
OCFS2 еще, но она страааашная
Sergei
OCFS2 еще, но она страааашная
она сама данные не распределяет.
Евгений
+iSCSI
Алексей
спасибо за советы будем думать
Михаил
Я вообще сомневаюсь, что разворачивать ceph на трёх нодах так себе идея
André | KreyDan |
Коллеги, интенсив можно оплатить от юр.лица, и если да - то как.
Евгений
Кто какой io scheduler применяет?
Михаил
Хранилку чего?
Там выше было
Anonymous
Кто какой io scheduler применяет?
cfq. на kraken с bluestore. под centos 7. тюнинг ядра ограничился tuned-adm с профилем throughput-performance. может зря...
Anonymous
Спасибо!
я тут начинающий, не стоит на это ориентироваться. в интернете натыкался на эту тему, но обоснований какой лучше так и не увидел
Михаил
У вас тоже bluestore?
Евгений
У вас тоже bluestore?
у меня классика на XFS
Anonymous
у мну да
Михаил
Объемы? Скорости? Прод?)
Anonymous
потому что на jewel & xfs тупил по процам. но там был SLES 12sp2 & SES 4 с последним патчем. кракен решил погонять
Anonymous
жрать процы стал меньше
Евгений
Объемы? Скорости? Прод?)
тест, 12*4 диски обычные SATA III, сеть 10 гиг
Евгений
тест, 12*4 диски обычные SATA III, сеть 10 гиг
12 дисков по 4 T, 2 ноды, в ноде 6 дисков
Anonymous
supermicro servers, 3 штуки сумарно 82 ТБ. сеть lacp 10 gbit. винты вперемежку sas & sata. ssd нет. мне поиграться выделили под хранилку для ... барабанная дробь... базу оракл
Anonymous
просто suse storage jewel
Anonymous
а мне нужен кракен
Anonymous
думал будет резвее
Anonymous
по идее так и стало
Михаил
так там и было
О! И как вам в целом суся стор?
Anonymous
вылизали его, патчи отстают от релиза на 1 версию. т.е.: 10.2.6 актуальная, а они выкатывают 10.2.5 что несклько огорчает. вебморда calamari понравилась. а так хз, запись блоками по 4к это самое худшее что я мог придумать. ведь cephfs не предназначен для блоковой чтения-записи под базу. последовательно читает-записивает нормуль. но мне не с чем сравнивать
Anonymous
кстати там триал 60 дней
Anonymous
я хотел фс ) в инфраструктуре основной sles, так что фс монтировалась ядром под 12 версию отлично. а вот под sles11 проблема. нету пакетов под поддежку новой версии, в ядро модули не обновляли и не доставляли, соотвественно jewel не держит, ругаясь на то, что регистры не те, и вообще обновите себе ядро )) erasure coding не делал, т.к. size 2 похоже самый быстрый по скорости, а под jewel с его бешенной нагрузкой на ядра это бы превратилось в обузу
M
что написать в конфиг, чтобы сеф не выдавал варнингов про депрекейтед при создании rbd с image-format 1?
Anonymous
нет, просто они сделали его так, чтобы он работал по команде zypper in ... ; calamari-ctl initialize; ceph-deploy calamari connect ... одним словом установил пакет и всё сразу заработало