Sergei
http://bash.im/quote/12782
J
Во, вспомнил. http://ceph.com/geen-categorie/ceph-performance-part-1-disk-controller-write-throughput/
J
Только все графики блин кажись того... Или у меня какой-то плагин их блокирует)
Konstantin
Konstantin
Какой прирост то?
Чтения, записи, иопсы
Sergei
Чтения, записи, иопсы
с raid10 у вас write amplification будет 6. без - 3.
Anton
я стесняюсь спросить. а что такое write amplification?
Sergei
о, добрый вечер. не стесняйтесь, спрашивайте.
Anton
и чем отличается от RAID Penalty
Konstantin
Суть в чем, перенести часть логики на ресурсы контролера, собственно для чего он и нужен и отличается от mdadm
J
я стесняюсь спросить. а что такое write amplification?
Коэффициент показывающий насколько реальный объем записи отличается от объема олезных данных записываемых.
J
объем. в мегабайтах?
Нет. Коэффициент же)
J
Ебаться то будет проц хоста?)
Ебаться будет проц клиента. Так говоришь будто там нагрузка дикая.
Konstantin
Ебаться будет проц клиента. Так говоришь будто там нагрузка дикая.
Я так говорю, потому как не щупал не с не без рэйда, а в голову много мыслей лезут.
J
Я так говорю, потому как не щупал не с не без рэйда, а в голову много мыслей лезут.
А. Ну так это. В общем то, я и не знаю людей которые софтовые хранилища с рейдом используют.
Konstantin
Просто тут тестить - дело не одного дня, поэтому и спрашиваю
Konstantin
Я не пытаюсь переубедить конечно или навязать, просто мысли вслух
Anton
А. Ну так это. В общем то, я и не знаю людей которые софтовые хранилища с рейдом используют.
Ну я использовал например. Dell 720xd не умеет в JBOD / Initiator-target. Каждый диск надо было создавать как RAID0 из одного диска для VSAN
Anton
24 диска на каждый хост
Sergei
интересно, кстати, на это ограничение есть какая-то причина кроме "нам было лень (или мы не хотели) написать этот кусочек кода в софте контроллера"? я встречал такие же контроллеры и желал убить тех, кто их создавал.
J
Я не пытаюсь переубедить конечно или навязать, просто мысли вслух
Ну, с реплицированными пулами процессор хоста будет все время нагружен довольно слабо. Репликацией Ceph управляет сам, поэтому пытаться сколхозить еще и зеркало для ущей сохранности данных идея довольно дурацкая. Ну а с производительностью такая шляпа - при хорошо подобранном количестве placement groups нагрузка сама естественным образом будет размазываться по куче дисков в кластере. А если включить еще и stripe для объектов и разумно потюнить, то вот тебе аналог твоего нулевого рейда, но не в пределах одного хоста, а в пределах кластера.
citius
На делах как раз можно карту переключить прямо через бивис в а-ля жбод. Не знаю, всякую ли правда.
citius
Точнее оно там HBA режим, прям так и называется
citius
Ну я вот и оговорился потому. Пока попадались умеющие. :)
J
А при плохо подобранном?
Производительность страдает) Потому что, например, при маленьком количестве групп какие-то диски окажутся недогружены, а какие-то наоборот. А при большом количестве PG много процессорного времени будет тратиться на подсчет что куда положить.
Anton
Ну я вот и оговорился потому. Пока попадались умеющие. :)
Тут смешно то, что чем выше уровень и брэндовость - тем меньше умеющих
Anton
Почему нельзя сделать автоматику?
J
А его реально надо подбирать, и потом следить, ребалансить?
Ну да. посчитал по формуле типа, выставил что-то похожее, а если все не очень равномерно, количество PG увеличить можно.
Sergei
Почему нельзя сделать автоматику?
потому что сеф не умеет решардить данные между PG в сторону уменьшения числа PG. не написали-с.
J
подсчет "куда" на самом деле не очень сильно потребляет CPU, и алгоритм там логарифмической сложности емнип
Ну да. Самый ад начнется при бурлении в кластере, типа там бэкфилл или еще чо.
Sergei
Anton
Не, я реально не понимаю.
Anton
Без троллинга
Sergei
решардить обычную хеш-таблицу не очень удобно же
Konstantin
так ты троллишь. неинтересно.
Я вот тоже хотел спросить, похоже на тролинг))
Anton
"Зато я могу переписать как надо и затюнить" - это как, только на обои работает?
Sergei
толсто, Антон, будьте тоньше.
Anton
толсто, Антон, будьте тоньше.
вот вообще ни слова про мой вес. Знаю.
Sergei
я ж не сказал "будьте легче" или "будьте худее" :)
Konstantin
Всем спасибо, пойду jbod'ы пилить
Sergei
я сам-то мальчик не слишком компактный.
Sergei
эх, а я боялся затронуть чувства, думал, что вы ночами плачете от растяжек на животе. меня гнусно развели.
J
Вопрос а сохранности/зеркалировании не стоит, допустим не raid10, а raid0 аппаратный и поверх osd
Ну тут знаешь как. Сделать так можно и прирост производительности даст, в общем то. Но OSD пойдет пиздой в случае отказа одного из дисков. А как, я говорил, Ceph и сам умеет страйпить объекты а-ля RAID0. То есть, все то же самое что и аппаратный рейд, но гибче гораздо. Ценой, конечно же, процессорных ресурсов и памяти. Но я там где можно выбрать из аппаратного решения и софтового выберу почти всегда софтовое. Потому что софт можно на другое железо накатить и все будет так же работать. А вот железо поменять не всегда быстро и просто.
Евгений
Насчет бурления при ребалансе - бурлятор ему мужно прикрутить. И тогда он будет мееееедленно тащиться, зато не сожрет всю сеть, всю память, весь проц, все небо, ну и так далее
Sergei
бурлятор. брр.
Евгений
ну, ему можно min_size прикрутить чуток
J
Ну у меня многие коллеги отдают предпочтение mdadm нежели железке. Поэтому я так неуверенно на jbod лезу
Ну в твоем случае jbod выглядит как ОК решение. Раз есть контроллер и никуда от него не деться, то рейды делать не стоит, а вот JBOD - и рыбку съесть и эт самое. Кэширование задействовать сможешь)
kiosaku
вобщем, завершилась "война" за ceph pool на 100+ новых osd - всё работает, proxmox всё видит
kiosaku
latency - из-за jbod на smartarray-е с включённым cache
J
Говорииииил я ваааам
Konstantin
latency - из-за jbod на smartarray-е с включённым cache
О, вот за этот момент я уже читал
Konstantin
И чо, менять железку?(
J
Просто не смотреть на apply latency
kiosaku
зачем менять. подкрутить резистор
Евгений
smartarray - жизнь-боль. adaptec - туда же, чтоб его LSI Megaraid свят-свят-свят
kiosaku
аваго он теперь
Евгений
хоть НАВАГА
Евгений
барахло долбанное