@pro_openstack

Страница 89 из 117
Марк ☢
16.01.2017
19:11:19
а оно явно быстрее любого рэйда

Александр
16.01.2017
19:11:25
действительно. возможно я что-то делаю не так.
Эм.. у меня плашки по 16гб, забит полностью, работает норм.

Марк ☢
16.01.2017
19:11:42
Эм.. у меня плашки по 16гб, забит полностью, работает норм.
а можешь написать в личку какая именно память? я куплю — попробую

Sheridan
16.01.2017
19:11:43
Блин, мне бы столько железа как вы тут пишите. Штука виртуалок, 5пб хранилища. Пойду повешусь...

Google
Александр
16.01.2017
19:12:12
Sheridan
16.01.2017
19:12:17
Денег нет

Марк ☢
16.01.2017
19:12:26
Да обычная ddr 3 ecc. в ситилинке брал
а у меня пищит и не включается

Александр
16.01.2017
19:12:35
Sheridan
16.01.2017
19:12:37
переводи постепенно
Я тут свичи соховские покупаю по 300р

Марк ☢
16.01.2017
19:12:38
Денег нет
тогда страдай.

Sergey
16.01.2017
19:12:42
Блин, мне бы столько железа как вы тут пишите. Штука виртуалок, 5пб хранилища. Пойду повешусь...
смени работу, город и, возможно, страну, тебе три чатика уже говорит об этом.

Марк ☢
16.01.2017
19:12:45
Денег нет
а на что нет ?

Alexey
16.01.2017
19:12:52
а оно явно быстрее любого рэйда
ну вот запись в ssd состоялась ноды (забрали?получили?) запись на первой диски на 5400 на второй на 7200 на 3 15000 . последняя записала и курит первую?

Kirill
16.01.2017
19:13:04
Памяти мало что-то

Sheridan
16.01.2017
19:13:11
а какой город?
Минеральные воды

Google
Марк ☢
16.01.2017
19:13:20
Минеральные воды
оооо. Эльбрус близко

я там был

Kirill
16.01.2017
19:13:24
Минеральные воды
Чувак мой город я там жил ,

Марк ☢
16.01.2017
19:13:27
и скоро ещё буду. весной

Александр
16.01.2017
19:13:31
Памяти мало что-то
А сколько надо чисто под ceph? расчёт 1.5гб на 1тб

Kirill
16.01.2017
19:13:32
Правда сьебал

Sheridan
16.01.2017
19:13:41
а на что нет ?
Ни на что. Винду и ту юзерами купить не дают.

Марк ☢
16.01.2017
19:13:56
если записи реально много что аж журнал не смог сглотнуть пики, то да. придется ещё и ждать пока дурнал просрётся.

если записи реально много что аж журнал не смог сглотнуть пики, то да. придется ещё и ждать пока дурнал просрётся.
но! в цефе настраиваются веса на ОСД. и ты можешь на медленных нодах сделать меньше вес. тогда на них меньше будет идти нагрузка

А сколько надо чисто под ceph? расчёт 1.5гб на 1тб
если не блюстор, который щас нестабилен (проверял)

Alexey
16.01.2017
19:15:32
на каждую ноду прости

Sergey
16.01.2017
19:15:50
а журнал - то есть ssd на кажды сторадж. правильно понимаю?
есть какое-то хранилище на каждый диск. можно сделать кусочек диска.

Марк ☢
16.01.2017
19:15:54
а журнал - то есть ssd на кажды сторадж. правильно понимаю?
на каждый комп. но если в компе много дисков, то один ссд на группу магнитных делается

Старый
16.01.2017
19:16:05
Sheridan
16.01.2017
19:16:11
Марк ☢
16.01.2017
19:16:26
1 ssd на каждые 4 диска в ноде
обычно — да. но если магнитные пиздец быстрые, то может и по 3, ой, тоесть наоборот, по 5

Alexey
16.01.2017
19:16:39
1 ssd на каждые 4 диска в ноде
Хрыч отвали - у меня диски по 80ГБ могут быть и по 4 ТБ . а ssd 120.

Google
Sergey
16.01.2017
19:16:56
Хрыч отвали - у меня диски по 80ГБ могут быть и по 4 ТБ . а ssd 120.
размер устройства на журнал не коррелирует с размером osd.

Марк ☢
16.01.2017
19:17:06
главно чтобы скорость у ни была заебца. просто умрут быстрее

обычный размер одного журнала — 5 гигов (по дефолту)

Sheridan
16.01.2017
19:17:44
Где вы были, когда я тут полгода назад конкретные вопросы про цэф задавал?

Марк ☢
16.01.2017
19:17:48
Хрыч отвали - у меня диски по 80ГБ могут быть и по 4 ТБ . а ssd 120.
ну.. 80 гигов — у них совсем говённая скорость

Sheridan
16.01.2017
19:17:58
Все молчали и плечами жали

Sheridan
16.01.2017
19:18:03
Именно тут

Alexey
16.01.2017
19:18:15
Все молчали и плечами жали
хоть не хлопали плечами)

Марк ☢
16.01.2017
19:18:19
Марк я образно
я вот каждый диск бенчил. узнал что грин не просто говно, а суперговно

Sergey
16.01.2017
19:18:46
оказывается мне ссд негде протестить, везде сата2 Ж(

Alexey
16.01.2017
19:19:01
Sergey
16.01.2017
19:19:10
оказывается мне ссд негде протестить, везде сата2 Ж(
обычно ssd в сефе не утилизируется полностью в полосу.

и смысл его как журнала не в том, что полоса широкая, а в том, что latency низкая.

Марк ☢
16.01.2017
19:19:54
Sergey
16.01.2017
19:19:58
@socketpair давал тест, есть тоже 850 самсунги и интел 540, протестить как оно будет

Google
Alexey
16.01.2017
19:20:08
в чо
в sata2

Марк ☢
16.01.2017
19:20:30
в sata2
а. сата 2 именно 2. щас понял

впрочем да, латенси всеравно ниибацца уменьшит

пока ты в это ограничение не попадёшь

Alexey
16.01.2017
19:21:24
плюс на адресацию отрежет. Бляха муха. а я только весь свой хлам раздал)))

от 250 до 2ТБ блеков....

Марк ☢
16.01.2017
19:22:07
у меня только один 500 Гб. остальные от терабайта и выше

Sheridan
16.01.2017
19:22:36
Вот, нашел

Вопрос 1. В цефе до сих пор куча захардкоденого? admin socket = /data/ceph/run/$cluster.$type.$id.asok

это в конфиге прописано. А по факту ктото всеравно лезет в /var/run

точнее - osd

ceph version 10.2.2 (45107e21c568dd033c2f0a3107dec8f0b0e58374)

вопрос 2. http://paste.org.ru/?0z4vlv - кусог лога. Полдня ковыряюсь - не могу понять __куда именно_ не хватает прав у osd.

причем ceph-osd -f --cluster ceph --id 0 --setuser ceph --setgroup ceph - поднимает демона и живёт, а systemctl start ceph-osd@0.service просит сначала оказать ему какието услуги личного характера

3. Я так и не понял можно ли создать [osd.label] вместо [osd.0]. С одной стороны какбы ошибок не выдает нигде, кроме как ceph osd create $osd_uuid ${osd_id} где osd_id должна быть именно цифра. И причём [mon.label] вроде как вполне себе работает

4. Не совсем понятно с кейрингами. Как это работает вообще? Ключи то только в одном экземпляре прописываются. Ладно бы ключ в osd томе и ключ в etc, совпали - ок. А так как есть - непонятно

вот какраз

правильный это какой? С чем совпасть должен?

Google
Александр
16.01.2017
19:22:39
Ты не тестил их?

Alexey
16.01.2017
19:22:49
у меня уже ничего) 2 диска по 750. ЛИЧНОЕ зеркало и пара внешних. остальное ssd в буках)

Sheridan
16.01.2017
19:25:27
И сразу все замолчали, что интересно :)

Alexey
16.01.2017
19:28:11
И сразу все замолчали, что интересно :)
Марк ушёл. все остальные тут или не очень готовы отвечать (как я) или спасают мир)

Александр
16.01.2017
19:31:07
?

И сразу все замолчали, что интересно :)
Ты ему в приват вопросы накидай, он ответит.

Или @alsvartr помучай, мб он тебе скажет дельного чего

Sergey
16.01.2017
19:32:05
Вопрос 1. В цефе до сих пор куча захардкоденого? admin socket = /data/ceph/run/$cluster.$type.$id.asok
не знаю. возможною мне не мешало, стараюсь зря не пытаться лезть в хрупкие места.

Sheridan
16.01.2017
19:32:53
не знаю. возможною мне не мешало, стараюсь зря не пытаться лезть в хрупкие места.
Ты ж недавно мне вещал что цэф готов и уже крут а как только вопросы, то сразу не знаю?

Марк ☢
16.01.2017
19:32:55
Sergey
16.01.2017
19:33:01
вопрос 2. http://paste.org.ru/?0z4vlv - кусог лога. Полдня ковыряюсь - не могу понять __куда именно_ не хватает прав у osd.
use strace. в известных мне systemd-дистрибутивах есть проблемы с расстановкой прав, лечатся коротким хаком chown -R ceph:ceph $device на все блокдевайсы, которыми пользуется сеф.

Sergey
16.01.2017
19:34:42
3. Я так и не понял можно ли создать [osd.label] вместо [osd.0]. С одной стороны какбы ошибок не выдает нигде, кроме как ceph osd create $osd_uuid ${osd_id} где osd_id должна быть именно цифра. И причём [mon.label] вроде как вполне себе работает
есть обоснованное опасение (не подтвержденное чтением исходников и экспериментированием), что это не самая лучшая идея, даже если это и сработает. утилиты много где хотят osd.N, а много где просто N. я не готов ручаться, что везде можно использовать символические имена. не вижу причин не использовать здесь только числа.

наркоман ? я удевное правило написал
а мне было лень и я вставил ExecStartPre

Страница 89 из 117