J
ставлю на баг с гипертредигом! https://lists.debian.org/debian-devel/2017/06/msg00308.html
Да, идея хороша. Не только с гипертредингом, а вообще. Например, может оказаться так, кстати, что инстансы на других хостах естественным образом пинятся к ядрам, а вот на этом все время то одному ядру то другому достается. А то и вообще другому сокету.
Anonymous
и по поводу Skylake семейства, да они даже в винде хренова работают ))
✠ FLASh ✠
проц - vendor_id : GenuineIntel cpu family : 6 model : 62 model name : Intel(R) Xeon(R) CPU E5-2650 v2 @ 2.60GHz
Anonymous
у них все хорошо с гипертрейдом.
✠ FLASh ✠
по 32 штуки на каждую компьюту
Artem
А как с качеством сети? Потерь нету на компьюты?
Anonymous
вообщем начинать надо с проверки сети
Anonymous
иначе чуда не будет :)
✠ FLASh ✠
окей, займусь сеткой. Не могу пока что сказать есть ли потери, какой будет результат iperfa
Anonymous
начни банально с проверки jumbo frames
Anonymous
агрегацию имеет ввиду
✠ FLASh ✠
все равно не понял... как посмотреть/проверить это?
Anonymous
https://ru.wikipedia.org/wiki/%D0%90%D0%B3%D1%80%D0%B5%D0%B3%D0%B8%D1%80%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%BA%D0%B0%D0%BD%D0%B0%D0%BB%D0%BE%D0%B2
✠ FLASh ✠
<3
J
Ну там ovs bond или linux bond)
Yuf
я подсел на linux bond
Sven
ovs все же для kvm использовать
✠ FLASh ✠
я подозреваю что линуксовый бонд
✠ FLASh ✠
так как у нас контрейл
Anonymous
слово подозреваю, как то не уместно. От слова совсем...
J
Приколюха!
J
И это все, кстати, усложняет в разы)
✠ FLASh ✠
я не конфигурял сетки там
✠ FLASh ✠
так что если есть какая-то резкая команда как это проверить - я проверю
✠ FLASh ✠
но я более чем уверен что там нет овс бондов и овс ваще нет
J
В контреиле vrouter и инкапсуляция в MPLS over GRE или подобное.
J
Там чистого L2 ваще нет, кажется.
✠ FLASh ✠
вообще всем спасибо за наводки/подсказки :)
J
вообще всем спасибо за наводки/подсказки :)
Короче, я бы прям сетевиков подоёбывал и попросил уделить время и посидеть поразбираться.
J
Типа друг другу рассказать как в вашей зоне ответственности все устроено (ну, на пальцах) и дальше уже идеи думать)
✠ FLASh ✠
да, я так и сделаю
✠ FLASh ✠
просто чтоб парировать "а ты вот это смотрел вот это это вот" я сейчас перетыкаю что я могу и пойду к ним
J
просто чтоб парировать "а ты вот это смотрел вот это это вот" я сейчас перетыкаю что я могу и пойду к ним
Блллин, бывают ваще конторы где ответственность друг на друга не пытаются спихнуть, а вместе разбираются?)
✠ FLASh ✠
та наверное бывают
✠ FLASh ✠
но это не точно)
✠ FLASh ✠
эта херня с dd летает уже огого сколько
✠ FLASh ✠
прилетела ко мне и нужно разбираться
Anonymous
так, а подскажите, чем отличаются ceph osd reweight от crush reweight?
Anonymous
в краше - да, загрузка данных меняется, все дела. А ceph osd reweight зачем нужен? (не помню уже где-то читал что это какой-то "относительный" reweight, но относительно чего?)
Anonymous
вот тут описано: http://ceph.com/geen-categorie/difference-between-ceph-osd-reweight-and-ceph-osd-crush-reweight/
Anonymous
fuf
Anonymous
ага
Anonymous
ну и да, а можно ли как-то затротлить backfill чтобы не мешать работе кластера если, скажем, изменяется size?
Anonymous
есть опции типа *_backfill_priority, etc
Anonymous
потому что было две больших ноды, вынужденно size=2, min_size=2 :( сейчас добавили еще две, надо как-то сделать size=3 и не положить сеть при этом
Anonymous
osd_recovery_delay_start»: ">0", «osd_max_backfills»: «1», «osd_recovery_threads»: «1», «osd_recovery_max_active»: «1»,
Anonymous
примерно так можно регулировать
J
А то и за год не закончится бэкфилл.
Anonymous
заканчивается за ночь на 1 ПБ кластере без проблем
Anonymous
osd max backfills=1 по дефолту же
Anonymous
5 по дефолту
Anonymous
ну у меня щас выставлено recovery max active = 2
Anonymous
остальное по дефолту
J
заканчивается за ночь на 1 ПБ кластере без проблем
Ну, тут все зависит от количества осд еще.
J
И от того что именно делается.
Anonymous
у меня очень не от хорошей жизни сейчас ceph-public и ceph-private на одном свитче живут, виланами
Anonymous
отсюда и желание ограничить
Anonymous
osd_recovery_delay_start=20 например выстави. Если боишься именно за сеть то можно покрутить параметр "osd_recovery_max_chunk": "8388608", в меньшую сторону
Anonymous
10 гбит?
Anonymous
да
Anonymous
тогда можно не парится, матрица коммутатора способна сотни гигабит в сек обрабатывать
Anonymous
даже тысячи )
Anonymous
у меня было такое ощущение что мне экспандеры на нодах залило
Anonymous
несколько секунд, но как бы это _очень_ неприятно
J
Но порт то 10G всего. А через него и репликаия и клиентский трафик)
Anonymous
ну клиентского там относительно не много
Anonymous
у меня больше 100 МБ/сек не бывает там
Anonymous
клиенты тупо 2*1GE
J
А, фу блин.
J
Чо-то я сам себя обманул и с чего-то стал думать что на одном порту все)
Andrey
а хостит кто нибудь ceph на core os ? да и в принципе чем деплоите ?
J
а хостит кто нибудь ceph на core os ? да и в принципе чем деплоите ?
Деплою с помощью fabric. http://www.fabfile.org/ А CoreOS вообще не для того в моем представлении.