
Sergey
26.12.2016
18:53:55

Марк ☢
26.12.2016
18:54:10
а я и не говорил продедлок
просто по трэйсбэку за несколько прерываний видно, что он что-то однотипное делает
(иногда, если повезёт)

Google

Марк ☢
26.12.2016
18:54:45
яб попробовал
ну или тупо запрофайлерить — там и видно будет что же именно жрёт
есть тут Ванги ?

[Anonymous]
26.12.2016
22:19:51
Интересная вакансия "OpenStack Systems Engineer" — https://hh.ru/vacancy/18671487?from=share_android

Марк ☢
26.12.2016
22:20:44
Я все видел

[Anonymous]
26.12.2016
22:23:09
Нет скрина, нет доказательств

Марк ☢
27.12.2016
18:39:33
https://bugzilla.redhat.com/show_bug.cgi?id=1377174
ЕБАНАЯ КРАСНАЯ ШЛЯПА. НАСРАТЬ В НЕЁ
не могут блять сделать чтобы одно говношляпное поделие работало с их же другим.
вот на этот баг я напоролся
обновился блять
ПИДОРЫ ГНОЙНЫЕ

Anton
27.12.2016
18:41:20
воу воу, полехчи

Google

Михаил
27.12.2016
18:41:53
Узбагойся

Anton
27.12.2016
18:42:24
мсье ещё не бугуртил с systemd в 4.9 ядре
идёшь впереди стейбла любого дистра, много нового думаешь о инопланетянинах которые его пишут

Михаил
27.12.2016
18:43:28
Ну так впереди стейбла. Как овощ в среде высшего разума

Anton
27.12.2016
18:44:57
ну тип да

Марк ☢
27.12.2016
18:48:44
пишут кривым хуем растущим внутрь

Anton
27.12.2016
19:13:07
у нас вообще есть тут евангелист красных шляпок в соседнем чяти
иди может его понасилуй, если хочешь офк)

Марк ☢
27.12.2016
19:16:20
в каком

Anton
27.12.2016
19:16:58
да в любом
кличка старый хрыч

Марк ☢
27.12.2016
19:17:37
https://aboveaverage.com/wp-content/uploads/2015/11/trump-shit-with-red-hat-2.jpg
@erzent

Александр
27.12.2016
19:24:52

Anton
27.12.2016
19:25:34
а где кстати у красношляпки каналы свои?
неужто на фриноде?

Александр
27.12.2016
19:26:09
Почти везде

Anton
27.12.2016
19:26:10
я по цефу видел какие-то другие, но не помню какие были
"чтобы задеплоить каламари, научитесь в солт"
найс интрукция:))

Google

Pavel
27.12.2016
19:34:09
Да, причем инструкция не учитывает, что солт и так уже используется и как я туда каламари то прикручу епт

Старый
27.12.2016
19:36:44
красная шапка рулит

Anton
27.12.2016
19:37:03
официальных?
я прям там прихожу и мне в сла фиксят сломанный сателлит в трёх местах?

Старый
27.12.2016
19:37:49
оф каналы ток на фриноде и теподдержка в слаке, а так разрабы сидят

Anton
27.12.2016
19:38:13
разрабы чего сидят?

Марк ☢
27.12.2016
19:38:16
в слаке хуяке

Старый
27.12.2016
19:38:53

Anton
27.12.2016
19:38:58
а ты вниматенльный
что ещё нафантазируешь?:)

Старый
27.12.2016
19:39:52

Anton
27.12.2016
19:41:27
и как это отвечает на то, что всё ядро оно типа как-бы не делает
оно его пакует, и шипит
иногда бэкпортит чето, иногда закрывает дырочки

Марк ☢
27.12.2016
20:05:18
поставь 7 centos, слабо себе представляю, что за рейд контроллер который не работает там, а ток в 6
если ток это не древность совсем
https://elrepo.org/bugs/view.php?id=495
вот просто блять вжух, и хуй положен

Александр
27.12.2016
20:07:39
????

Google

Pavel
27.12.2016
20:08:12
Поставь центос 7 и удивись

Anton
27.12.2016
20:08:44
что ваще ниче не работает?

Pavel
27.12.2016
20:08:46
Ну точнее анаконду запусти

Anton
27.12.2016
20:09:16
я на хпшке боролся включать на кентосе хардварный вачдог, точнее чтобы он не ресетил машину после 5 минут работ, лол

Марк ☢
27.12.2016
20:09:48
ну ты просто не заплатил. подумаешь баг....

Anton
27.12.2016
20:10:32
ну я по всей лестнице разрешения конфликта прошёл, только не смирился и принял, а сменил буйную

Старый
27.12.2016
20:28:57
https://koji.fedoraproject.org/koji/packageinfo?packageID=10264
всё есть для федора

Александр
27.12.2016
20:29:51
Федора уже ынтырпрайз для бомжей
А не центось

Марк ☢
27.12.2016
20:30:08
а это для копрофилов
и копрофагов

Александр
27.12.2016
20:30:37
?
Пойду говна наебну:-(


Sergey
28.12.2016
08:35:36
вести с полей моего реалити-шоу, продолжаю издеваться над своим кластером.
новые симптомы:
1) высокий cpu usage на osd, как мне кажется, не связан с репликацией. такой же высокий cpu usage наблюдается на osd, на которых нет pg, которые не active+clean, и сейчас osd, на которых недореплицированная pg не имеют такой аномально высокой нагрузки
2) я покрутил crush tunables в optimal и получил 76% misplaced данных. подождал сутки, почти все дореплицировалось, осталась одна PG, в которой 10к (всего в кластере 69М) объектов остались в misplaced.
3) очень, очень медленно эти 10к объектов рассасываются.
собственно, свежие вопросы:
1) есть ли у вас, господа, долгий (десятки часов) хвост ребаланса? основная часть ребаланса у меня прошла на хорошей скорости (1-2 Гб/с), а оставшиеся несколько гигабайт данных переливаются десятки часов.
2) есть предположение, что такое поведение - это следствие какой-то кривизны в CRUSH. уважаемые мэтры, если вы видите здесь что-то неадекватное - скажите мне, пожалуйста. мне не нравится например строчка "device 36 device36", но ее удаление и перекомпиляция/загрузка крашмапы не удаляют упоминание. Ранее был osd 36, который по процедуре стандартно выкинули.
crushmap: https://gist.github.com/spuzirev/362a2867e2f4db1f302d43e2d296308e
ceph osd tree: https://gist.github.com/spuzirev/e8bbd1d4f7056876f76e3016ec3d6d3e
ceph -s: https://gist.github.com/spuzirev/8559f4704ad696d3c300d9006ae004ff


Марк ☢
28.12.2016
19:26:29
И да, я наконец-то нашёл в чём дело. в тормозах кластера у нас есть 2 проблемы — одна — оффлоадинг на сетёвке добавляет тормозов (уже отключил), и второе — таки TLC SSD ЖОВАННОЕ ОНО
в него упёрлось. завтра заменю SSD — кластер будет работать быстрее.
# hdparm -i /dev/sda
/dev/sda:
Model=OCZ-TRION150, FwRev=SAFZ12.3, SerialNo=26MB31F9K1AU
вести с полей моего реалити-шоу, продолжаю издеваться над своим кластером.
новые симптомы:
1) высокий cpu usage на osd, как мне кажется, не связан с репликацией. такой же высокий cpu usage наблюдается на osd, на которых нет pg, которые не active+clean, и сейчас osd, на которых недореплицированная pg не имеют такой аномально высокой нагрузки
2) я покрутил crush tunables в optimal и получил 76% misplaced данных. подождал сутки, почти все дореплицировалось, осталась одна PG, в которой 10к (всего в кластере 69М) объектов остались в misplaced.
3) очень, очень медленно эти 10к объектов рассасываются.
собственно, свежие вопросы:
1) есть ли у вас, господа, долгий (десятки часов) хвост ребаланса? основная часть ребаланса у меня прошла на хорошей скорости (1-2 Гб/с), а оставшиеся несколько гигабайт данных переливаются десятки часов.
2) есть предположение, что такое поведение - это следствие какой-то кривизны в CRUSH. уважаемые мэтры, если вы видите здесь что-то неадекватное - скажите мне, пожалуйста. мне не нравится например строчка "device 36 device36", но ее удаление и перекомпиляция/загрузка крашмапы не удаляют упоминание. Ранее был osd 36, который по процедуре стандартно выкинули.
crushmap: https://gist.github.com/spuzirev/362a2867e2f4db1f302d43e2d296308e
ceph osd tree: https://gist.github.com/spuzirev/e8bbd1d4f7056876f76e3016ec3d6d3e
ceph -s: https://gist.github.com/spuzirev/8559f4704ad696d3c300d9006ae004ff
что я заметил:

Google

Марк ☢
28.12.2016
19:32:38
host ceph07
там нет OSD с именем device36
это раз. тоесть у тебя есть осд который сейчас ни в каком ни в хосте
root default

Sergey
28.12.2016
19:33:24
Я потом раскурился, это норм после удаления осдшки

Марк ☢
28.12.2016
19:33:25
item ceph07 weight 16.366
item ceph06 weight 18.185
тоесть вес там поменьше (ну, это норма)

Sergey
28.12.2016
19:33:57
Я вернул 36, все веса вровень, device36 стал нормальным. Проблема на месте.

Марк ☢
28.12.2016
19:34:53
высокий cpu usage на osd