@pro_openstack

Страница 79 из 117
Марк ☢
26.12.2016
18:54:10
а я и не говорил продедлок

просто по трэйсбэку за несколько прерываний видно, что он что-то однотипное делает

(иногда, если повезёт)

Google
Марк ☢
26.12.2016
18:54:45
яб попробовал

ну или тупо запрофайлерить — там и видно будет что же именно жрёт

есть тут Ванги ?

[Anonymous]
26.12.2016
22:19:51
Интересная вакансия "OpenStack Systems Engineer" — https://hh.ru/vacancy/18671487?from=share_android

Марк ☢
26.12.2016
22:20:44
Я все видел

[Anonymous]
26.12.2016
22:23:09
Нет скрина, нет доказательств

Марк ☢
27.12.2016
18:39:33
https://bugzilla.redhat.com/show_bug.cgi?id=1377174

ЕБАНАЯ КРАСНАЯ ШЛЯПА. НАСРАТЬ В НЕЁ

не могут блять сделать чтобы одно говношляпное поделие работало с их же другим.

вот на этот баг я напоролся

обновился блять

ПИДОРЫ ГНОЙНЫЕ

Anton
27.12.2016
18:41:20
воу воу, полехчи

Google
Михаил
27.12.2016
18:41:53
Узбагойся

Anton
27.12.2016
18:42:24
мсье ещё не бугуртил с systemd в 4.9 ядре

идёшь впереди стейбла любого дистра, много нового думаешь о инопланетянинах которые его пишут

Михаил
27.12.2016
18:43:28
Ну так впереди стейбла. Как овощ в среде высшего разума

Anton
27.12.2016
18:44:57
ну тип да

Марк ☢
27.12.2016
18:48:44
пишут кривым хуем растущим внутрь

Anton
27.12.2016
19:13:07
у нас вообще есть тут евангелист красных шляпок в соседнем чяти

иди может его понасилуй, если хочешь офк)

Марк ☢
27.12.2016
19:16:20
в каком

Anton
27.12.2016
19:16:58
да в любом

кличка старый хрыч

Марк ☢
27.12.2016
19:17:37
https://aboveaverage.com/wp-content/uploads/2015/11/trump-shit-with-red-hat-2.jpg

@erzent

Александр
27.12.2016
19:24:52
у нас вообще есть тут евангелист красных шляпок в соседнем чяти
Он так себе, малолетка, матерых тут нет, они в irc сидят

Anton
27.12.2016
19:25:34
а где кстати у красношляпки каналы свои?

неужто на фриноде?

Александр
27.12.2016
19:26:09
Почти везде

Anton
27.12.2016
19:26:10
я по цефу видел какие-то другие, но не помню какие были

"чтобы задеплоить каламари, научитесь в солт"

найс интрукция:))

Google
Pavel
27.12.2016
19:34:09
Да, причем инструкция не учитывает, что солт и так уже используется и как я туда каламари то прикручу епт

Старый
27.12.2016
19:36:44
а где кстати у красношляпки каналы свои?
даже в телеграмме есть 2 канала

красная шапка рулит

Anton
27.12.2016
19:37:03
официальных?

я прям там прихожу и мне в сла фиксят сломанный сателлит в трёх местах?

Старый
27.12.2016
19:37:49
оф каналы ток на фриноде и теподдержка в слаке, а так разрабы сидят

Anton
27.12.2016
19:38:13
разрабы чего сидят?

Марк ☢
27.12.2016
19:38:16
в слаке хуяке

Старый
27.12.2016
19:38:53
разрабы чего сидят?
и ядра и гнома и systemd

Anton
27.12.2016
19:38:58
а ты вниматенльный

и ядра и гнома и systemd
шапка ядры делает, вот так номер

что ещё нафантазируешь?:)

Старый
27.12.2016
19:39:52
шапка ядры делает, вот так номер
вообщет 25% коммитов в ядро шапка делает

Anton
27.12.2016
19:41:27
и как это отвечает на то, что всё ядро оно типа как-бы не делает

оно его пакует, и шипит иногда бэкпортит чето, иногда закрывает дырочки

Марк ☢
27.12.2016
20:05:18
поставь 7 centos, слабо себе представляю, что за рейд контроллер который не работает там, а ток в 6

если ток это не древность совсем

https://elrepo.org/bugs/view.php?id=495

вот просто блять вжух, и хуй положен

Александр
27.12.2016
20:07:39
????

Google
Anton
27.12.2016
20:08:44
что ваще ниче не работает?

Pavel
27.12.2016
20:08:46
Ну точнее анаконду запусти

Anton
27.12.2016
20:09:16
я на хпшке боролся включать на кентосе хардварный вачдог, точнее чтобы он не ресетил машину после 5 минут работ, лол

Марк ☢
27.12.2016
20:09:48
ну ты просто не заплатил. подумаешь баг....

Anton
27.12.2016
20:10:32
ну я по всей лестнице разрешения конфликта прошёл, только не смирился и принял, а сменил буйную

Старый
27.12.2016
20:28:57
https://koji.fedoraproject.org/koji/packageinfo?packageID=10264

всё есть для федора

Александр
27.12.2016
20:29:51
Федора уже ынтырпрайз для бомжей

А не центось

Марк ☢
27.12.2016
20:30:08
а это для копрофилов

и копрофагов

Александр
27.12.2016
20:30:37
?

Пойду говна наебну:-(

Sergey
28.12.2016
08:35:36
вести с полей моего реалити-шоу, продолжаю издеваться над своим кластером. новые симптомы: 1) высокий cpu usage на osd, как мне кажется, не связан с репликацией. такой же высокий cpu usage наблюдается на osd, на которых нет pg, которые не active+clean, и сейчас osd, на которых недореплицированная pg не имеют такой аномально высокой нагрузки 2) я покрутил crush tunables в optimal и получил 76% misplaced данных. подождал сутки, почти все дореплицировалось, осталась одна PG, в которой 10к (всего в кластере 69М) объектов остались в misplaced. 3) очень, очень медленно эти 10к объектов рассасываются. собственно, свежие вопросы: 1) есть ли у вас, господа, долгий (десятки часов) хвост ребаланса? основная часть ребаланса у меня прошла на хорошей скорости (1-2 Гб/с), а оставшиеся несколько гигабайт данных переливаются десятки часов. 2) есть предположение, что такое поведение - это следствие какой-то кривизны в CRUSH. уважаемые мэтры, если вы видите здесь что-то неадекватное - скажите мне, пожалуйста. мне не нравится например строчка "device 36 device36", но ее удаление и перекомпиляция/загрузка крашмапы не удаляют упоминание. Ранее был osd 36, который по процедуре стандартно выкинули. crushmap: https://gist.github.com/spuzirev/362a2867e2f4db1f302d43e2d296308e ceph osd tree: https://gist.github.com/spuzirev/e8bbd1d4f7056876f76e3016ec3d6d3e ceph -s: https://gist.github.com/spuzirev/8559f4704ad696d3c300d9006ae004ff

Марк ☢
28.12.2016
19:26:29
И да, я наконец-то нашёл в чём дело. в тормозах кластера у нас есть 2 проблемы — одна — оффлоадинг на сетёвке добавляет тормозов (уже отключил), и второе — таки TLC SSD ЖОВАННОЕ ОНО

в него упёрлось. завтра заменю SSD — кластер будет работать быстрее.

# hdparm -i /dev/sda /dev/sda: Model=OCZ-TRION150, FwRev=SAFZ12.3, SerialNo=26MB31F9K1AU

вести с полей моего реалити-шоу, продолжаю издеваться над своим кластером. новые симптомы: 1) высокий cpu usage на osd, как мне кажется, не связан с репликацией. такой же высокий cpu usage наблюдается на osd, на которых нет pg, которые не active+clean, и сейчас osd, на которых недореплицированная pg не имеют такой аномально высокой нагрузки 2) я покрутил crush tunables в optimal и получил 76% misplaced данных. подождал сутки, почти все дореплицировалось, осталась одна PG, в которой 10к (всего в кластере 69М) объектов остались в misplaced. 3) очень, очень медленно эти 10к объектов рассасываются. собственно, свежие вопросы: 1) есть ли у вас, господа, долгий (десятки часов) хвост ребаланса? основная часть ребаланса у меня прошла на хорошей скорости (1-2 Гб/с), а оставшиеся несколько гигабайт данных переливаются десятки часов. 2) есть предположение, что такое поведение - это следствие какой-то кривизны в CRUSH. уважаемые мэтры, если вы видите здесь что-то неадекватное - скажите мне, пожалуйста. мне не нравится например строчка "device 36 device36", но ее удаление и перекомпиляция/загрузка крашмапы не удаляют упоминание. Ранее был osd 36, который по процедуре стандартно выкинули. crushmap: https://gist.github.com/spuzirev/362a2867e2f4db1f302d43e2d296308e ceph osd tree: https://gist.github.com/spuzirev/e8bbd1d4f7056876f76e3016ec3d6d3e ceph -s: https://gist.github.com/spuzirev/8559f4704ad696d3c300d9006ae004ff
что я заметил:

Google
Марк ☢
28.12.2016
19:32:38
host ceph07

там нет OSD с именем device36

это раз. тоесть у тебя есть осд который сейчас ни в каком ни в хосте

root default

Sergey
28.12.2016
19:33:24
Я потом раскурился, это норм после удаления осдшки

Марк ☢
28.12.2016
19:33:25
item ceph07 weight 16.366

item ceph06 weight 18.185

тоесть вес там поменьше (ну, это норма)

Sergey
28.12.2016
19:33:57
Я вернул 36, все веса вровень, device36 стал нормальным. Проблема на месте.

Марк ☢
28.12.2016
19:34:53
высокий cpu usage на osd

Страница 79 из 117