@kubernetes_ru

Страница 769 из 958
Mikhail
20.08.2018
09:39:34
диск в норме, там ssd

а вот на сеть подозрения есть...

ок, спс

Mikhail
20.08.2018
09:40:04
ссд != бесконечный IO если что )

Google
Mikhail
20.08.2018
09:40:20
я в курсе

по iotop не превышает 1% =)

по сети много вот таких сообщений [Mon Aug 20 11:58:20 2018] IPv6: ADDRCONF(NETDEV_CHANGE): eth0: link becomes ready [Mon Aug 20 11:58:21 2018] IPv6: eth0: IPv6 duplicate address fe80::8861:53ff:fe91:af26 detected! [Mon Aug 20 12:41:24 2018] cni0: port 24(veth3ac6fd80) entered disabled state [Mon Aug 20 12:41:24 2018] device veth3ac6fd80 left promiscuous mode [Mon Aug 20 12:41:24 2018] cni0: port 24(veth3ac6fd80) entered disabled state

Pavel
20.08.2018
09:43:50
/report

Mikhail
20.08.2018
10:30:18
/report

Let Eat
20.08.2018
11:00:00
На ноде LA 140, а нагрузка в % не превышает 50, запущено 25 контейнеров Странная ситуация...
У вас точно ничего не висит в состоянии D. в топе? (включите отображение потоков кнопкой Н на всякий случай)

Stanislav
20.08.2018
11:16:37
наблюдаю подобное явление в докере, откуда контейнеры должны переезжать - один из контейнеров 1) ограничен по процессору половиной ядра, 2) постоянно запускает субпроцессы, которые пытаются сожрать как минимум по полному ядру.

Bob
20.08.2018
11:24:38
/report

Let Eat
20.08.2018
11:44:15
видели да? https://twitter.com/EdOverflow/status/1031267058615508994

Ну дела

Paul
20.08.2018
11:45:49
видели да? https://twitter.com/EdOverflow/status/1031267058615508994
вот это факап... Не факап, а факапище

Andor
20.08.2018
11:48:15
да уж

Google
Andor
20.08.2018
11:49:03
ну там в ответах написано что проблема не в самом трафике, а в конфигурации которую поставляли вендоры

Mikhail
20.08.2018
12:08:29
странно другое....

LA подскочил почти синхронно на 5 нодах за ночь

это может быть связано с тупняками на мастер ноде?

Sergey
20.08.2018
12:09:45
Mikhail
20.08.2018
12:09:59
подскажете какие?

Sergey
20.08.2018
12:10:05
чуть что сразу на мастера гонют!!!!

?

ну рпс у тебя на входе не вырос случаем?

Mikhail
20.08.2018
12:11:02
рпс чего к чему на каком входе?

Sergey
20.08.2018
12:11:26
ну на веб, откуда мне знать какой у вас сервис, вы нагрузку не мониторите чтоль?

мастер нода такая: а чо я сижу, давай ка через апишку нагружу воркеров чтобы не расслаблялись так?

Mikhail
20.08.2018
12:13:33
а, вы про сервисы в контейнерах...

Sergey
20.08.2018
12:13:56
ну а кто по вашему ноды грузит

пришло 10к рпс выросла нагрузка на бэк выросло потребление по ресурсам

Andor
20.08.2018
12:15:36
а оно пришло?

Mikhail
20.08.2018
12:15:55
оно такое... приход не гарантирован, но если будет, то....

Let Eat
20.08.2018
12:16:12
есть пара процессов всего, но по iotop actual write - 1МБ
D это не всегда IO, в общем случае это сисколл который нельзя прервать сигналом. Часто бывает на багах в ядре :)

Mikhail
20.08.2018
12:16:32
ам... спасибо за информацию

Google
Mikhail
20.08.2018
12:16:44
у меня на мастер ноде 4 ядра и 8ГБ памяти.

на нём же jenkins развёрнут

Andrey
20.08.2018
12:17:03
в 4 раза больше шансов словить баг!

Mikhail
20.08.2018
12:17:25
+prometeus +grafana

в 4 раза больше шансов словить баг!
отсюда по подробнее можно?

Andrey
20.08.2018
12:17:41
4 ядра :)

Mikhail
20.08.2018
12:17:56
шуточки за 100

понятно

Andrey
20.08.2018
12:18:01
да я оффтоплю, петросяню

Sergey
20.08.2018
12:18:09
?

Bukharin
20.08.2018
12:19:02
Всем привет! Ранее разворачивал GitLab через Helm https://gitlab.com/charts/gitlab тогда все развернулось, заработало на 3х нодах. После этого пришлось погасить все 3 ноды и после их поднятия много чего (из подов) не восстановилось в том числе Postgres от этого GitLab: $ kubectl get pods ... gitlab3-postgresql-784bdfb89b-9qsws 1/2 CrashLoopBackOff 23 1h ... $ kubectl describe pod gitlab3-postgresql-784bdfb89b-9qsws ... Events: Type Reason Age From Message —— —---- —— —— —---— Warning BackOff 1m (x432 over 1h) kubelet, k8s-m3.me Back-off restarting failed container $ kubectl logs gitlab3-postgresql-784bdfb89b-9qsws gitlab3-postgresql ... chown: changing ownership of '/var/lib/postgresql/data/pgdata/postmaster.opts': Read-only file system chown: changing ownership of '/var/lib/postgresql/data/pgdata/postmaster.pid': Read-only file system chown: changing ownership of '/var/lib/postgresql/data/pgdata': Read-only file system

не пойму куда смотреть... надо починить

Andrey
20.08.2018
12:20:40
не пойму куда смотреть... надо починить
>chown: changing ownership of '/var/lib/postgresql/data/pgdata/postmaster.opts': Read-only file system Проверь маунты волюмов.

Bukharin
20.08.2018
12:22:04
точнее?

Ivan
20.08.2018
12:28:26
Всем привет! Народ, а никто не в курсе, гиперкуб больше не будет обновляться или как? https://quay.io/repository/coreos/hyperkube?tab=tags

Ivan
20.08.2018
12:31:24
gcr.io/google-containers/hyperkube v1.11.2
о! спасибо большое ))

Кстати, прикол - CoreOS при переходе с 1632 на 1800 (где то между ними) поломали ETCD. Раньше в комплекте шёл бинарник, а в новой версии etcd запускается как контейнер в rkt ))

Google
Let Eat
20.08.2018
12:37:35
Файловая система

Bukharin
20.08.2018
12:38:14
ясно

Mikhail
20.08.2018
12:43:51
по поводу нагруженности мастер ноды...

можете начинать смеяться

Admin
ERROR: S client not available

Mikhail
20.08.2018
12:44:18
после ребута LA со 140 превратился в 10

Andor
20.08.2018
12:44:37
ребута чего?

Mikhail
20.08.2018
12:44:56
ребута мастер ноды

Andor
20.08.2018
12:45:05
одной из?

Mikhail
20.08.2018
12:45:13
единственной

Andor
20.08.2018
12:45:50
как это?

Mikhail
20.08.2018
12:45:57
просто

одна управляющая мастер нода и 4 остальных

Ivan
20.08.2018
12:50:51
Зато можно версию выбрать
Я написал юнит который запускает етцд в докер ))

Mikhail
20.08.2018
12:51:21
шта?

Vitaliy
20.08.2018
12:51:28
Коллеги, у меня новый челленж с kubernetes:) Нужно отредактировать адреса ceph мониторов в PersistentVolume. В kubectl edit мне логично отвечают "spec.persistentvolumesource: Forbidden: is immutable after creation" Делал кто-нибудь подобное? Какие есть варианты?

Andor
20.08.2018
12:51:53
переподключить нельзя без пересоздания?

@etkee спасибо тебе кстати

Google
Vitaliy
20.08.2018
12:53:30
переподключить нельзя без пересоздания?
Меня вполне устроит, чтобы он ничего не делал при самом изменении PV, а подключился к новым адресам при следующем старте подов. Но непонятно как редактировать.

Sergey
20.08.2018
12:54:58
@SinTeZoiD

Gleb
20.08.2018
12:55:37
чеж спамиры тупые такие

Ivan
20.08.2018
12:55:57
С КАРТИНКАМИ!

Gleb
20.08.2018
12:56:08
ну эт какая то новая фича

Ivan
20.08.2018
12:56:10
Человек старался, рисовал, душу вкладывал

Andor
20.08.2018
12:56:21
у меня аж глаза потекли насколько эта картинка прекрасна

Mikhail
20.08.2018
12:56:29
Ща мы ее пробьём и подпишем на порно рассыыыылку

а если повезет выяснить телефон, то и на СМС-рассылку подпишем =)

Gleb
20.08.2018
12:57:11
ну все релевантно должно быть же ну - вот у них там 600 баксов неделя - ну как они этим занитересуют кубоадмина

Mikhail
20.08.2018
12:57:17
А его и выяснять не надо, он в объявлении...

А по-вашему сколько в неделю нужно?

Vitaliy
20.08.2018
13:02:39
Я удаляю старые и деплою новые
PV можно удалить наживую, когда есть поды, использующие bound pvc?

Artyom
20.08.2018
13:04:41
Вроде нет

Ivan
20.08.2018
13:04:42
Насколько я помню - нет. PVC точно не дадут удалить PV. А полы видимо не дадут удалить PVC.

Страница 769 из 958