@kubernetes_ru

Страница 884 из 958
Сергей
11.10.2018
07:48:14
Если не мастер, скорее всего не придется, чем деплоили?
поставил его и мучаюсь теперь переодический

kvaps
11.10.2018
07:49:01
не угарайте только rancher 2
А адрес ноды тоже в ранчере смотрите или где конкретно? kubectl get nodes -o wide Правильный адрес выводит?

Google
Сергей
11.10.2018
07:50:08
на всех нодах

kvaps
11.10.2018
07:51:34
Тогда где конкретно вы два адреса видите?

В интерфейсе ранчера?

Сергей
11.10.2018
07:51:55
дело в том что я бы удалил эту ноду и поставил заного с новым адресом, но у меня проблемы видимо с etcd и после удаления ноды этой у меня перестают работать всё. До этого было 2 ноды с control plane и после удаления одной стали проблемы и иногда ссылается не туда

В интерфейсе ранчера?
да. в анотациях старый адрес тоже

да. в анотациях старый адрес тоже
ну и при этом ничего не запускается на этой ноде.

kvaps
11.10.2018
07:53:58
Ну тогда у вас проблемы с ранчером а не с кубом в первую очередь

Ранчер и правда хранит какую-то метаинформацию в аннотациях, можете попробовать ее подправить через kubectl edit, но я не уверен что вам это поможет

ну и при этом ничего не запускается на этой ноде.
Почему не запускается ничего, нужно смотреть более детально, в первую очередь проверьте: может быть нода NotReady?

Сергей
11.10.2018
07:58:32
Почему не запускается ничего, нужно смотреть более детально, в первую очередь проверьте: может быть нода NotReady?
я если честно сейчас боюсь что то делать уже, потому что сейчас работают люди с кластером и тяжело делать манипуляции всякие, потому что может упасть всё из за этой ерунды(

Почему не запускается ничего, нужно смотреть более детально, в первую очередь проверьте: может быть нода NotReady?
у меня ранчер пишет вообще вот что Предупреждение: Компонент etcd-1 нездоровый.

kvaps
11.10.2018
08:01:24
Ну что ж вы так, надо бы подлечиться :)

Google
Сергей
11.10.2018
08:02:13
Ну что ж вы так, надо бы подлечиться :)
да, только что это я хз пока что

Ну что ж вы так, надо бы подлечиться :)
как то можно проверить etcd?

Vitalik
11.10.2018
08:06:51
посмотреть логи, проверить доступность доменов-портов

Aleksey
11.10.2018
08:07:18
как то можно проверить etcd?
https://github.com/etcd-io/etcd/tree/master/etcdctl главное в env ключи прописать

Alexey
11.10.2018
08:33:54
зачем еще один сервис? почему поды не скейлются в сервисе ?
Там вообще хлопцы при написании сервиса не знали про stateful set, полагаются на дефолтные имена-адреса сервисов и многое сделали, чтобы техподдержка не скучала))

Старый
11.10.2018
08:36:03
?есть 16 серверов у которых по 2 линка по 100 гбит, 3 сервера с 4 линкоми в 40 гбит, и ещё 32 сервера с 4 линками по 10 гбит. Есть сервисы, которые будут жить на хосте в контейнере, а есть которые будут вне контейнера, при этом их надо связать по юникс сокету, у серверов где 100 гбит линки при определённых операциях будет сеть утилизитрована на 50% от 1 линка, будет порядка 86 приложени каковы шансы это сделать работающим так, чтобы прийти, настроить и на 5 лет забыть?

Fike
11.10.2018
08:41:18
Это предисловие к страху и ненависти?

Старый
11.10.2018
08:42:39
Это предисловие к страху и ненависти?
может нам с тобой книгу написать?

Artem
11.10.2018
08:44:02
дада, не хватает только в конце "Я знал, что рано или поздно мы перейдем и на эту дрянь."

Старый
11.10.2018
08:45:28
Зачем забыть? Этож золотое дно на суппорте держать
не, эт в тз написано, 5 лет без отказа

Alexey
11.10.2018
08:45:48
не, эт в тз написано, 5 лет без отказа
5 лет без отказа только локалхост работает ))

Vasilyev
11.10.2018
08:47:30
5 лет без отказа (с) В мемориз))

Старый
11.10.2018
08:47:51
5 лет без отказа только локалхост работает ))
я пока вообще не понимаю как я даже настраивать буду это

Старый
11.10.2018
08:49:28
кассандра 125 гбит утилизация цпу 55% а мне это на скале сетапить
?мне вот не смешно, какк правильно писал вчера гусь, у меня 0 инфы крмое предположений и хотелок кодеров

Sergey
11.10.2018
08:50:16
?мне вот не смешно, какк правильно писал вчера гусь, у меня 0 инфы крмое предположений и хотелок кодеров
забыл сказать, хадуп, цеф и вмваре опеншифт с ораклом 10к транзакций в секунду

Google
bebebe
11.10.2018
08:53:44
Главное креды пошарь

Alexey
11.10.2018
08:54:21
?мне вот не смешно, какк правильно писал вчера гусь, у меня 0 инфы крмое предположений и хотелок кодеров
Ну так ты сделай как по нормальному интеграторы делают, типа хотелки - это вы молодцы, у вас все будет. Но давайте начнем с одного не крит приложения и трех серверов

а там глядишь всем хватит

Vadim
11.10.2018
08:55:38
Забирай контракт. Мы тебе всем чатиком поможем
ты что, первый день Хрыча знаешь? Возьмет, сделает, снова начнет ныть, rinse, repeat

Alexey
11.10.2018
08:56:37
?я там и так уже 18 бредовых идей убрал, например сетевой raid 6 на ceph x1 режиме
Тут должен быть @SinTeZoiD, без его бомбежа это не будет полным)

Старый
11.10.2018
08:57:02
Тут должен быть @SinTeZoiD, без его бомбежа это не будет полным)
он на меня орать будет, хотя это предложение не я делал

bebebe
11.10.2018
08:57:48
я предлагаю попилить

Михаил
11.10.2018
08:59:12
Тут должен быть @SinTeZoiD, без его бомбежа это не будет полным)
У нас в компании нашлась московская версия хрыча. Много слов и нихуя не знает.

и да, касандра и хадуп в этом списке тоже были

bebebe
11.10.2018
08:59:47
похоже на ойти директора

кстати, юникс сокеты могут хорошо превращаться в tcp сокеты через nginx

Старый
11.10.2018
09:05:00
bebebe
11.10.2018
09:05:18
и зачем мне кеш гонять через сеть?
вы предпочитаете безнал?

Михаил
11.10.2018
09:05:23
Старый
11.10.2018
09:06:17
Не кешируй
ну подари мне железа с 600 тб оперативки, не буду

Gleb
11.10.2018
09:06:24
вы предпочитаете безнал?
нечто другое заканчиваеющееся на *нал

Google
Михаил
11.10.2018
09:06:56
Старый
11.10.2018
09:06:57
Не кешируй
и ведь заметь, на срач вы сами перевели разговор

Fike
11.10.2018
09:09:12
и да, касандра и хадуп в этом списке тоже были
фух, вовремя вспомнил, что я питерский

Михаил
11.10.2018
09:09:32
Сергей
11.10.2018
09:35:51
подскажите сколько вообще control plane требуется запускать?

Deep Sea
11.10.2018
09:55:00
Для отказоустойчивости - нечётное число больше или равно 3

Alexey
11.10.2018
09:55:34
6 серверов будут не отказоустойчивы? O_O

Дмитрий
11.10.2018
09:55:59
Читайте про raft и кворум

Deep Sea
11.10.2018
09:56:00
Смысла нет в 6, будет такая же доступность как и с 5

Alexey
11.10.2018
09:56:49
т.е. у меня 6 серверов, умерло 5 и все?

Deep Sea
11.10.2018
10:00:04
т.е. у меня 6 серверов, умерло 5 и все?
https://blogs.msdn.microsoft.com/clustering/2011/05/27/understanding-quorum-in-a-failover-cluster/

Alexey
11.10.2018
10:00:13
Как правило, алгоритм консенсуса может добиться прогресса используя 2F+1 процессоров, несмотря на одновременный сбой любых F процессоров. Это про консенсус. Т.е. разруливать 5 или 6 нет разницы. А отказоустойчивость это больше про доступность я имел в виду.

Дмитрий
11.10.2018
10:01:08
Если у тебя было 6 и упало 4 - у тебя проблемы

kvaps
11.10.2018
10:26:33
Смысла нет в 6, будет такая же доступность как и с 5
будет хуже для 5 - кворум 3 для 6 - кворум уже 4

Alexander N.
11.10.2018
10:55:18
обновился до 1.12 с 1.11, в целом прошло нормально, разве что калико приуныла, настолько, что слетела меш-сеть между нодами, пришлось ребутать

Andor
11.10.2018
10:58:51
классный репорт

"всё классно но пришлось ребутать"

Alexander N.
11.10.2018
10:59:29
классный репорт
где я сказал что все классно? в моем понимании обновилось - уже хорошо, не в проде же

Google
Anton
11.10.2018
10:59:41
классный репорт
Ну когда я обновляся с 10 на 11 были проблеммы с шедулингом, прошлось отрубать гейт podPriority

Alexander N.
11.10.2018
11:00:28
Anton
11.10.2018
11:00:46
3.1.3
kubespray?

Alexander N.
11.10.2018
11:01:03
нет, ручками

Anton
11.10.2018
11:02:41
просто в спрее был прикол в там до недавнего времени 2.8.6 была, и штатно не обновлялась на нодах

Alexander N.
11.10.2018
11:04:12
на самом деле странная херня, сам куб обновился без запинки, за ним и кублеты на нодах, тож ни одной ошибки, но через минут 5-10 посыпалась сеть. отвалились рабочие сервисы, ингрессы стали 503 отдавать

поглядел в calicoctl node status

а там до некоторых нод connection refused

M
11.10.2018
11:05:22
ребят а есть способ использую google-ingress сделать force https ?!

Alexander N.
11.10.2018
11:08:22
есть подозрение что сам себе злобный дятел, т.к. на нодах стоял докер 17, а вместе с кубером обновился до 18

Никита
11.10.2018
11:19:03
Anton
11.10.2018
11:20:50
Даладна, обновление c 2 на 3 в кубспрее написано.
Прописано, но когда я обновлялся он не мог на нодах (на мастерах смог) записать тулзы в /opt/cni/bin/ перезаписать, пришлось папку переименовывать

Fike
11.10.2018
11:24:06
т.е. у меня 6 серверов, умерло 5 и все?
И при шести, и при пяти серверах потеря работоспособности будет происходить при трех утонувших узлах. Таким образом у вас просто лишний сервак.

Denis
11.10.2018
11:28:05
Кто то знает как бороться с Evicted pods. Ошибка: Pod The node was low on resource: [MemoryPressure].

Andor
11.10.2018
11:28:29
править реквесты-лимиты

фиксить мемори лики

ставить ноды с памятью побольше

kvaps
11.10.2018
11:29:22
Кто то знает как бороться с Evicted pods. Ошибка: Pod The node was low on resource: [MemoryPressure].
настроить eviction thresholds https://kubernetes.io/docs/tasks/administer-cluster/out-of-resource/#hard-eviction-thresholds

Страница 884 из 958