
bebebe
11.10.2018
07:48:11

Сергей
11.10.2018
07:48:14

kvaps
11.10.2018
07:49:01

Сергей
11.10.2018
07:49:58

Google

Сергей
11.10.2018
07:50:08
на всех нодах

kvaps
11.10.2018
07:51:34
Тогда где конкретно вы два адреса видите?
В интерфейсе ранчера?

Сергей
11.10.2018
07:51:55
дело в том что я бы удалил эту ноду и поставил заного с новым адресом, но у меня проблемы видимо с etcd и после удаления ноды этой у меня перестают работать всё. До этого было 2 ноды с control plane и после удаления одной стали проблемы и иногда ссылается не туда

kvaps
11.10.2018
07:53:58
Ну тогда у вас проблемы с ранчером а не с кубом в первую очередь
Ранчер и правда хранит какую-то метаинформацию в аннотациях, можете попробовать ее подправить через kubectl edit, но я не уверен что вам это поможет

Сергей
11.10.2018
07:58:32

kvaps
11.10.2018
08:01:24
Ну что ж вы так, надо бы подлечиться :)

Artem
11.10.2018
08:01:36

Google

Сергей
11.10.2018
08:02:13

Vitalik
11.10.2018
08:06:51
посмотреть логи, проверить доступность доменов-портов

Aleksey
11.10.2018
08:07:18

Vadim
11.10.2018
08:32:05

Alexey
11.10.2018
08:33:54

Старый
11.10.2018
08:36:03
?есть 16 серверов у которых по 2 линка по 100 гбит, 3 сервера с 4 линкоми в 40 гбит, и ещё 32 сервера с 4 линками по 10 гбит. Есть сервисы, которые будут жить на хосте в контейнере, а есть которые будут вне контейнера, при этом их надо связать по юникс сокету, у серверов где 100 гбит линки при определённых операциях будет сеть утилизитрована на 50% от 1 линка, будет порядка 86 приложени каковы шансы это сделать работающим так, чтобы прийти, настроить и на 5 лет забыть?

Fike
11.10.2018
08:41:18
Это предисловие к страху и ненависти?

bebebe
11.10.2018
08:42:17
а нет, тут коллеги подсказывают, 17,5%

Старый
11.10.2018
08:42:39

Artem
11.10.2018
08:44:02
дада, не хватает только в конце "Я знал, что рано или поздно мы перейдем и на эту дрянь."

Alexey
11.10.2018
08:44:50

Старый
11.10.2018
08:45:28

Alexey
11.10.2018
08:45:48

Vasilyev
11.10.2018
08:47:30
5 лет без отказа (с)
В мемориз))

Старый
11.10.2018
08:47:51

Sergey
11.10.2018
08:48:34

Старый
11.10.2018
08:49:28

Sergey
11.10.2018
08:50:16

Google

Старый
11.10.2018
08:52:13

bebebe
11.10.2018
08:53:44
Главное креды пошарь

Alexey
11.10.2018
08:54:21
а там глядишь всем хватит

Никита
11.10.2018
08:55:25
?есть 16 серверов у которых по 2 линка по 100 гбит, 3 сервера с 4 линкоми в 40 гбит, и ещё 32 сервера с 4 линками по 10 гбит. Есть сервисы, которые будут жить на хосте в контейнере, а есть которые будут вне контейнера, при этом их надо связать по юникс сокету, у серверов где 100 гбит линки при определённых операциях будет сеть утилизитрована на 50% от 1 линка, будет порядка 86 приложени каковы шансы это сделать работающим так, чтобы прийти, настроить и на 5 лет забыть?
Нутк смотришь, как оно может сломаться и придумываешь, как там соломку постелить.

Vadim
11.10.2018
08:55:38

Старый
11.10.2018
08:56:03

Alexey
11.10.2018
08:56:37

Старый
11.10.2018
08:57:02

bebebe
11.10.2018
08:57:48
я предлагаю попилить

Михаил
11.10.2018
08:59:12
и да, касандра и хадуп в этом списке тоже были

bebebe
11.10.2018
08:59:47
похоже на ойти директора
кстати, юникс сокеты могут хорошо превращаться в tcp сокеты через nginx

Старый
11.10.2018
09:05:00

bebebe
11.10.2018
09:05:18

Михаил
11.10.2018
09:05:23

Старый
11.10.2018
09:06:17
Не кешируй
ну подари мне железа с 600 тб оперативки, не буду

Gleb
11.10.2018
09:06:24

Google

Михаил
11.10.2018
09:06:56

Старый
11.10.2018
09:06:57
Не кешируй
и ведь заметь, на срач вы сами перевели разговор

Fike
11.10.2018
09:09:12

Михаил
11.10.2018
09:09:32

Сергей
11.10.2018
09:35:51
подскажите сколько вообще control plane требуется запускать?

Deep Sea
11.10.2018
09:55:00
Для отказоустойчивости - нечётное число больше или равно 3

Alexey
11.10.2018
09:55:34
6 серверов будут не отказоустойчивы? O_O

Дмитрий
11.10.2018
09:55:59
Читайте про raft и кворум

Deep Sea
11.10.2018
09:56:00
Смысла нет в 6, будет такая же доступность как и с 5

Alexey
11.10.2018
09:56:49
т.е. у меня 6 серверов, умерло 5 и все?

Deep Sea
11.10.2018
10:00:04

Alexey
11.10.2018
10:00:13
Как правило, алгоритм консенсуса может добиться прогресса используя 2F+1 процессоров, несмотря на одновременный сбой любых F процессоров.
Это про консенсус. Т.е. разруливать 5 или 6 нет разницы. А отказоустойчивость это больше про доступность я имел в виду.

Дмитрий
11.10.2018
10:01:08
Если у тебя было 6 и упало 4 - у тебя проблемы

kvaps
11.10.2018
10:26:33

Alexander N.
11.10.2018
10:55:18
обновился до 1.12 с 1.11, в целом прошло нормально, разве что калико приуныла, настолько, что слетела меш-сеть между нодами, пришлось ребутать

Anton
11.10.2018
10:58:33

Andor
11.10.2018
10:58:51
классный репорт
"всё классно но пришлось ребутать"

Alexander N.
11.10.2018
10:59:29
классный репорт
где я сказал что все классно? в моем понимании обновилось - уже хорошо, не в проде же

Google

Anton
11.10.2018
10:59:41
классный репорт
Ну когда я обновляся с 10 на 11 были проблеммы с шедулингом, прошлось отрубать гейт podPriority

Alexander N.
11.10.2018
11:00:28

Anton
11.10.2018
11:00:46

Alexander N.
11.10.2018
11:01:03
нет, ручками

Anton
11.10.2018
11:02:41
просто в спрее был прикол в там до недавнего времени 2.8.6 была, и штатно не обновлялась на нодах

Alexander N.
11.10.2018
11:04:12
на самом деле странная херня, сам куб обновился без запинки, за ним и кублеты на нодах, тож ни одной ошибки, но через минут 5-10 посыпалась сеть. отвалились рабочие сервисы, ингрессы стали 503 отдавать
поглядел в calicoctl node status
а там до некоторых нод connection refused

M
11.10.2018
11:05:22
ребят а есть способ использую google-ingress сделать force https ?!

Alexander N.
11.10.2018
11:08:22
есть подозрение что сам себе злобный дятел, т.к. на нодах стоял докер 17, а вместе с кубером обновился до 18

Никита
11.10.2018
11:19:03

Anton
11.10.2018
11:20:50

Fike
11.10.2018
11:24:06

kvaps
11.10.2018
11:27:49

Denis
11.10.2018
11:28:05
Кто то знает как бороться с Evicted pods. Ошибка: Pod The node was low on resource: [MemoryPressure].

Andor
11.10.2018
11:28:29
править реквесты-лимиты
фиксить мемори лики
ставить ноды с памятью побольше

kvaps
11.10.2018
11:29:22