
Fedor
17.10.2018
06:59:55
Проставь и все заработает

Andor
17.10.2018
07:06:30
https://mobile.twitter.com/fioraaeterna/status/1052294419607506944 слышали прекрасное?

terry
17.10.2018
07:07:44

Vadim
17.10.2018
07:08:32
Что за гипервизор с libssh?

Google

Andor
17.10.2018
07:08:40
Я правда не знаю где libssh используется

terry
17.10.2018
07:10:56

Andrey
17.10.2018
07:13:37
покритикуйте решение? https://github.com/gabrielfsousa/zookeeper-kafka-kubernetes задача: нужно запускать под из статефулсета на конкретной ноде

Andrey
17.10.2018
07:14:12
Проставь и все заработает
сомнительно. Куб говорит, pod's unschedulable потому что ему видите ли CPU не хватает, а autoscaler этого не видит?

terry
17.10.2018
07:14:51

Andor
17.10.2018
07:15:48

Andrey
17.10.2018
07:17:19
по идее autoscaler должен реагировать на поды, которым не хватает capacity, именно это написано в доках

terry
17.10.2018
07:17:31
баг?

Alexander N.
17.10.2018
07:17:43

Andrey
17.10.2018
07:17:44
возможно
схожу ка я в саппорт гугла

Fedor
17.10.2018
07:18:21

Andrey
17.10.2018
07:18:58
и там же:
> With autoscaling enabled, GKE automatically adds a new node to your cluster if you've created new Pods that don't have enough capacity to run

Google

Andrey
17.10.2018
07:19:19
у меня как раз такая ситуация
причём я уже видел, как работает autoscale для подов без реквестов, только это было в другом проекте
о, кажется это не autoscaler. GCP не может добавить новую ноду в instance group для пула
попробовал вручную увеличить размер пула, и оно валится

Fike
17.10.2018
07:34:42

Алексей
17.10.2018
07:35:53

Mikhail
17.10.2018
07:39:37
Паппет сила! :)

Anton
17.10.2018
07:42:07
я когда вижу всякое рубевое в паппете, if конструкции, erb, мне становится плохо

Mikhail
17.10.2018
07:46:24
Мне тоже. Но когда я вижу солт, меня тошнит. А ансибл кажется поделкой.

Let Eat
17.10.2018
07:47:26
Все такие чувствительные )

Ivan
17.10.2018
07:48:04
+1 к паппету, и кстати, как там нынче с поддержкой к8с?

Mikhail
17.10.2018
07:48:50

Andor
17.10.2018
07:49:18
Официальный модуль от пупетлабс - ниочинь
Берите модуль от Азалио :)

Mikhail
17.10.2018
07:49:32
Ггг

Andor
17.10.2018
07:49:58
Мы возможно наш форк опенсорснем, но пока это не в приоритете

Vadim
17.10.2018
07:50:27
https://opensource.com/article/18/10/ansible-operators-kubernetes

Let Eat
17.10.2018
07:50:29
А у кого кроме гуглов опенсорситть в приоритете )

Andor
17.10.2018
07:50:59
У гуглов тоже не в приоритете

Google

kvaps
17.10.2018
07:51:43
У M$

Ivan
17.10.2018
07:52:09
шуткую

Andor
17.10.2018
07:55:41
Сначала надо с другими проблемами разобраться

ghst
17.10.2018
10:07:41
Привет, можете подсказать как быть с persistent storage на кубернетес, пытаюсь уже два месяца поднять кластер на digitalocean из 3 нод. Я не могу найти не одно нормальное решение хранения данных. Если изпользую nfs клиент, то все упираеться в сетку приватную в гигабит, это медленно для базы данных, если использую nfs provisioner из хельма, то он хранит данные только на одной ноде, и при переподнятии контейнера на другой ноде он начинает читать не с диска а по сетке с одной ноды на другую. Пробовал контейнезированные блок стораджи типо longhorn или openebs, но там вообще жесть, 1 гигабайт данных может писать 4 минуты, я писал разрабам, они сказали что у них только в планах это фиксить и вообще их решения не для продакшена. Вопрос, какой персистент сторадж исползовать при кластере из 3 нод на digitalocean? Спасибо.

Andor
17.10.2018
10:09:04
а для чего тебе вообще такой сторейж?

ghst
17.10.2018
10:09:58

Stanislav
17.10.2018
10:10:24
В любом случае упрётся в сеть

ghst
17.10.2018
10:10:39
Т.е: Namespace1 (php,queue,redis,mongodb) Namespace2: (php,queue,redis:mysql)


kvaps
17.10.2018
10:10:45
Привет, можете подсказать как быть с persistent storage на кубернетес, пытаюсь уже два месяца поднять кластер на digitalocean из 3 нод. Я не могу найти не одно нормальное решение хранения данных. Если изпользую nfs клиент, то все упираеться в сетку приватную в гигабит, это медленно для базы данных, если использую nfs provisioner из хельма, то он хранит данные только на одной ноде, и при переподнятии контейнера на другой ноде он начинает читать не с диска а по сетке с одной ноды на другую. Пробовал контейнезированные блок стораджи типо longhorn или openebs, но там вообще жесть, 1 гигабайт данных может писать 4 минуты, я писал разрабам, они сказали что у них только в планах это фиксить и вообще их решения не для продакшена. Вопрос, какой персистент сторадж исползовать при кластере из 3 нод на digitalocean? Спасибо.
У DO вроде свой провижионер есть для куба
https://stackpointcloud.com/community/tutorial/getting-started-with-digitalocean-block-storage-and-kubernetes


Никита
17.10.2018
10:12:11

ghst
17.10.2018
10:12:27

kvaps
17.10.2018
10:12:34
но тут же встает вопрос с их провижионингом

Andor
17.10.2018
10:13:28
А у ДО нет аналога ebs?

ghst
17.10.2018
10:13:42
и если я хочу себе, например, 25 на каждую ноду, то это к команде инженеров digitalocean и это на долго
у DO есть digitalocean/csi-digitalocean на гитхабе, но лимит 7 volumes на дроплет, и это не изменить

kvaps
17.10.2018
10:15:29
Тогда local-volumes - это лучший выбор. Вам будет достаточно нагенерить по 25 PV на ноду, потом куб уже будет раздавать их на каждый PVC

ghst
17.10.2018
10:15:46
Последнее что я решил, это поднять 25 кластеров монги или mysql, и исползовать Bind mount local directory from node

Andor
17.10.2018
10:16:34
оператором?

Google

ghst
17.10.2018
10:17:59
Так, я забыл сказать, я использую ранчер 2.1. я могу не до конца вас понимать. Т.е. вы предлагаете просто сделать маунт в локальную директорию самой ноды ? т.е. без persistence ?

kvaps
17.10.2018
10:18:26
https://kubernetes.io/blog/2018/04/13/local-persistent-volumes-beta/

ghst
17.10.2018
10:19:12

M
17.10.2018
10:19:23
ребят подскажите, создал secret SSL с Сертификатом, tls.key и tls.crt внутри tls.crt вся цепочка сертификатов.
Но nginx-ingress продолжает перезагружает конфиг где-то каждую минуту и в логах он постоянно добавляет и удаляет trusted-certificate

kvaps
17.10.2018
10:19:48

ghst
17.10.2018
10:20:12
похоже это то что надо, спасибо
Я так понимаю что при этом варианте базы данных всегда должны быть кластерами с репликами? иначе если контейнер упдает на ноде1 и поднимится на ноде2 то там данных базы уже не будет, правильно ?

terry
17.10.2018
10:24:27

Fike
17.10.2018
10:31:09

Andor
17.10.2018
10:32:45
уже сказали почему он ниочинь в данном кейсе

ghst
17.10.2018
10:35:33
там еще с ним проблема, что, если ты привысил лимит volume, то драйвер в тихую атакует своим токеном диджитол оушн, лимит у токена 5000 запросов в час. Лимит достигаеться и все, В случае если у тебя будет 3 ноды, одна упадет, драйвер попытаеться перекинуть volumes на другую ноду, достигнет лимита в 7 volumes на ноду и убьет еще и токен. в Итоге останешся с кластером без volumes и с токеном который заработает только через час...

Andor
17.10.2018
10:36:37
огненно

Salem
17.10.2018
10:40:32
хехе

bebebe
17.10.2018
10:41:17

kvaps
17.10.2018
11:17:30
уходи с rancher, используй kubeadm
потом если надо будет отдельно его подтянешь

Даниил
17.10.2018
11:27:14
подскажите пожалуйста, как лучше привязать iam роль к контейнеру dind (он выполняет функцию сборщика имейджей и пушит их в ecr)
при помощи kube2iam?

Anton
17.10.2018
11:49:19
Товарищи а кто как чистит старые контейнеры на нодах? system prune не все подчищает

Artyom
17.10.2018
11:50:34
Может проще старые репликасеты поудалять?

Google

Alexey
17.10.2018
11:51:01
удалять и заводить новые ноды, заодно тестить,что все стабильно.

Айбелив
17.10.2018
11:52:01

Anton
17.10.2018
11:52:14

bebebe
17.10.2018
11:53:05
Удалять старые baremetal и заводить новые

Artyom
17.10.2018
11:53:49
вместе с репликасетом удаляется image

Banschikov
17.10.2018
11:54:15

Айбелив
17.10.2018
11:54:50

Anton
17.10.2018
11:55:16

Banschikov
17.10.2018
11:57:51
А kubelet сам не умеет подчищать мусор и старые имейджы? Давно интересовался этим вопросом

bebebe
17.10.2018
11:57:55

Anton
17.10.2018
11:58:23
темболее если дропнуть ноду у цефа веселенький ребаланс

bebebe
17.10.2018
12:00:10

Anton
17.10.2018
12:01:17