@kubernetes_ru

Страница 912 из 958
Fedor
17.10.2018
06:59:55
Проставь и все заработает

Andor
17.10.2018
07:06:30
https://mobile.twitter.com/fioraaeterna/status/1052294419607506944 слышали прекрасное?

terry
17.10.2018
07:07:44
https://mobile.twitter.com/fioraaeterna/status/1052294419607506944 слышали прекрасное?
уже даже обновил парочку гипервизоров )

Vadim
17.10.2018
07:08:32
Что за гипервизор с libssh?

Google
Andor
17.10.2018
07:08:40
Я правда не знаю где libssh используется

Andrey
17.10.2018
07:13:37
покритикуйте решение? https://github.com/gabrielfsousa/zookeeper-kafka-kubernetes задача: нужно запускать под из статефулсета на конкретной ноде

Andrey
17.10.2018
07:14:12
Проставь и все заработает
сомнительно. Куб говорит, pod's unschedulable потому что ему видите ли CPU не хватает, а autoscaler этого не видит?

Andor
17.10.2018
07:15:48
сомнительно. Куб говорит, pod's unschedulable потому что ему видите ли CPU не хватает, а autoscaler этого не видит?
Значит на это есть причины, там же никакой супер-эвристики нет, алгоритм очень простой

Andrey
17.10.2018
07:17:19
по идее autoscaler должен реагировать на поды, которым не хватает capacity, именно это написано в доках

terry
17.10.2018
07:17:31
баг?

Alexander N.
17.10.2018
07:17:43
https://mobile.twitter.com/fioraaeterna/status/1052294419607506944 слышали прекрасное?
дичь какая-то, ладно уязвимости типа спектр или брич, но это вообще б.. что? )

Andrey
17.10.2018
07:17:44
возможно

схожу ка я в саппорт гугла

Fedor
17.10.2018
07:18:21
сомнительно. Куб говорит, pod's unschedulable потому что ему видите ли CPU не хватает, а autoscaler этого не видит?
Note that cluster autoscaler works based on Pod resource requests, that is, how many resources your Pods have requested. https://cloud.google.com/kubernetes-engine/docs/concepts/cluster-autoscaler

Andrey
17.10.2018
07:18:58
и там же: > With autoscaling enabled, GKE automatically adds a new node to your cluster if you've created new Pods that don't have enough capacity to run

Google
Andrey
17.10.2018
07:19:19
у меня как раз такая ситуация

причём я уже видел, как работает autoscale для подов без реквестов, только это было в другом проекте

о, кажется это не autoscaler. GCP не может добавить новую ноду в instance group для пула

попробовал вручную увеличить размер пула, и оно валится



Алексей
17.10.2018
07:35:53
И я точно знаю, что я в этом чяте не один такой
+1 Но приходится пользоваться ансиблом

Mikhail
17.10.2018
07:39:37
Паппет сила! :)

Anton
17.10.2018
07:42:07
я когда вижу всякое рубевое в паппете, if конструкции, erb, мне становится плохо

Mikhail
17.10.2018
07:46:24
Мне тоже. Но когда я вижу солт, меня тошнит. А ансибл кажется поделкой.

Let Eat
17.10.2018
07:47:26
Все такие чувствительные )

Ivan
17.10.2018
07:48:04
+1 к паппету, и кстати, как там нынче с поддержкой к8с?

Mikhail
17.10.2018
07:48:50
Andor
17.10.2018
07:49:18
Официальный модуль от пупетлабс - ниочинь

Берите модуль от Азалио :)

Mikhail
17.10.2018
07:49:32
Ггг

Andor
17.10.2018
07:49:58
Мы возможно наш форк опенсорснем, но пока это не в приоритете

Vadim
17.10.2018
07:50:27
https://opensource.com/article/18/10/ansible-operators-kubernetes

Let Eat
17.10.2018
07:50:29
А у кого кроме гуглов опенсорситть в приоритете )

Andor
17.10.2018
07:50:59
У гуглов тоже не в приоритете

Google
kvaps
17.10.2018
07:51:43
У M$

Ivan
17.10.2018
07:52:09
Мы возможно наш форк опенсорснем, но пока это не в приоритете
так вы сначала опенсорсните, а потом приоритетствуйте, вам уже пуллов накидают :)

шуткую

Andor
17.10.2018
07:55:41
Сначала надо с другими проблемами разобраться

ghst
17.10.2018
10:07:41
Привет, можете подсказать как быть с persistent storage на кубернетес, пытаюсь уже два месяца поднять кластер на digitalocean из 3 нод. Я не могу найти не одно нормальное решение хранения данных. Если изпользую nfs клиент, то все упираеться в сетку приватную в гигабит, это медленно для базы данных, если использую nfs provisioner из хельма, то он хранит данные только на одной ноде, и при переподнятии контейнера на другой ноде он начинает читать не с диска а по сетке с одной ноды на другую. Пробовал контейнезированные блок стораджи типо longhorn или openebs, но там вообще жесть, 1 гигабайт данных может писать 4 минуты, я писал разрабам, они сказали что у них только в планах это фиксить и вообще их решения не для продакшена. Вопрос, какой персистент сторадж исползовать при кластере из 3 нод на digitalocean? Спасибо.

Andor
17.10.2018
10:09:04
а для чего тебе вообще такой сторейж?

ghst
17.10.2018
10:09:58
а для чего тебе вообще такой сторейж?
У меня 25 микросервисов, у каждого из них есть redis и либо mysql или mongodb. Я бы хотел чтобы если нода уйдет в офлайн, то данные остались

Stanislav
17.10.2018
10:10:24
В любом случае упрётся в сеть

ghst
17.10.2018
10:10:39
Т.е: Namespace1 (php,queue,redis,mongodb) Namespace2: (php,queue,redis:mysql)

kvaps
17.10.2018
10:10:45
Привет, можете подсказать как быть с persistent storage на кубернетес, пытаюсь уже два месяца поднять кластер на digitalocean из 3 нод. Я не могу найти не одно нормальное решение хранения данных. Если изпользую nfs клиент, то все упираеться в сетку приватную в гигабит, это медленно для базы данных, если использую nfs provisioner из хельма, то он хранит данные только на одной ноде, и при переподнятии контейнера на другой ноде он начинает читать не с диска а по сетке с одной ноды на другую. Пробовал контейнезированные блок стораджи типо longhorn или openebs, но там вообще жесть, 1 гигабайт данных может писать 4 минуты, я писал разрабам, они сказали что у них только в планах это фиксить и вообще их решения не для продакшена. Вопрос, какой персистент сторадж исползовать при кластере из 3 нод на digitalocean? Спасибо.
У DO вроде свой провижионер есть для куба https://stackpointcloud.com/community/tutorial/getting-started-with-digitalocean-block-storage-and-kubernetes

Никита
17.10.2018
10:12:11
У меня 25 микросервисов, у каждого из них есть redis и либо mysql или mongodb. Я бы хотел чтобы если нода уйдет в офлайн, то данные остались
Кмк, тут лучше держать несколько реплик, каждую со своим локальным стораджем, и репликацию делать средствами субд.

ghst
17.10.2018
10:12:27
У DO вроде свой провижионер есть для куба https://stackpointcloud.com/community/tutorial/getting-started-with-digitalocean-block-storage-and-kubernetes
Я воевал с ними сегодня до 2 ночи, во первых первый лимит maximum 10 volumes, я выбил для себя 80, это ок, но потом я уперся в то что мах 7 volumes per droplet. Т.е. одна нода может к себе подключить 7 volumes. И все, суппорт дальше сказал, что извните мы и так подняли в этом году 5 лимит на 7

kvaps
17.10.2018
10:12:34
У меня 25 микросервисов, у каждого из них есть redis и либо mysql или mongodb. Я бы хотел чтобы если нода уйдет в офлайн, то данные остались
для mysql, монги и других штук которые умеют репликацию самостоятельно, лучше использовать local-volumes

но тут же встает вопрос с их провижионингом

Andor
17.10.2018
10:13:28
А у ДО нет аналога ebs?

ghst
17.10.2018
10:13:42
и если я хочу себе, например, 25 на каждую ноду, то это к команде инженеров digitalocean и это на долго

у DO есть digitalocean/csi-digitalocean на гитхабе, но лимит 7 volumes на дроплет, и это не изменить

kvaps
17.10.2018
10:15:29
Тогда local-volumes - это лучший выбор. Вам будет достаточно нагенерить по 25 PV на ноду, потом куб уже будет раздавать их на каждый PVC

ghst
17.10.2018
10:15:46
Последнее что я решил, это поднять 25 кластеров монги или mysql, и исползовать Bind mount local directory from node

Andor
17.10.2018
10:16:34
оператором?

Google
ghst
17.10.2018
10:17:59
Так, я забыл сказать, я использую ранчер 2.1. я могу не до конца вас понимать. Т.е. вы предлагаете просто сделать маунт в локальную директорию самой ноды ? т.е. без persistence ?

kvaps
17.10.2018
10:18:26
https://kubernetes.io/blog/2018/04/13/local-persistent-volumes-beta/

ghst
17.10.2018
10:19:12
https://kubernetes.io/blog/2018/04/13/local-persistent-volumes-beta/
Спасибо, такого я еще не видел, сейчас почитаю

M
17.10.2018
10:19:23
ребят подскажите, создал secret SSL с Сертификатом, tls.key и tls.crt внутри tls.crt вся цепочка сертификатов. Но nginx-ingress продолжает перезагружает конфиг где-то каждую минуту и в логах он постоянно добавляет и удаляет trusted-certificate

kvaps
17.10.2018
10:19:48
Спасибо, такого я еще не видел, сейчас почитаю
вот тут есть provisioner для local-волумов https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume/provisioner

ghst
17.10.2018
10:20:12
похоже это то что надо, спасибо

Я так понимаю что при этом варианте базы данных всегда должны быть кластерами с репликами? иначе если контейнер упдает на ноде1 и поднимится на ноде2 то там данных базы уже не будет, правильно ?

Fike
17.10.2018
10:31:09
А у ДО нет аналога ebs?
Вообще было вроде

Andor
17.10.2018
10:32:45
уже сказали почему он ниочинь в данном кейсе

ghst
17.10.2018
10:35:33
там еще с ним проблема, что, если ты привысил лимит volume, то драйвер в тихую атакует своим токеном диджитол оушн, лимит у токена 5000 запросов в час. Лимит достигаеться и все, В случае если у тебя будет 3 ноды, одна упадет, драйвер попытаеться перекинуть volumes на другую ноду, достигнет лимита в 7 volumes на ноду и убьет еще и токен. в Итоге останешся с кластером без volumes и с токеном который заработает только через час...

Andor
17.10.2018
10:36:37
огненно

Salem
17.10.2018
10:40:32
хехе

kvaps
17.10.2018
11:17:30
уходи с rancher, используй kubeadm

потом если надо будет отдельно его подтянешь

Даниил
17.10.2018
11:27:14
подскажите пожалуйста, как лучше привязать iam роль к контейнеру dind (он выполняет функцию сборщика имейджей и пушит их в ecr)

при помощи kube2iam?

Anton
17.10.2018
11:49:19
Товарищи а кто как чистит старые контейнеры на нодах? system prune не все подчищает

Artyom
17.10.2018
11:50:34
Может проще старые репликасеты поудалять?

Google
Alexey
17.10.2018
11:51:01
удалять и заводить новые ноды, заодно тестить,что все стабильно.

bebebe
17.10.2018
11:53:05
Удалять старые baremetal и заводить новые

Artyom
17.10.2018
11:53:49
вместе с репликасетом удаляется image

Айбелив
17.10.2018
11:54:50
Удалять старые baremetal и заводить новые
звучит как пересборка кластера (green/blue) ?

Anton
17.10.2018
11:55:16
вместе с репликасетом удаляется image
у меня нет старых rs, а имэйджи есть

Удалять старые baremetal и заводить новые
класная идея, заодно по новой разворачиватьь все что за кластером? типа ceph? =)

Banschikov
17.10.2018
11:57:51
А kubelet сам не умеет подчищать мусор и старые имейджы? Давно интересовался этим вопросом

Anton
17.10.2018
11:58:23
А вы руками что-ли делаете?
ансибл, он же не мгновенный

темболее если дропнуть ноду у цефа веселенький ребаланс

Anton
17.10.2018
12:01:17
У вас rook? Osd на воркерах?
не рук, osd есть, мы нищеброды

Страница 912 из 958