@kubernetes_ru

Страница 396 из 958
Alexey
22.01.2018
11:24:31
связь между нодами есть, проблема началась после рестарта нод

Fike
22.01.2018
11:25:24
емнип там специальный ключ есть "ждать, пока не поднимется кластер"

Alexey
22.01.2018
11:31:46
и как он выглядит? не могу найти

Anton
22.01.2018
11:35:07
Доктор, может быть хотя бы Gentoo?
Как ты посмел сравнить книгу с дистрибутивом? Не надо так.

Google
Дмитрий
22.01.2018
11:47:31
status 137 => кто-то сделал kill 9
oom killer мог отстрелить

Alex Milushev
22.01.2018
11:56:44
а lfs - точка старта для знакомства с линуксом ?
сравнить k8s the hard way и lfs это конечно сильно

Sergey
22.01.2018
12:14:15
господа, есть солюшин чтобы поды в новом деплое стартовали по одному, а не пачкой? Т.е. подобное strategy: rollingUpdate: maxSurge: 1 maxUnavailable: 0 type: RollingUpdate только при создании деплоймента.

мне на ум только кастыли с scale приходят...

Anton
22.01.2018
12:22:17
statefullset их строго по очереди запускает

Sergey
22.01.2018
12:23:56
statefulset?
хм, как вариант. Спасибо. Хоть у меня и не statefull, но просто нужно ordered deploy во избежание коллизий провижина.

Fike
22.01.2018
12:26:33
простите за педантизм, но - костыли - stateful

Anton
22.01.2018
12:43:21
можно как-то посмотреть сетевые интерфейсы, созданные в контейнере, с ноды?

например, чтобы убедиться, что интерфейс исчез с исчезновением пода

Alexey B
22.01.2018
12:49:21
Гайз, что юзать Replica Controller или Deployments?

Google
Alexey B
22.01.2018
12:50:03
нужен апдейт сервисов через CI

Линник
22.01.2018
12:51:25
Привет, подскажите пожалуйста как принято делать и что гуглить: Требуется контейнер в кластере (например с django сервисом) сделать доступным по урлу сабдомена, причем каждому новому контейнеру давать свой сабдомен. Вроде container_1.domain.ru, container_2.domain.ru и тд.

Fike
22.01.2018
12:52:51
нужен апдейт сервисов через CI
Наврал чуток в предыдущем сообщении чуток. Конечно, деплойменты, они являются более высокоуровневой оберткой над ReplicaSet и позволяют постепенно вводить/выводить поды. ReplicaSet в свою очередь нацелен заменить Replica Controller, емнип.

Alexey B
22.01.2018
12:54:08
Про замену понятно, но как отслеживать rollingUpdates, если deployment делает это автоматический

а я люблю наблюдать за процессом :)

Alexey
22.01.2018
12:56:57
меня ещё смущает... tcp 138 0 10.135.74.168:2380 10.135.74.89:52316 ESTABLISHED Recv-Q - не 0

Vitaly
22.01.2018
13:04:49
#whois ▫️Какой у вас проект или где работаете? rentmania.com ▫️В чём вы специалист? Ruby/Rails, JS, Golang, microservices, chef, ansible, docker. ▫️Чем можете быть интересны или полезны сообществу? Готов делиться опытом ▫️Чем интересно сообщество вам? В данный момент пытаюсь развернуть production cluster kubernetes, есть вопросы ▫️Откуда вы? Работаю удаленно, живу в г. Киров ▫️Как узнали про группу? Через поиск

Всем привет, подскажите как собрать production cluster kubernetes

из каких кусочков

Уже потавил его несколькими способами ), kubeadm, kubespray

Alex
22.01.2018
13:07:00
shit and bricks

Corleone
22.01.2018
13:08:27
Vitaly
22.01.2018
13:08:39
зачем используют Vault, когда есть Secrets в kubernetes

что использовать для сети, calico или flannel или не важно

Хочу в кластере крутить postgres, надо ли для этого настраивать ceph или gluster ?

Let Eat
22.01.2018
13:13:23
Хочу в кластере крутить postgres, надо ли для этого настраивать ceph или gluster ?
Ceph поверх drbd поверх gluster , все это в контейнере с aufs на ядре не старше 2.6.32 . Ваша постгрес скажет вам спасибо

Alex Milushev
22.01.2018
13:14:13
оооочень безопасно

Vitaly
22.01.2018
13:14:42
Alex Milushev
22.01.2018
13:15:26
vault таки неплохо интегрируется с k8s, проблема в том, что придется отдельно держать vault и желательно не в кубере

Google
Let Eat
22.01.2018
13:15:39
оооочень безопасно
Расскажите, чем доступ на чтение в etcd так отличается от доступа на чтение в vault

Alexey B
22.01.2018
13:15:55
по сетке чазе всего юзают flannel, у меня он в последней версии стал отваливаться, перешел на calico

Alex Milushev
22.01.2018
13:16:32
Alexey B
22.01.2018
13:16:46
а для постреса любой persistent Volume пойдет, хоть NFS

Vitaly
22.01.2018
13:17:34
по сетке чазе всего юзают flannel, у меня он в последней версии стал отваливаться, перешел на calico
вот в kubespray тоже по дефолту calico, понятно что там node-to-node mesh , а что такое route-reflectors ??? Вы не в курсе

Let Eat
22.01.2018
13:17:59
а файловая система для etcd тоже шифруется?
Хотите - шифруйте, кто мешает. Хранение base64 тут непричем

Sergey
22.01.2018
13:18:20
а для постреса любой persistent Volume пойдет, хоть NFS
вообщето все зависит от задач, нагрузок и т.д. для hello-world - подойдет.

Vitaly
22.01.2018
13:20:07
микросервис с пользователями надо хранить в России

Fike
22.01.2018
13:20:48
проблема в том что хочу кластер с нодами в разных странах
Это идея, которую по возможности лучше избежать

Alexey B
22.01.2018
13:21:29
наверное, лучше разные кластера хранить по разным странам

у дальше для управления разными датацентрами у куба есть федерации

Vitaly
22.01.2018
13:24:10
Не, это уж черезчур круто для моих нужд )

Alexey B
22.01.2018
13:24:16
мы не юзали, но на практике было разнесено, в разных дц - разные кластера

sherzod
22.01.2018
13:24:40
правитель федерации микросервисов

Vitaly
22.01.2018
13:25:16
а кто чем разворачивает кластер ?

Alex Milushev
22.01.2018
13:25:26
а кто кстати заводил и использовал федерацию в кубе?

Vitaly
22.01.2018
13:25:43
Какие то свои решения или стандартные типо kubeadm

Alex Milushev
22.01.2018
13:25:54
а кто чем разворачивает кластер ?
the hard way, свой набор терраформа и ансибла

Vitaly
22.01.2018
13:26:32
the hard way, свой набор терраформа и ансибла
и его проходил, для понимания, но там же используют google cloud

Google
Vitaly
22.01.2018
13:27:07
хочеться на голые виртуалки или bare metal

Alex Milushev
22.01.2018
13:27:14
ааа, ну у нас на aws

Let Eat
22.01.2018
13:27:17
у дальше для управления разными датацентрами у куба есть федерации
Мне вот интересно, все их советуют , а кто-нибудь пользовался на практике? Там ограничений вагон, в итоге все деплои один хер надо делать в конечные кластеры

Alexey B
22.01.2018
13:28:51
Мне вот интересно, все их советуют , а кто-нибудь пользовался на практике? Там ограничений вагон, в итоге все деплои один хер надо делать в конечные кластеры
по мне они не очень то нужны, проще зайти на каждый мастер и что-то сделать, чем городить еще один уровень сырых абстракций

Let Eat
22.01.2018
13:29:05
Короче ОБС советы

Vitaly
22.01.2018
13:32:09
Если вы не в курсе, вам они не нужны
Ну так можно на каждом шагу отказываться от вещей )) , как понимаю они как раз нужны для более легкого пиринга между ДЦ

Alex Milushev
22.01.2018
13:32:52
так это хорошо же, отказываться, не ломается то, чего нет

Alexey
22.01.2018
13:54:01
короч, не пойму в чём проблема, не хочу винить провайдера хостинга, но грёбанный рандомный рестарт естб-нод помог подняться 2м из 3х, а 3й (вообще он у меня 1й) поыдмается, а потмо виснет и всё на*, даже команды docker exec -it etcd1 sh не может запустить, хот в логе последняя запись rafthttp: established a TCP streaming connection with peer но она судя по всему последняя до того как нода зависает

Let Eat
22.01.2018
14:34:17
Ну так можно на каждом шагу отказываться от вещей )) , как понимаю они как раз нужны для более легкого пиринга между ДЦ
Нет, это доя больших сетей, где BGP всех ко всем сходится дольше, чем хотелось бы. Если у вас нету этого, вам оно и не нужно.

Виталий
22.01.2018
14:53:35
и его проходил, для понимания, но там же используют google cloud
а как именно проблемы возникают адаптировать the hard way к своим виртуалкам? Там только сеть надо праивльно настроить, а сертификаты и настройки все компонентов кластера остаются. Не?

Vitaly
22.01.2018
14:56:00
а как именно проблемы возникают адаптировать the hard way к своим виртуалкам? Там только сеть надо праивльно настроить, а сертификаты и настройки все компонентов кластера остаются. Не?
Собственно процесс идет ), может и не будет проблем, я не опс, я разработчик, но так карты легли, что делаю это я. Я больше смотрел в сторону https://github.com/kubernetes-incubator/kubespray , что бы была какая то повторяемость развертывания/добавления нод.

Виталий
22.01.2018
14:57:04
Собственно процесс идет ), может и не будет проблем, я не опс, я разработчик, но так карты легли, что делаю это я. Я больше смотрел в сторону https://github.com/kubernetes-incubator/kubespray , что бы была какая то повторяемость развертывания/добавления нод.
ха, я тоже разработчик и не опс, но меня тут послали учиться на офф доке и хард вей ? Моя история по чату выше есть, постыня такая ? В принципе хард вей это то, что я искал. Ток с настройкой сети разобраться и можно разворачивать свой первый кластер.

Vitaly
22.01.2018
14:57:57
А деплоите чем ?

что в качестве CI?

я в сторону drone ci смотрю

Виталий
22.01.2018
14:58:51
там же храню контейнеры и там же код. А так же на ютубе от компании Flant есть видео крутые на всю архитектуру от а до я.

Google
Виталий
22.01.2018
15:00:22
Vitaly
22.01.2018
15:00:40
да я уже собрал раза 4 )

там кстати все вроде ок

в этих ansible рецептах

они там ничего сверхестественного не делают, я почитал почти весь код

Vitaliy
22.01.2018
16:37:08
Если версия меньше 1.9, то проверьте что apiserver запущен с флагом --etcd-quorum-read=true Иначе рано или поздно придет беда.

Let Eat
22.01.2018
16:52:35
А в 1.9 что поменяли? etcd-client там той,же версии

Роман
23.01.2018
08:08:18
Коллеги, а чем можно мониторить наличие таких сущностей, как ep, ing, svc? Смотрю в сторону экспортера для прометеуса, но что-то не могу ничего нагуглить. Хочу алерты получать, если будут какие-то изменения происходить (постоянно пропадают эндпоинты гластера).

Paul
23.01.2018
08:11:22
коллеги, кто-нибудь использует вояджер? как ощущения?

Mikhail
23.01.2018
08:11:47
kube-api-exporter?
Не помню как называется. Могу посмотреть как буду на работе

Страница 396 из 958