
Denis
04.03.2017
13:03:31
Интересная голосовала) https://twitter.com/asynchio/status/837395139333140480

Mars
05.03.2017
11:42:36
Как проще всего развернуть k8s на DO?
Может быть лучше azure?
Что посоветуете?

Google

Mars
05.03.2017
11:43:29
Спасибо

Vladimir
05.03.2017
12:20:35
Я пытаюсь сообразить Azure и там есть ряд ньюансов, вроде (пока) не работающих PV.
На DO я развернул игрушечный кластер с помощью kubeadm и он работает норм (а еще дешевле azure в 10 раз :)

Mars
05.03.2017
12:28:10

Gregory
05.03.2017
13:10:03
а на чем лучше построить прайват инфраструктуру? та же rancherOS норм?

Andrey
05.03.2017
21:38:03

Paul
05.03.2017
21:39:24
я взял убунту LTS

Artur
05.03.2017
23:57:54
можно ещё на ДО попробовать с кореос развернуть, если прод на кореос - это ок для вас

Artem
06.03.2017
05:01:10
прод на кореос - дерзко, стильно, молодёжно!

Google

Oleg
06.03.2017
06:23:39
У кого большие кластера в проде?

Artem
06.03.2017
06:25:05
у меня под 50 подов
это большой?

Andrey
06.03.2017
06:25:34
На кореос тектоник, например, свое решение держит. Суть в том, что кореосовцы уделяют внимание ядру и поддержке в нем докера, минимизируя феилы всего кластера при приезде проблемного ядра.

Oleg
06.03.2017
06:30:39

Artem
06.03.2017
06:36:40
5 основных, 2 под парами
это ещё не совсем прод
пока не пойму, как это апгрейдить без проблем. я имею в виду сам кубернетес

Oleg
06.03.2017
06:38:25
Есть у кого в проде кластера в 50 нод?

Sergej
06.03.2017
06:38:48
Я накатывал обновления через карго то все работало.
Правда в тестовой среде

Artem
06.03.2017
06:41:58
я тестировал 1000 нод
карго как раз разворачивал
часов 12 разворачивается, проблемы с etcd и вообще все еле пашет)
но за неделю до вменяемого состояния допилилось
собственно все эти мезосы и прочие на 200 уже таво
мирантис тут есть щас живые? как там сейчас со скейлом дела?
там и под системд и контейнеры и есть даже один сервак arm с покоцанным линупсом

Sergej
06.03.2017
06:52:51
Я ставил через kubeadm - обновлялось. Вручную - тоже обновлялось и карго. Но все по группам, то есть каждый кластер сам по себе. На продакшен буду пока ставить через карго. Меня там не все устраивает, но плюсы все перевешивают.

Google

Sergej
06.03.2017
06:53:19
через kubeadm постепенно обновился с 1.5.1 до 1.5.3

Artem
06.03.2017
07:03:04
в карго лучше все что не устраивает или сломано оформлять как issue на гитхуб. тут есть разработчики, есть шанс, что быстро починят или замплементят
а мажорные как обновлять?)
надо под каждый кейс скрипты писать, они ключи делают incompatible
и не всегда работает часть со старыми, часть с новыми
ну и наш любимый etcd обновлять та ещё веселуха
да, когда больше 20 нод надо что то делать с сетью, выделять служебный трафик в другой влан и сетевуху, отдельно от клиентского. также выкручивать таймауты и буферы. Иначе все начинает само себя ддосить
у меня до смешного доходило, при дефолтных настройках 80% трафика служебный, клиентский там в уголке грустно прижался
в целом это нормальная практика, но надо про неё помнить

Sergej
06.03.2017
07:38:16
?

Jan
06.03.2017
09:02:45

Artem
06.03.2017
09:03:34
я iptables помечал и заворачивал в ip ru

Sergey
06.03.2017
09:06:03

Artem
06.03.2017
09:07:29
там не только etcd, там ещё api и calico
но в основном etcd больше всего конечно
среди всего трафика - но это без нагрузки совсем.
любая фича, дашборд там или днс, все добавляет к служебного трафику. вот из коробки его дофигища летает с дефолтными наст ройками

Jan
06.03.2017
09:16:30
подскажите, пожалуйста, а как в кубере делать ACL?

Artem
06.03.2017
09:29:46
на что ACL?

Александр
06.03.2017
09:30:04
Кто-нибудь пробывал добавлять master к существующему кластеру по этому руководству https://kubernetes.io/docs/admin/high-availability/ . Если кластер создавался через kubeadm?

Google

Igor
06.03.2017
09:32:15

Sergej
06.03.2017
09:33:13
kubeadm изначально не поддерживает мастер-мастер и нужно перестраивать все вручную.

Александр
06.03.2017
09:36:59
как это сделать? если я правильно понял, нужно перезапустить свой etcd и apiserver через манифесты, сгенерировать новые сертифакты и положить на ноды. Предполагаю вся беда в сертификатах, как их правильно сгенерировать или где почитать об этом?

yolkov
06.03.2017
09:38:42
https://github.com/kelseyhightower/docker-kubernetes-tls-guide

Александр
06.03.2017
09:46:19
@yolkov Спасибо

Andrey
06.03.2017
11:07:19
народ с опытом кубернетеса на DO: стоит ли с гугля слезать ради удешевления, или геморои себя не оправдают?

Artur
06.03.2017
11:23:21
на ДО же экосистемы вокруг нет?
сторейдж, лодбалансер, автоскейлинг, что там ещё гугл клауд даёт хорошего

Paul
06.03.2017
11:28:08
балансер есть, но не поддерживается кубом. Автоскейл тоже есть, поддерживается ли кубом - неизвестно. Стораджа нет. Выделения адресов у ДО нет и не планируется

Artur
06.03.2017
11:28:34
балансер у них чуть ли не совсем недавно появился, да?

Fike
06.03.2017
11:29:37
угу, и стоит бешеную двадцатку

Andrey
06.03.2017
11:33:57

Andrey
06.03.2017
11:37:00
Спасибо, почитаю

Andrey
06.03.2017
11:38:20
http://avmaksimov.ru/2017/03/06/kubernetes-%D0%B8%D1%81%D0%BF%D0%BE%D0%BB%D1%8C%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5-ingress/
Пожалуйста

Victor
06.03.2017
11:40:15
О, шикарно

Artur
06.03.2017
11:55:20
а ингресс можно настроить на tcp/udp load balancing?

yolkov
06.03.2017
11:56:20
нгинкс умеет
но там сейчас есть бага, по крайней мере в beta1, он список апстримов не генерил

Artur
06.03.2017
11:57:27
ага, умеет, мы даже немножко используем без кубернетиса

Google

yolkov
06.03.2017
11:57:29
в стабильной вресии работало

Paul
06.03.2017
12:00:57

Andrey
06.03.2017
12:03:40

Denis
06.03.2017
19:28:56
Перенёс в https://t.me/coreos_ru :)