
Mikhail
04.08.2018
08:59:56

Andrey
04.08.2018
09:02:40
Я бы еще спросил как поведет себя шедулер при удалении пода из statefullset

artb1sh
04.08.2018
09:03:54
А с ответами?
Хм

Google

Konstantin
04.08.2018
09:06:34
А с ответами?
а если его ответы не совпадут с вашими заготовленными - всё, не подходит?

Mikhail
04.08.2018
09:07:16
Тут дело походу в том что собеседующий не знает кубера :)

Konstantin
04.08.2018
09:08:01
да, это понятно, но и по "ответам" собеседовать имхо странно. Может перефразировать и всё, другой ответ

Andrey
04.08.2018
09:10:24
Я смотрю, в первую очередь, даже не на ответы, а на то, какие вопросы задает собеседуемый: если он задает правильные уточняющие вопросы по вещам важным для корректного ответа, то он явно в теме. Это позволяет еще и «академиков» отсеять: тех кто только читал, но заявляет что есть опыт

Mikhail
04.08.2018
09:11:10
Как нанять хорошего специалиста по технологии в которой никто в компании не разбирается.

artb1sh
04.08.2018
09:17:20

Konstantin
04.08.2018
09:18:22


Dmytro
04.08.2018
10:11:08
Вообще предыстория следующая, номад у нас хорошо работает, но хочется по пробовать нового + у номад нет зависимостей между контейнерами, такой дизайн такой что по другому ни как (шина, базы). Проблема нет пока когда идет штатное обслужинвание кластера, но для дев сред и тестов я полностью собираю новое окружение (базы, очереди, приложения) и вот тут начинаются прыжки с бубном, приложение может инициализироваться минут по 30, пока все зависимости скачаются и запустяться, сделано я это очень грубо (тупо бесконечный рестарт). От того что сделано грубо - дев среда пытается собратсья до последнего, даже если там есть фатальные ошибки в самом начале.
Кубернетес тоже не занимается зависимостями контейнеров и тем более не занимается рестартом контейнеров при увеличении количества реплик. Для зависимостей между в инит контейнере или в энтрипоинте основного кусок бага с неткат, dockerize (или другой подобной тулзой которая чекает что на нужном хосте и порту уже поднялась база и тд) в каждый контейнер или кастомный оператор. Рестарт контейнеров тут тоже вариантов много, если приложение умеет перечитывать конфиг без рестарта по сигналу то имхо сайдкар самый хороший вариант
А вы стартуете свои приложения в вакууме ? ну напрмер вот кейс - vernemq, ему требуется influxdb, mongodb, memcached. После старта его нужно запускать уже ваши приложеньки, потому как vernemq шина. Есть разные версии vernemq, нужно проверять каждую новую версию. Как среду собирать ? Или пускай приложение всегда отвечает ресурс не достпен и мы его будем прибивать в бесконечном рестарте пока что то не оживет. Или держать где то отдельно и заводить его отдельно, но тогда проблема масштабирования, разные среды, да это просто не удобно.
Я чуть выше писал, не нужно рестартовать, пусть просто ждёт

Google

Dmytro
04.08.2018
10:26:36

Михаил
04.08.2018
10:32:46

Dmytro
04.08.2018
10:37:03
Наверное заливают приготовленные данные для каждого дев

Никита
04.08.2018
10:42:11

Alexey
04.08.2018
10:47:35

Dmytro
04.08.2018
10:48:20
А что даст wait?
Вот у меня монга это стейтфул сет на 3 реплики, что wait определит?
Когда первый под из сета запустится или когда все?
А если они потом заготовленные для дев данные в монгу лью после старта всего репликасета так вообще

Alexey
04.08.2018
10:57:45
kubectl wait абстрактная команда, которую обещали в 11 версии. Обычно это какой-то bash, который чекает состояние.

Konstantin
04.08.2018
10:59:01

Alexey
04.08.2018
11:00:02
Я много раз видел примеры команды, а доку сейчас не нашел... https://kubernetes.io/docs/reference/kubectl/kubectl/kubectl_wait.md

Vasilyev
04.08.2018
12:23:18

Ivan
04.08.2018
14:12:12

Sergey
04.08.2018
14:14:13
может все таки реальный опыт лучше получать?
курс работодатели не оценят, смысл

Ivan
04.08.2018
14:14:57

Эдуард
04.08.2018
14:16:33
#live #youtube Трансляция день 2: https://www.youtube.com/watch?v=UB4dDrnKB_Y

Sergey
04.08.2018
14:17:08

Google

Sergey
04.08.2018
14:17:26
это не то, люди постоянно путают опыт сам
и опыт посмотрел рассказали

Эдуард
04.08.2018
14:17:43

Sergey
04.08.2018
14:18:18
самый лучший способ имхо это идти в контору которая только только начинает легаси в кубер переводить
вот там опыта хапнуть много можно

Ivan
04.08.2018
14:18:54

Sergey
04.08.2018
14:19:31

Эдуард
04.08.2018
14:19:47

Sergey
04.08.2018
14:20:00
"немного" это не лучший вариант идти в кубер
потом если окажется что ты весь такой куберадмин, а в докер не умеешь, будет очень неловко
потом скажут еще смузёвый эникей с гироскутером в кубернетисы пошел

Ivan
04.08.2018
14:21:42

Sergey
04.08.2018
14:22:06

Ivan
04.08.2018
14:23:37

Dmitry
04.08.2018
14:52:33
Там лабы или ченить такое

Sergey
04.08.2018
15:00:02

Dmitry
04.08.2018
15:02:15

Sergey
04.08.2018
15:03:02
я с интерактива в доках вьезжал ну и по выступлениям Столярова с рутконфа

Dmitry
04.08.2018
15:05:03

Sergey
04.08.2018
15:06:00
https://www.youtube.com/watch?v=XZQ7-7vej6w

Google

Andrey
04.08.2018
15:07:09
А кто-нибудь засылал пулл-реквесты в k8s? Насколько охотно принимают? А то их там, я погляжу, под тысячу висит

Эдуард
04.08.2018
15:08:00
догадайся

Sergey
04.08.2018
15:08:28
?

Andrey
04.08.2018
15:15:00
Действительно

Roman
04.08.2018
15:19:02

Эдуард
04.08.2018
15:22:56
Тут не найду уже

Roman
04.08.2018
15:24:22
Нашел! Супер)
https://habr.com/company/southbridge/

Эдуард
04.08.2018
15:25:02

Alexey
04.08.2018
15:30:48

Roman
04.08.2018
15:33:00
bus потому что

Sergey
04.08.2018
15:33:08
+

Roman
04.08.2018
15:33:57
https://stackoverflow.com/questions/7793927/message-queue-vs-message-bus-what-are-the-differences

Alexey
04.08.2018
15:43:54

Gleb
04.08.2018
15:50:26
а кто-то активно пользуется кубернетесом в докере встроенным?
там LoadBalancer работает и имаджи локальные подтягиваются
но я 5 минут с ним посидел

Эдуард
04.08.2018
15:56:44

Gleb
04.08.2018
16:02:57
нет, там теперь кубернетес, на маке и винде

Google

Ivan
04.08.2018
16:03:36
встроенный кубернетис на маке… WAT?

Gleb
04.08.2018
16:05:17

Igor
04.08.2018
16:05:41

Ivan
04.08.2018
16:06:21

Gleb
04.08.2018
16:07:25
мои девелоперы сказали, что он вроде удобнее, чем миникуб, но я сам ток 1 чарт вн ем запустил
походу никто кроме нас его не включал лел

Alexey Pantin
04.08.2018
16:08:02
Помогите советом, делаю Kubernetes The Hard Way. Застрял на 12 шаге ( https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/master/docs/12-dns-addon.md ) при выполнении команды nslookup kubernetes на подах, получаю ошибку "connection timed out; no servers could be reached", при этом в поде dnsmasq появляется запись в логе "1 nanny.go:116] dnsmasq[8]: Maximum number of concurrent DNS queries reached (max: 150)", после нескольких таких записей под рестартует по livenessProbe. Гуглом пока ничего что помогло бы - не нашел :( Подскажите куда копать или может кто то сталкивался с этой проблемой.

Stanislav
04.08.2018
16:13:48
nslookup host.default.svc.cluster.local 10.96.0.10

Andrey
04.08.2018
16:14:04
Проверить, не впадает ли часом kubedns в петлю при резолве

Stanislav
04.08.2018
16:15:58
Никто не обещал, что днс кубернетеса пропишется в настройках узлов

ILSIYAR
04.08.2018
16:18:06
Микросервисы на ява написаны, деплою в к8s кластер. Через некоторое время кластер встает раком- ноды в статусе “not ready”. Картина похожая на нехватку ресурсов. Вопрос- надо ли ставить ограничения на поды с ява микросервисами? Может дело в heap size? Что по умолчанию берется 1/4 от ноды. Подскажите плиз своим опытом кто деплоил ява?