@kubernetes_ru

Страница 120 из 958
Alex
08.02.2017
20:14:42
мы для рада систем используем описанный вами первый пример

на мой взгляд вариант 4 это велосипедостроение и желание быть админом nginx

если у вас немного правил то цена вполне себе адекватная

если у вас нет WS и прочего странного, а лишь хороший добрый HTTP с быстрыми request/respose - все будет хорошо

Google
Igor
09.02.2017
02:51:36
Используем вариант 2, все ингрес контроллеры шаблонятся через helm CD на jenkins

Andrey
09.02.2017
04:04:59
Спасибо за комментарии, полезная инфа. Пишите остальные свое мнение

Vitaliy
10.02.2017
07:43:44
Кто-нибудь натыкался на баг, когда kubelet перестает монтировать тома в контейнеры и минут через 10 нода уходит в Not ready?

Alexander
10.02.2017
08:07:44
только сегодня на Амазоне столкнулся с подобной проблемой... Перезагрузка ноды не помогла, пришлось дропать, автоскейл создал новую и в нее все подмонтировалось

Andrey
10.02.2017
08:47:32
у меня была не прям эта проблема но похожая на гугле в версии до 1.4.че-то-там... проблема была в баге нетворка докеровского из-за которого при удалении контейнера не освобождался айпишник, и наступил момент когда вся подсеть была занята и новые контейнеры не могли создаваться, помого только обновление кубернетеса (в гугле не обновить отдельно докер)

кстати, оффтоп: а можно как-то при создании сервиса указать хелсчеки для внешних балансировщиков (гуголь, амазон)? а то он по дефолту не создает

Alexander
10.02.2017
08:53:15
я вот думаю где это должно реализовываться - на стороне твоего приложения ведь да?

Andrey
10.02.2017
08:56:11
не, я про кубернетесовский service: когда его создаешь он сам дергает гуглевое апи и создает балансировщик с некрасивым названием

мне не сложно зайти в гугль и подправить добавив хелсчек (например, одна из нод перестала отвечать а трафик на нее продолжил литься), но идея-то в том чтобы абстрагироваться от внешнего облака

пока не получается :)

Aleksandr
10.02.2017
17:30:24
http://blog.kubernetes.io/2017/02/inside-jd-com-shift-to-kubernetes-from-openstack.html?m=1

Denis
10.02.2017
18:47:27
Давно пора :)

Alexey
10.02.2017
18:47:56
ребят а что для начала почитать?

Google
Ivan
10.02.2017
18:49:58
ребят а что для начала почитать?
https://kubernetes.io/docs/getting-started-guides/gce/

Alexey
10.02.2017
18:50:35
https://kubernetes.io/docs/getting-started-guides/gce/
там за бабло? в гугле?

или так прокатит?

Ivan
10.02.2017
18:51:09
Ни разу не пробовал. Не знаю. Слева есть меню и там рассказывают, как запустить локально.

Ivan
10.02.2017
18:52:33
извините
С тебя 5$ за две минуты гугления "getting started kubernetes"

Alexey
10.02.2017
18:54:07
С тебя 5$ за две минуты гугления "getting started kubernetes"
Хорошо добавлю в плюсик) просто меньше 20 наша "крупная и динамично развивающаяся компания" не готова платить) мы ценим наших коллег

Alexey
10.02.2017
18:54:54
Я и на 20 согласен))
ну еще 3 официальных и 2 не очень)

Roman
10.02.2017
20:46:26
Может знаете канал про докер, или тут не только про кубик можно спрашивать?

Fike
10.02.2017
20:49:41
@docker_ru ?

Basil_Snowman
11.02.2017
06:00:15
спс за докер-канал

Ihor
11.02.2017
08:19:10
там за бабло? в гугле?
Для новых регистраций $300 триала на 2 месяца

https://kubernetes.io/docs/getting-started-guides/gce/
Но мне неясно чем обусловлен такой выбор? Для новичков, которые хотят разобраться с ноля есть https://github.com/kelseyhightower/kubernetes-the-hard-way Для новичков, которые хотят чтобы все сразу работало - https://cloud.google.com/container-engine/ Но проще всего (и главное - фактически бесплатно) - https://kubernetes.io/docs/getting-started-guides/minikube/

Dmi3y
11.02.2017
09:38:26
Возможно, кто-то уже спрашивал. Что вы думаете про Tectonic?

Dmi3y
11.02.2017
09:49:28
Мало?

B7W
11.02.2017
09:50:24
Это наоборот плюс, и в вроде изначально было не так

Google
Dmi3y
11.02.2017
09:54:14
Собственно, там какие-то интересные гуи. Насколько по вашему вообще пригождаются все дополнительные наслоения поверх Kubernetes, к которым относятся Origin и Tectonic?

Andrey
11.02.2017
15:19:17
deis мне ок, остальное или не привлекло или не пробовал )

а кстати, вот по deis есть какая инфа нормальная? я вот поставил, задеплоил пару приложений - вроде работает но вот он ставит графану с телеграфом... че-то нигде не нашел как до него достучаться и правильно юзать :) кто где читает про него?

собрал чарт эластиксерча под кубернетес на стейтфулсетах: ругайте :) https://github.com/afoninsky/helm-charts/tree/master/elasticsearch

Aleksandr
11.02.2017
17:41:36
Ну вроде норм

Paul
11.02.2017
20:30:35
@ga_rus, по-моему ты интересовался лимитами куба: https://kubernetes.io/docs/admin/cluster-large/ At v1.5.1, Kubernetes supports clusters with up to 1000 nodes. More specifically, we support configurations that meet all of the following criteria: No more than 2000 nodes No more than 60000 total pods No more than 120000 total containers No more than 100 pods per node откуда растут эти лимиты – не знаю

Gleb
11.02.2017
20:31:11
Не помню чтобы интересовался, но почитаю про это. Спасибо!

Denis
11.02.2017
20:31:21
Мы интересовались :) Спасибо, Паш!

( суббота, вечер, кубернафты не спят :) )

Paul
11.02.2017
20:34:47
так самое время же инфраструктуру курочить :)

Ihor
11.02.2017
20:39:13
Это наоборот плюс, и в вроде изначально было не так
да, там более жесткие условия trial были

Aleksey
11.02.2017
21:03:29
2k rps?

get/set?

B7W
11.02.2017
21:05:09
2к нод

Aleksey
11.02.2017
21:10:31
2k нод может создавать разную нагрузку

B7W
11.02.2017
21:23:09
Что за воркеры?

Paul
11.02.2017
22:00:14
kubelet. Он же нода

B7W
11.02.2017
22:21:59
Хех, не могу найти подтверждения. Но по логике на каждом worker дожна быть client нода etcd, что бы поддеживать консенсус в кластере.

Google
B7W
11.02.2017
23:03:01
Что бы когда worker отвалился, кластер узнал об этом. Я могу ошибаться. И в k8s другая архитектура.

Paul
11.02.2017
23:17:06
воркер постоянно общается с апи-сервером. По-моему pub-sub, но я не уверен, может просто таймаут. Если воркер перестал присылать i-am-alive пакеты - он отвалился

все просто

Fike
11.02.2017
23:21:33
у тебя все равно любой конфигурационный запрос превращается в запрос к etcd

Простор для масштабирования там едва ли не бесконечный, если отказаться от единого мастера и обрабатывать каждый ключ своим подкластером. Но такое умеет только кассандра из того, что пробовал.

Alex
12.02.2017
07:03:28
Есть кто ресазил PV с рабочими данными? (интерисует gcloud, но можно и нет). Я рейсайзил сам pv-диск в gcloud console и на ноде, но не понятно что делать с конфигурацией PV на кластере, ее можно/нужно как-то поменять, чтобы отображался корректный новый размер?

Ivan
12.02.2017
11:23:48
воркер постоянно общается с апи-сервером. По-моему pub-sub, но я не уверен, может просто таймаут. Если воркер перестал присылать i-am-alive пакеты - он отвалился
kubelet по http(s) шлёт status updates. Как только задержка между этими status updates становится слишком долгой (насколько - настраивается), kube-controller-manager делает ноду NotReady и у всех pod'ов на этой ноде Condition Ready становится false, так что сервисы от них отваливаются.

т.е. за исключением pub/sub в целом верно

Алексей
13.02.2017
15:06:39
Всем привет. Анкета ▫️Какой у вас проект или где работаете? работаю во flant.ru ▫️В чём вы специалист? DevOps инженер, линукс, виртуализация, сети, мониторинг, puppet, chef ▫️Чем интересно сообщество вам? В ближайшее время (полгода) планируется переход на кубернетс - может быть кто что сможет подсказать ▫️Откуда вы? Калининрад ▫️Как узнали про группу? друг подсказал В сообщении нужно указать тэг #whois +

Михаил
13.02.2017
18:55:24
А чего у вас информация по митапу не запинена?

Страница 120 из 958