@kubernetes_ru

Страница 374 из 958
Dmitry
05.01.2018
06:40:19
Но там есть pre-kill хук, так что есть шанс что можно послать нормальный шатдаун сигнал

потом подождать и убить контейнер

Andrey
05.01.2018
09:02:29
В вот че делают с сервисными тулзами Типа Дженкинса или grafana когда не особо охота открывать доступ в паблик? Через проборос для всей конторы? Или сетку интегрируют в реальную ?
хз за всех, у меня так: - для локальных тулзов есть kubectl port-forward - для тех штук которые юзает вся контора поднят openvpn (чтобы не нагружать менеджеров я поднял vpn на роутере и прописал для отдельной подсети интерфейс чтобы по 10.* шло в кубер а по остальным в инет) - для тех которым нужен доступ снаружи прокидываю через ingress с авторизацией

Google
Alik
05.01.2018
13:15:38
Ребята, как вы храните и работаете с кофигурационными файлами ресурсов(YAML файлы) ?

bebebe
05.01.2018
13:34:58
в темплейтах, темплейты в файлах, файлы в гите, гит на сервере, сервер в амазоне

bebebe
05.01.2018
13:42:24
лучше исследуйте plan9/inferno

Let Eat
05.01.2018
13:42:40
Слишком адово )

Alik
05.01.2018
13:46:44
Исследую ksonnet
Посмотрю, спасибо

Carrol
05.01.2018
14:30:15
Езжу на yaml и тут проезжает @rossmohax на ксоннете

Slach
06.01.2018
04:22:17
Так живите со stateful в чем сложность?
Stateful на bare metal как сделать нормальный StorageClass чтобы были Volumes с минимальным оверхедом?

Доброе утро всем, а подскажите пожалуйста где работает kubelet в AWS и GCE ? т.е. это получается запуск Docker внутри виртуалки запускается? и на каждой ноде кластера стоит еще etcd? И есть ли у кого то в этом чате кто делал гибридный кластер на GCE + bare metal?

Vlad
06.01.2018
09:59:52
О, в новый docker edge for mac завезли kubernetes. Minicube можно отправлять в отставку

Google
Slach
06.01.2018
10:34:15
речь о federation ?
да, похоже это оно ок. да речь идет о federated clusters - hybrid cloud вот я правильно понял что всякие там AWS ECSэто просто обычные EC2 в которых уже Docker есть и этим Docker можно рулить через AWS API ? вокруг которого уже идет абстракция и что k8s в этом случае ставит просто kubelet прямо внутрь этого самого EC2 ? и аналогично с Goolge GCE?

Maksim
06.01.2018
14:04:42
Привет. Meltdown нас поразил) ни ктотне обратил внимание на падение производительности?

Andrey
06.01.2018
14:38:57
Привет. Meltdown нас поразил) ни ктотне обратил внимание на падение производительности?
Обновил на 3х серверах online.net ядро вчера (как они его выпустили и отмылили) - за сутки пока не вижу разницы

Sergey
06.01.2018
15:08:29
так чтобы заметить разницу нужно бенчмаки до и после делать.

@BloodJazMan ECS выносит на свалку истории. Не советую смотреть. Они ведь не просто так тоже хостед кубернетес пилят. (да, это обычные ec2 виртуалки с докером и амазоновским шудулером) Ну и исходя из ваших вопросов, я очень сомневаюсь что вам нужен cluster federation. К тому же как по мне он еще не зрел. (GKE его не поддерживает тоже).

Andrey
06.01.2018
17:07:34
так чтобы заметить разницу нужно бенчмаки до и после делать.
Именно это и мерил, там сборка ci у нас, скорость реально та же (в пределах погрешности)

Артём
06.01.2018
17:40:55
Pavel
06.01.2018
23:04:35
По поводу снижения производительности на амазоне

Fike
06.01.2018
23:05:11
ребят, может хотя бы здесь устроим meltdown-free зону?

Slach
07.01.2018
08:37:31
@BloodJazMan ECS выносит на свалку истории. Не советую смотреть. Они ведь не просто так тоже хостед кубернетес пилят. (да, это обычные ec2 виртуалки с докером и амазоновским шудулером) Ну и исходя из ваших вопросов, я очень сомневаюсь что вам нужен cluster federation. К тому же как по мне он еще не зрел. (GKE его не поддерживает тоже).
спасибо за ответы я хочу понять реально ли используя только k8s поднять какое то гибридное облако в котором железное ядро и которое может сделать autoscale в публичных облаках в случае необходимости судя по вашим ответам, получается что пока это все сильно незрелое =( и best practices не выработано, спасибо еще раз

Ivan
07.01.2018
08:48:59
Всем привет! Подскажите, как правильно передать в контейнер в кубернете реальный айпишник клиента? У меня контейнер сейчас получает либо айпишник из подсетки подов, либо айпишник соседних нод. Сетка на фланеле, настройки - "Backend": "Type": "host-gw"

Slach
07.01.2018
08:50:36
хм а бекенд на чем написан? и как общается ? HTTP ?

Ivan
07.01.2018
08:57:57
да, пхп и нжинкс

Alex
07.01.2018
08:58:27
В x forvarded for смотришь?

Slach
07.01.2018
09:02:02
nginx в ingress? X-Real-IP X-Forwared-For http://nginx.org/ru/docs/http/ngx_http_realip_module.html#real_ip_header

Ivan
07.01.2018
09:06:43
нет, нжинкс просто как отдельный контейнер, X-Real-IP не помог поотму что в нжинкс приходит уже левый айпишник и его бессмысленно передавать в заголовке

я подозреваю, что надо копать с торону настроек фланнел или сетки кубернета, но пока не понимаю, как сформулировать запрос в гугле))

Slach
07.01.2018
09:07:37
ну как бы nginx тут выглядит лишним как контейнер в поде и если ты чреез проброс порта на nginx трафик заводишь то тоже не очень хорошо это все

настройки flannel лежат в другой плоскости

IMHO ты должен понять как на уровне TCP (не HTTP) у тебя данные во flannel ходят и где что преобразоывается через всякие там PAT\NAT и т.п. т.е. вот пришел пакет TCP из внешей публичной сети что дальше с ним происходит от кого к кому он пуляется и как преобразоываается пока дойдет до контейнера в твоем кластере когда поймешь, сразу все проблемы решается =)

Google
Bsod
07.01.2018
09:11:50
лоадбалансер/ингресс контроллер

Ivan
07.01.2018
09:15:44
нжинкс это обязательный элемент - через него на сайте отдаётся статика. у контейнера с нжинкс выброшен порт в режиме NodePort т.е. траффик, который приходит на айпишник любой ноды на 80 порт отправляется в этот контейнер. какой путь проходят пакеты в этой цепочке - я не знаю и пока не представляю, как выяснить. подозреваю, что в процессе передачи траффика участвуют kube-proxy. запрос я отправляю напрямую на айпишник ноды на 80 порт. в логах нжинк при этом падает лог с айпишником из сетки подов

terry
07.01.2018
09:23:45
А тем временем, в Docker for Mac версии 17.12 CE Edge завезли поддержку Kubernetes. https://goo.gl/wCdKfz P.S. Переключится на Edge версию можно в настройках докера.

Let Eat
07.01.2018
09:28:20
у них миграция виртуалок разве есть? по графикам они хост запатчили без перезагрузки виртуалок

Let Eat
07.01.2018
09:40:06
в Service с NodePort

Andrey
07.01.2018
12:19:22
ну что, кто уже на istio пересел, давайте делиться болью :)

Aleksandr
07.01.2018
14:10:19
Istio больше чем в одном неймспейсе уже может работать?

Andrey
07.01.2018
14:10:44
угу, щас ставится в отдельный неймспейс по типу deis и всяких таких

Let Eat
07.01.2018
15:07:12
ну что, кто уже на istio пересел, давайте делиться болью :)
ставьте-ставьте, к концу 2018 отловите все баги, тогда и я перейду)

Andrey
07.01.2018
15:31:26
ну да, на текущий момент там порядочно много магии… но в целом если есть время свободное то на стажинге потыркаться довольно интересно

Slach
07.01.2018
15:45:36
а как все таки правильно с логами жить в kubernetes? выводить логи в JSON? или обычный stderr + stdout будет нормально? приложения на golang

Admin
ERROR: S client not available

Slach
07.01.2018
16:04:52
а как все таки правильно с логами жить в kubernetes? выводить логи в JSON? или обычный stderr + stdout будет нормально? приложения на golang
О! оказывается все уже продумано за нас, прекрасно https://github.com/kubernetes/kubernetes/issues/15795 так что все таки проще выводить в JSON

Andrey
07.01.2018
16:55:21
а как все таки правильно с логами жить в kubernetes? выводить логи в JSON? или обычный stderr + stdout будет нормально? приложения на golang
ну если вкратце то json в случае когда вы хотите собирать автоматизированными системами в одно место, и как обычно если не дозрели до этого у меня есть отдельная переменная окружения для этого: локально и на машинах тестировщиках логи выводятся строками читаемыми, когда в кластере то пакуются в json тут тоже куча подводных камней... к примеру, на ранней стадии продакшна (как у меня) я не вижу смысла логи собирать (то есть у меня был стек ELK куда все складировалось, но это нафиг никому не вперлось и я отключил чтоб ресурсы не тратить) лайфках: если неохота возиться а инфу со всех подов видеть охота рекомендую для начала попробовать утилиту stern

Google
Andrey
07.01.2018
16:59:04
> выводить логи в JSON? > или обычный stderr + stdout будет нормально? вообще если руководстоваться 12fa то все логи должны идти в stdout/stderr, то есть приложение не должно знать о каких-то внешних системах логгирования - задача fluentd и им подобных собирать логи и обрабатывать... ну а там зависит только от правил которые вы настроите: json проще собирать без правил (тупо берем строку и посылаем куда надо), но не всегда это доступно (как бы разработчик ни старался приложение может плюнуть стектрейсом, или просто в приложении нет доступа к формату логов) и приходится регулярки создавать - я к тому что и то, и то придется делать

1) создаю деплоймент который отвечает по grpc протоколу 2) создаю для него сервис: - при подключении через сервис не пускает (helloworld.default.svc.cluster.local) - подключение напрямую проходит без проблем (kubectl get endpoints helloworld) код сервиса: apiVersion: v1 kind: Service metadata: labels: app: helloworld name: helloworld spec: ports: - port: 80 name: grpc-helloworld protocol: TCP targetPort: 8081 selector: app: helloworld какую хрень я упустил? есть какая-то специфика роутинга http2 в кубере? L4 сервис насколько я понимаю не должен влиять (UPD: забейте, где-то в другом месте накосячил, UPD2: нашел косяк, точно я был, все норм с L4 :)

bebebe
08.01.2018
06:19:24
`ster`+

Sergey
08.01.2018
08:13:44
спасибо за ответы я хочу понять реально ли используя только k8s поднять какое то гибридное облако в котором железное ядро и которое может сделать autoscale в публичных облаках в случае необходимости судя по вашим ответам, получается что пока это все сильно незрелое =( и best practices не выработано, спасибо еще раз
реально сделать все что угодно, вопрос в ресурсах. Для отдельно взятой средней конторы организация и поддержка такой схемы становится неоправданно дорогой (имхо). Кроме того в случае распадания кластера - это пипец может быть весело. Поэтому лучше не искать приключений на свою ж, и помнить правило "не хранить яйца в одной корзине". Вот вполне себе примерчик для данной ситуации: https://support.cloudflare.com/hc/en-us/articles/115003384591-Using-Kubernetes-on-GKE-and-AWS-with-Cloudflare-Load-Balancer Кстати у гугла тоже не так давно появилось подобное Global Load Balancing with Single Anycast IP.

а как все таки правильно с логами жить в kubernetes? выводить логи в JSON? или обычный stderr + stdout будет нормально? приложения на golang
если логи хочется сразу красиво парсить, то в json. Это особенно актуально для логов, например, nginx ingress. Если для приложений, то имхо можно сильно не париться, т.к. коллекторы (fluentbit, fluentd, filebeat) их и так оборачивают в json. Ну и стоит помнить что multiline не поддерживается (без хитрых воркараундов). В качестве коллектора в кубере хорош fluentbit.

Janos
08.01.2018
12:25:34
Здравствуйте, ▫️Какой у вас проект или где работаете? Сервис для бронирование отелей ▫️В чём вы специалист? Java ▫️Чем можете быть интересны или полезны сообществу? Я бесполезный на данном этапе ▫️Чем интересно сообщество вам? Начинаю учить k8s ▫️Откуда вы? Будапешт ▫️Как узнали про группу? С чата про докер #whois

Konstantin
08.01.2018
14:14:53
подскажите, пожалуйста, какой всё-таки самый простой/мейнстримный вариант для разворачивания k8s на aws? От обилия вариантов разбежались глаза: kops/kube-aws/kubespray/tectonic/conjure-up и тд

Konstantin
08.01.2018
14:17:20
@not_logan продакшн (маленький)

Vitaliy
08.01.2018
14:28:26
Меня kops более чем устраивает

Janos
08.01.2018
14:28:33
очень важное уточнение - вам поиграть или продакшн?
Подскажите какой вариант подойдет для поиграть?

Konstantin
08.01.2018
14:52:29
спасибо!

Janos
08.01.2018
14:55:21
kubeadm
Спасибо!

Rustam
08.01.2018
16:27:47
Играюсь с self hosted. Что-то не понимаю как поднять api-server после ребута мастер-ноды. В доке написано: «a self-hosted cluster cannot recover from a reboot of the master node without manual intervention» А как чинить — не написано. В docker ps есть controller-manager, scheduler и etcd, но апи сервера нету. Может кто сталкивался?

Google
Let Eat
08.01.2018
16:43:30
Вам нужен check pointer из bootkibe

Вообще поднимайте весь selfhosted из bootkube

Rustam
08.01.2018
17:13:52
ага, ща его пропробую

Alexandr
08.01.2018
18:17:28
Всем привет

Я начинающий Системный Администратор Линукс

Страница 374 из 958