
Dmitry
05.01.2018
06:40:19
Но там есть pre-kill хук, так что есть шанс что можно послать нормальный шатдаун сигнал
потом подождать и убить контейнер

Andrey
05.01.2018
09:02:29

Let Eat
05.01.2018
13:04:37

Google

Alik
05.01.2018
13:15:38
Ребята, как вы храните и работаете с кофигурационными файлами ресурсов(YAML файлы) ?

bebebe
05.01.2018
13:34:58
в темплейтах, темплейты в файлах, файлы в гите, гит на сервере, сервер в амазоне

Let Eat
05.01.2018
13:42:00
Вместо темплейтов

bebebe
05.01.2018
13:42:24
лучше исследуйте plan9/inferno

Let Eat
05.01.2018
13:42:40
Слишком адово )

Alik
05.01.2018
13:46:44

Carrol
05.01.2018
14:30:15
Езжу на yaml и тут проезжает @rossmohax на ксоннете

Slach
06.01.2018
04:22:17
Доброе утро всем, а подскажите пожалуйста
где работает kubelet в AWS и GCE ?
т.е. это получается запуск Docker внутри виртуалки запускается? и на каждой ноде кластера стоит еще etcd?
И есть ли у кого то в этом чате кто делал гибридный кластер на GCE + bare metal?

Dmitry
06.01.2018
05:58:54

Sergey
06.01.2018
08:59:38

Vlad
06.01.2018
09:59:52
О, в новый docker edge for mac завезли kubernetes. Minicube можно отправлять в отставку

Google

Slach
06.01.2018
10:34:15
речь о federation ?
да, похоже это оно
ок. да речь идет о federated clusters - hybrid cloud
вот я правильно понял что всякие там AWS ECSэто просто обычные EC2 в которых уже Docker есть и этим Docker можно рулить через AWS API ?
вокруг которого уже идет абстракция
и что k8s в этом случае ставит просто kubelet прямо внутрь этого самого EC2 ?
и аналогично с Goolge GCE?

Maksim
06.01.2018
14:04:42
Привет. Meltdown нас поразил) ни ктотне обратил внимание на падение производительности?

Andrey
06.01.2018
14:38:57

Sergey
06.01.2018
15:08:29
так чтобы заметить разницу нужно бенчмаки до и после делать.
@BloodJazMan
ECS выносит на свалку истории. Не советую смотреть. Они ведь не просто так тоже хостед кубернетес пилят. (да, это обычные ec2 виртуалки с докером и амазоновским шудулером)
Ну и исходя из ваших вопросов, я очень сомневаюсь что вам нужен cluster federation. К тому же как по мне он еще не зрел. (GKE его не поддерживает тоже).

Andrey
06.01.2018
17:07:34

Артём
06.01.2018
17:40:55

Pavel
06.01.2018
23:04:35
По поводу снижения производительности на амазоне

Fike
06.01.2018
23:05:11
ребят, может хотя бы здесь устроим meltdown-free зону?

Slach
07.01.2018
08:37:31

Ivan
07.01.2018
08:48:59
Всем привет!
Подскажите, как правильно передать в контейнер в кубернете реальный айпишник клиента?
У меня контейнер сейчас получает либо айпишник из подсетки подов, либо айпишник соседних нод.
Сетка на фланеле, настройки - "Backend": "Type": "host-gw"

Slach
07.01.2018
08:50:36
хм а бекенд на чем написан? и как общается ?
HTTP ?

Ivan
07.01.2018
08:57:57
да, пхп и нжинкс

Alex
07.01.2018
08:58:27
В x forvarded for смотришь?

Slach
07.01.2018
09:02:02
nginx в ingress?
X-Real-IP
X-Forwared-For
http://nginx.org/ru/docs/http/ngx_http_realip_module.html#real_ip_header

Ivan
07.01.2018
09:06:43
нет, нжинкс просто как отдельный контейнер,
X-Real-IP не помог поотму что в нжинкс приходит уже левый айпишник и его бессмысленно передавать в заголовке
я подозреваю, что надо копать с торону настроек фланнел или сетки кубернета, но пока не понимаю, как сформулировать запрос в гугле))

Slach
07.01.2018
09:07:37
ну как бы nginx тут выглядит лишним как контейнер в поде
и если ты чреез проброс порта на nginx трафик заводишь то тоже не очень хорошо это все
настройки flannel лежат в другой плоскости
IMHO ты должен понять как на уровне TCP (не HTTP) у тебя данные во flannel ходят и где что преобразоывается через всякие там PAT\NAT и т.п.
т.е. вот пришел пакет
TCP из внешей публичной сети
что дальше с ним происходит от кого к кому он пуляется и как преобразоываается пока дойдет до контейнера в твоем кластере
когда поймешь, сразу все проблемы решается =)

Google

Fike
07.01.2018
09:10:53

Bsod
07.01.2018
09:11:50
лоадбалансер/ингресс контроллер

Ivan
07.01.2018
09:15:44
нжинкс это обязательный элемент - через него на сайте отдаётся статика.
у контейнера с нжинкс выброшен порт в режиме NodePort т.е. траффик, который приходит на айпишник любой ноды на 80 порт отправляется в этот контейнер.
какой путь проходят пакеты в этой цепочке - я не знаю и пока не представляю, как выяснить. подозреваю, что в процессе передачи траффика участвуют kube-proxy.
запрос я отправляю напрямую на айпишник ноды на 80 порт. в логах нжинк при этом падает лог с айпишником из сетки подов

terry
07.01.2018
09:23:45
А тем временем, в Docker for Mac версии 17.12 CE Edge завезли поддержку Kubernetes.
https://goo.gl/wCdKfz
P.S. Переключится на Edge версию можно в настройках докера.

Let Eat
07.01.2018
09:28:20
у них миграция виртуалок разве есть? по графикам они хост запатчили без перезагрузки виртуалок

Slach
07.01.2018
09:35:50

Let Eat
07.01.2018
09:38:20

Ivan
07.01.2018
09:39:49

Let Eat
07.01.2018
09:40:06
в Service с NodePort

Slach
07.01.2018
09:48:40

Evgeniy
07.01.2018
11:08:50

Andrey
07.01.2018
12:19:22
ну что, кто уже на istio пересел, давайте делиться болью :)

Aleksandr
07.01.2018
14:10:19
Istio больше чем в одном неймспейсе уже может работать?

Andrey
07.01.2018
14:10:44
угу, щас ставится в отдельный неймспейс по типу deis и всяких таких

Let Eat
07.01.2018
15:07:12

Andrey
07.01.2018
15:31:26
ну да, на текущий момент там порядочно много магии… но в целом если есть время свободное то на стажинге потыркаться довольно интересно

Slach
07.01.2018
15:45:36
а как все таки правильно с логами жить в kubernetes?
выводить логи в JSON?
или обычный stderr + stdout будет нормально?
приложения на golang

Admin
ERROR: S client not available

Slach
07.01.2018
16:04:52


Andrey
07.01.2018
16:55:21
а как все таки правильно с логами жить в kubernetes?
выводить логи в JSON?
или обычный stderr + stdout будет нормально?
приложения на golang
ну если вкратце то json в случае когда вы хотите собирать автоматизированными системами в одно место, и как обычно если не дозрели до этого
у меня есть отдельная переменная окружения для этого: локально и на машинах тестировщиках логи выводятся строками читаемыми, когда в кластере то пакуются в json
тут тоже куча подводных камней... к примеру, на ранней стадии продакшна (как у меня) я не вижу смысла логи собирать (то есть у меня был стек ELK куда все складировалось, но это нафиг никому не вперлось и я отключил чтоб ресурсы не тратить)
лайфках: если неохота возиться а инфу со всех подов видеть охота рекомендую для начала попробовать утилиту stern

Google


Andrey
07.01.2018
16:59:04
> выводить логи в JSON?
> или обычный stderr + stdout будет нормально?
вообще если руководстоваться 12fa то все логи должны идти в stdout/stderr, то есть приложение не должно знать о каких-то внешних системах логгирования - задача fluentd и им подобных собирать логи и обрабатывать... ну а там зависит только от правил которые вы настроите: json проще собирать без правил (тупо берем строку и посылаем куда надо), но не всегда это доступно (как бы разработчик ни старался приложение может плюнуть стектрейсом, или просто в приложении нет доступа к формату логов) и приходится регулярки создавать - я к тому что и то, и то придется делать
1) создаю деплоймент который отвечает по grpc протоколу
2) создаю для него сервис:
- при подключении через сервис не пускает (helloworld.default.svc.cluster.local)
- подключение напрямую проходит без проблем (kubectl get endpoints helloworld)
код сервиса:
apiVersion: v1
kind: Service
metadata:
labels:
app: helloworld
name: helloworld
spec:
ports:
- port: 80
name: grpc-helloworld
protocol: TCP
targetPort: 8081
selector:
app: helloworld
какую хрень я упустил? есть какая-то специфика роутинга http2 в кубере? L4 сервис насколько я понимаю не должен влиять (UPD: забейте, где-то в другом месте накосячил, UPD2: нашел косяк, точно я был, все норм с L4 :)


bebebe
08.01.2018
06:19:24
`ster`+

Slach
08.01.2018
07:32:51
> для начала попробовать утилиту stern
https://github.com/wercker/stern
ага, спасибо вроде весьма полезно =)

Sergey
08.01.2018
08:13:44


Janos
08.01.2018
12:25:34
Здравствуйте,
▫️Какой у вас проект или где работаете?
Сервис для бронирование отелей
▫️В чём вы специалист?
Java
▫️Чем можете быть интересны или полезны сообществу?
Я бесполезный на данном этапе
▫️Чем интересно сообщество вам?
Начинаю учить k8s
▫️Откуда вы?
Будапешт
▫️Как узнали про группу?
С чата про докер
#whois

Paul
08.01.2018
13:55:29

Janos
08.01.2018
13:56:24

Konstantin
08.01.2018
14:14:53
подскажите, пожалуйста, какой всё-таки самый простой/мейнстримный вариант для разворачивания k8s на aws? От обилия вариантов разбежались глаза: kops/kube-aws/kubespray/tectonic/conjure-up и тд

Paul
08.01.2018
14:17:00

Konstantin
08.01.2018
14:17:20
@not_logan продакшн (маленький)

Vitaliy
08.01.2018
14:28:26
Меня kops более чем устраивает

Janos
08.01.2018
14:28:33

Paul
08.01.2018
14:31:54

Sergey
08.01.2018
14:52:17

Konstantin
08.01.2018
14:52:29
спасибо!

Janos
08.01.2018
14:55:21

Rustam
08.01.2018
16:27:47
Играюсь с self hosted. Что-то не понимаю как поднять api-server после ребута мастер-ноды.
В доке написано: «a self-hosted cluster cannot recover from a reboot of the master node without manual intervention»
А как чинить — не написано.
В docker ps есть controller-manager, scheduler и etcd, но апи сервера нету.
Может кто сталкивался?

Google

Let Eat
08.01.2018
16:43:30
Вам нужен check pointer из bootkibe
Вообще поднимайте весь selfhosted из bootkube

Rustam
08.01.2018
17:13:52
ага, ща его пропробую

Alexandr
08.01.2018
18:17:28
Всем привет
Я начинающий Системный Администратор Линукс