
Pavel
30.07.2017
17:15:06
У вас же впн, т.е. китаецы врядли там окажутся
Но, собственно, это вопрос бизнеса,сколько он готов тратить в секурити

Alisa
30.07.2017
17:17:06
это я про случай когда произошла утечка впн-ключа (допустим оператор сидел с необновленной винды), этот ключ попал в нехорошие руки и он увидел, что там стоит необновленный сервис с дырой ?
конечно это ситуация в вакууме, но потенциально опасный случай
и лучше его избежать на этапе проектирования инфраструктуры, потому что потом все забудут имхо

Google

Pavel
30.07.2017
17:17:45
Пусть тогда ещо пароьь из смс вводит :)

Alisa
30.07.2017
17:17:55
?

Andrey
30.07.2017
18:19:38
тогда тебе надо ждать istio стабильного релиза - там сайдкарами к каждому сервису цепляется прокси который трафон контролирует, ну и через iptables пускает куда только надо :)

Роман
31.07.2017
07:27:58
Если у меня уже поднят кластер, где используется интернет для общения нод, и я хочу сделать между ними внутреннюю сеть через свич... На сколько сложно перенастроить?
imagePullPolicy: Always
Почему не обновляется образ у подов? Используется тэг image:v2

Igor
31.07.2017
09:03:20

Роман
31.07.2017
09:05:13
Помогает только удаление пода. Он потом заново его создаёт с новым образом. Это же должно автоматически происходить?

Nikolay
31.07.2017
09:36:07
тег не меняется?

Alisa
31.07.2017
09:41:55

Роман
31.07.2017
09:43:16
тег не меняется?
Нет. Тэг всегда один. Просто, это тестинг-окружение. Там в день по 15 коммитов идёт. Если каждый раз новую версию создавать - это очень много образов получится...

Nikolay
31.07.2017
09:45:03
тогда только удалять pod, deployment делает обновление replica set только при наличии изменений в спеке

Роман
31.07.2017
09:46:24

Google

Роман
31.07.2017
09:46:52
Это поле не помечено, как неизменяемое?

Let Eat
31.07.2017
10:19:32

Maksim
31.07.2017
10:28:00
мм 1.8 что ли релизнулась?

Paul
31.07.2017
10:28:56

Maksim
31.07.2017
10:32:22
Скорее всего ошибка в типе апдейта
imagePullPolicy это указание кублету, в каком случае выполнять docker pull

kvaps
31.07.2017
11:15:11
Гайс, а какую сеть посоветуете? - что нынче самое быстрое / модное / молодежное?

Айбелив
31.07.2017
11:16:17
как я мог отключить CNI, если kubeadm только с ним и работает?

Alisa
31.07.2017
11:16:47

kvaps
31.07.2017
11:19:51
как я мог отключить CNI, если kubeadm только с ним и работает?
не знаю, у меня только после этого все завелось:
https://github.com/kubernetes/kubeadm/issues/212#issuecomment-290628546
после этого
kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"
и все поднялось
Хотелось бы сравнения host-gw с weave и calico

Maksim
31.07.2017
11:22:48
calico это решение от циски, и оно пропаретарное) weave-net проигрывает фланелу. Его приимущество в наличии внутренней шифрации, но при ней просадка по сети огромна (а сеть и так узкое место докера)
host-gw это тип работы фланела

kvaps
31.07.2017
11:23:35
вот это исчерпывющий ответ :)

Maksim
31.07.2017
11:23:40
В сети есть всякие презы и сравнения calico с flannel и weave (когда оно их уделывает) ,но я им не верю, учитывая что все они делались циско и его партнёрами

kvaps
31.07.2017
11:24:17
как всегда прямо в точку, спасибо
weave - наверное хорошо, когда у тебя сеть наружу смотрит

Google

kvaps
31.07.2017
11:25:27
а так, пожалуй остановлюсь пока на host-gw

Maksim
31.07.2017
11:25:29
Ещё чуток себя поправлю Сеть узкое место у докера если это не HostNetwork.

kvaps
31.07.2017
11:25:53
в смысле?

Maksim
31.07.2017
11:26:19
Ну у докера есть разные типы сети
одна из них host-net когда докер вешается на на мост, а на прямую на ethernet контроллер хоста
субсно так кубадм размещает контроллер

kvaps
31.07.2017
11:27:38
То есть ты хотел сказать net=host? То есть в тот же namespace что и хост
без виртуализации сетевого стка

Maksim
31.07.2017
11:29:10
ну да

kvaps
31.07.2017
11:29:44
понятно :)
@Leorent я кстати нашел решение, как заставить kubernetes вешать айпишники на внешние интерфейсы для подов
оказалось проще простого: https://gist.github.com/kvaps/889fe2b9eeab9f205c818ab1d1af56a9

kvaps
31.07.2017
11:43:52
И этот же айпишник указываю как ExternalIP для сервиса

Maksim
31.07.2017
11:49:56
Дык ты ено в нецмспайс хоста гкидешь целиком и пидом и сетью)

kvaps
31.07.2017
11:51:41
да, но все что этот контейнер делает, так это назначает ip адрес хосту
или удаляет его при завершении
соответсвенно если этот контейнер переедет на другой хост, переедет и айпишник
а за жизнью этого контейнера (ака айпишника) следит kubernetes, что собственно мне и требовалось
в смысле само приложение в другом pod находится, этот только ip вешает

Maksim
31.07.2017
12:02:53

Google

kvaps
31.07.2017
12:05:33
))
как только теперь два pod связать, что бы вместе запускались
хотя наверное это и не требуется

Paul
31.07.2017
12:15:53

Maksim
31.07.2017
13:19:57

Admin
ERROR: S client not available

Maksim
31.07.2017
13:20:34
https://github.com/kubernetes/helm

kvaps
31.07.2017
13:24:17
о, шаблоны - круто!
через deployment или daemonset
да, но deployment - это же всего лишь pod + replicaset.
В данном случае задачка немного другая:
Допустим у меня есть deployment приложения с тремя репликами размазанными на три ноды, а я хочу запустить еще один pod, который запустится в количистве не больше одного на одной из этих самых трех нод.
Похоже что этого можно с помощью labels добиться, но тут как раз нужно понять как правильно это все описать

Maksim
31.07.2017
13:30:26
Не понял, что ты хочешьсделать?

kvaps
31.07.2017
13:30:39
от всех этих абстракций голова кругом идет уже идет :)

Maksim
31.07.2017
13:30:54
Ты просто мало курил)

kvaps
31.07.2017
13:34:46
Не понял, что ты хочешьсделать?
смотри, есть 10 нод,
- я создаю deployment, в котором описано приложение ABC и 3 реплики для него
- я создаю сервис с ExternalIP который редиректит весь трафик на эти три контейнера, так?
- теперь я хочу создать еще один deployment ABC-IP, который запустится на одной из тех нод, на который работает приложение ABC

Maksim
31.07.2017
13:35:47
пишишт лабел на три ноды kubectl lavbel no <имя ноды> ABC=true
и пишишь в деплой nodeSelector:
abc: "true"

kvaps
31.07.2017
13:36:27
Ты просто мало курил)
возможно, но с каждым разом все интересней и интересней, мне кажется я уже крепко подсел на эту дурь :)

Maksim
31.07.2017
13:36:33
тогда шелдулер будет запускать поды только на нода с лейблом abc: true
http://blog.kubernetes.io/2017/03/advanced-scheduling-in-kubernetes.html

kvaps
31.07.2017
13:37:55
ок, а возможно label'ы назначать динамически? - мол запустилось приложение ABC, и ноде присвоился label run-app-ABC ?

Google

kvaps
31.07.2017
13:38:24
после этого использовать его для деплоя следующего приложения

Maksim
31.07.2017
13:38:29
Делай запрос в API через serviceaccount

kvaps
31.07.2017
13:38:46
или грубо говоря сказать:
"запустись там же, где и ABC"

Maksim
31.07.2017
13:39:06
То есть под запускается, получает данные о ноде на которой запущен и делает запрос в api сервер с постановкой лейбла.
Самое главное отрабоать логику, что бы эти лейблы чистить
-)

Alisa
31.07.2017
13:39:47
чем вы проводите нагрузочное тестирование на ваш кластер?
хайлоада нить иди

Fike
31.07.2017
13:40:07
ab, wrk, jmeter, gatling, blazemeter taurus, yandex.tank

kvaps
31.07.2017
13:40:15
да, чет не нравится мне это решение, ес честно

Maksim
31.07.2017
13:40:16
почитай статейку выше) Должна помочь. У тебя как раз нужная задачка

Fike
31.07.2017
13:40:36
locust.io

Maksim
31.07.2017
13:40:36

kvaps
31.07.2017
13:40:38
ок, сча займусь

Maksim
31.07.2017
13:40:57
так вот сначала yandex.cocain потом yandex.tank -)

Fike
31.07.2017
13:41:00
реально из вышеописанного только ab и jmeter постоянно пользую. гатлинг очень хорош, но не хватает декларативного описания сценариев