@kubernetes_ru

Страница 224 из 958
Pavel
30.07.2017
17:15:06
У вас же впн, т.е. китаецы врядли там окажутся

Но, собственно, это вопрос бизнеса,сколько он готов тратить в секурити

Alisa
30.07.2017
17:17:06
это я про случай когда произошла утечка впн-ключа (допустим оператор сидел с необновленной винды), этот ключ попал в нехорошие руки и он увидел, что там стоит необновленный сервис с дырой ? конечно это ситуация в вакууме, но потенциально опасный случай

и лучше его избежать на этапе проектирования инфраструктуры, потому что потом все забудут имхо

Google
Pavel
30.07.2017
17:17:45
Пусть тогда ещо пароьь из смс вводит :)

Alisa
30.07.2017
17:17:55
?

Andrey
30.07.2017
18:19:38
тогда тебе надо ждать istio стабильного релиза - там сайдкарами к каждому сервису цепляется прокси который трафон контролирует, ну и через iptables пускает куда только надо :)

Роман
31.07.2017
07:27:58
Если у меня уже поднят кластер, где используется интернет для общения нод, и я хочу сделать между ними внутреннюю сеть через свич... На сколько сложно перенастроить?

imagePullPolicy: Always Почему не обновляется образ у подов? Используется тэг image:v2

Igor
31.07.2017
09:03:20
Роман
31.07.2017
09:05:13
Если у тебя Deployment, то нужно делать kubectl set image ...
Пробовал. Но ничего не происходит. Вывода никакого нет...

Помогает только удаление пода. Он потом заново его создаёт с новым образом. Это же должно автоматически происходить?

Nikolay
31.07.2017
09:36:07
тег не меняется?

Alisa
31.07.2017
09:41:55
Помогает только удаление пода. Он потом заново его создаёт с новым образом. Это же должно автоматически происходить?
нужно тег новый каждый раз создавать и тогда под обновится, у меня лично в этом проблемка была

Роман
31.07.2017
09:43:16
тег не меняется?
Нет. Тэг всегда один. Просто, это тестинг-окружение. Там в день по 15 коммитов идёт. Если каждый раз новую версию создавать - это очень много образов получится...

Nikolay
31.07.2017
09:45:03
тогда только удалять pod, deployment делает обновление replica set только при наличии изменений в спеке

Google
Роман
31.07.2017
09:46:52
Это поле не помечено, как неизменяемое?

Let Eat
31.07.2017
10:19:32
А если вставить лэйбл с хэшем?
annotation вроде работал, лейбл может тоже сработает

Maksim
31.07.2017
10:28:00
мм 1.8 что ли релизнулась?

Paul
31.07.2017
10:28:56
Maksim
31.07.2017
10:32:22
Пробовал. Но ничего не происходит. Вывода никакого нет...
пулл полиси точно не влияет. ЕСли изменяет image то прросиходит rollingUpdate деплоя

Скорее всего ошибка в типе апдейта

imagePullPolicy это указание кублету, в каком случае выполнять docker pull

kvaps
31.07.2017
11:15:11
Гайс, а какую сеть посоветуете? - что нынче самое быстрое / модное / молодежное?

1.7.1 via kubeadm, weave
ты не отключал CNI ?

Айбелив
31.07.2017
11:16:17
как я мог отключить CNI, если kubeadm только с ним и работает?

Alisa
31.07.2017
11:16:47
Гайс, а какую сеть посоветуете? - что нынче самое быстрое / модное / молодежное?
http://machinezone.github.io/research/networking-solutions-for-kubernetes/ я вот сам только рисечу этот вопрос (если я правильно тебя понял)

kvaps
31.07.2017
11:19:51
как я мог отключить CNI, если kubeadm только с ним и работает?
не знаю, у меня только после этого все завелось: https://github.com/kubernetes/kubeadm/issues/212#issuecomment-290628546 после этого kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')" и все поднялось

http://machinezone.github.io/research/networking-solutions-for-kubernetes/ я вот сам только рисечу этот вопрос (если я правильно тебя понял)
Да, читал но там только flannel, кстати есть перевод на хабре: https://habrahabr.ru/company/flant/blog/332432/

Хотелось бы сравнения host-gw с weave и calico

Maksim
31.07.2017
11:22:48
calico это решение от циски, и оно пропаретарное) weave-net проигрывает фланелу. Его приимущество в наличии внутренней шифрации, но при ней просадка по сети огромна (а сеть и так узкое место докера)

host-gw это тип работы фланела

kvaps
31.07.2017
11:23:35
вот это исчерпывющий ответ :)

Maksim
31.07.2017
11:23:40
В сети есть всякие презы и сравнения calico с flannel и weave (когда оно их уделывает) ,но я им не верю, учитывая что все они делались циско и его партнёрами

kvaps
31.07.2017
11:24:17
как всегда прямо в точку, спасибо

weave - наверное хорошо, когда у тебя сеть наружу смотрит

Google
kvaps
31.07.2017
11:25:27
а так, пожалуй остановлюсь пока на host-gw

Maksim
31.07.2017
11:25:29
Ещё чуток себя поправлю Сеть узкое место у докера если это не HostNetwork.

kvaps
31.07.2017
11:25:53
в смысле?

Maksim
31.07.2017
11:26:19
Ну у докера есть разные типы сети

одна из них host-net когда докер вешается на на мост, а на прямую на ethernet контроллер хоста

субсно так кубадм размещает контроллер

kvaps
31.07.2017
11:27:38
То есть ты хотел сказать net=host? То есть в тот же namespace что и хост

без виртуализации сетевого стка

Maksim
31.07.2017
11:29:10
ну да

kvaps
31.07.2017
11:29:44
понятно :)

@Leorent я кстати нашел решение, как заставить kubernetes вешать айпишники на внешние интерфейсы для подов

оказалось проще простого: https://gist.github.com/kvaps/889fe2b9eeab9f205c818ab1d1af56a9

kvaps
31.07.2017
11:43:52
И этот же айпишник указываю как ExternalIP для сервиса

Maksim
31.07.2017
11:49:56
Дык ты ено в нецмспайс хоста гкидешь целиком и пидом и сетью)

kvaps
31.07.2017
11:51:41
да, но все что этот контейнер делает, так это назначает ip адрес хосту

или удаляет его при завершении

соответсвенно если этот контейнер переедет на другой хост, переедет и айпишник

а за жизнью этого контейнера (ака айпишника) следит kubernetes, что собственно мне и требовалось

в смысле само приложение в другом pod находится, этот только ip вешает

Maksim
31.07.2017
12:02:53
в смысле само приложение в другом pod находится, этот только ip вешает
Да вы батенька знаете толк в извращениях) А так круто) хорошее решение

Google
kvaps
31.07.2017
12:05:33
))

как только теперь два pod связать, что бы вместе запускались

хотя наверное это и не требуется

Admin
ERROR: S client not available

Maksim
31.07.2017
13:20:34
https://github.com/kubernetes/helm

kvaps
31.07.2017
13:24:17
о, шаблоны - круто!

через deployment или daemonset
да, но deployment - это же всего лишь pod + replicaset. В данном случае задачка немного другая: Допустим у меня есть deployment приложения с тремя репликами размазанными на три ноды, а я хочу запустить еще один pod, который запустится в количистве не больше одного на одной из этих самых трех нод.

Похоже что этого можно с помощью labels добиться, но тут как раз нужно понять как правильно это все описать

Maksim
31.07.2017
13:30:26
Не понял, что ты хочешьсделать?

kvaps
31.07.2017
13:30:39
от всех этих абстракций голова кругом идет уже идет :)

Maksim
31.07.2017
13:30:54
Ты просто мало курил)

kvaps
31.07.2017
13:34:46
Не понял, что ты хочешьсделать?
смотри, есть 10 нод, - я создаю deployment, в котором описано приложение ABC и 3 реплики для него - я создаю сервис с ExternalIP который редиректит весь трафик на эти три контейнера, так? - теперь я хочу создать еще один deployment ABC-IP, который запустится на одной из тех нод, на который работает приложение ABC

Maksim
31.07.2017
13:35:47
пишишт лабел на три ноды kubectl lavbel no <имя ноды> ABC=true

и пишишь в деплой nodeSelector: abc: "true"

kvaps
31.07.2017
13:36:27
Ты просто мало курил)
возможно, но с каждым разом все интересней и интересней, мне кажется я уже крепко подсел на эту дурь :)

Maksim
31.07.2017
13:36:33
тогда шелдулер будет запускать поды только на нода с лейблом abc: true

http://blog.kubernetes.io/2017/03/advanced-scheduling-in-kubernetes.html

kvaps
31.07.2017
13:37:55
ок, а возможно label'ы назначать динамически? - мол запустилось приложение ABC, и ноде присвоился label run-app-ABC ?

Google
kvaps
31.07.2017
13:38:24
после этого использовать его для деплоя следующего приложения

Maksim
31.07.2017
13:38:29
Делай запрос в API через serviceaccount

kvaps
31.07.2017
13:38:46
или грубо говоря сказать: "запустись там же, где и ABC"

Maksim
31.07.2017
13:39:06
То есть под запускается, получает данные о ноде на которой запущен и делает запрос в api сервер с постановкой лейбла.

Самое главное отрабоать логику, что бы эти лейблы чистить

-)

Alisa
31.07.2017
13:39:47
чем вы проводите нагрузочное тестирование на ваш кластер?

хайлоада нить иди

Fike
31.07.2017
13:40:07
ab, wrk, jmeter, gatling, blazemeter taurus, yandex.tank

kvaps
31.07.2017
13:40:15
да, чет не нравится мне это решение, ес честно

Maksim
31.07.2017
13:40:16
почитай статейку выше) Должна помочь. У тебя как раз нужная задачка

Fike
31.07.2017
13:40:36
locust.io

Maksim
31.07.2017
13:40:36
kvaps
31.07.2017
13:40:38
ок, сча займусь

Maksim
31.07.2017
13:40:57
так вот сначала yandex.cocain потом yandex.tank -)

Fike
31.07.2017
13:41:00
реально из вышеописанного только ab и jmeter постоянно пользую. гатлинг очень хорош, но не хватает декларативного описания сценариев

Страница 224 из 958