@kubernetes_ru

Страница 281 из 958
Mikhail
25.09.2017
19:13:08
Спасибо ! =)

Сергей
25.09.2017
19:13:27
да нет за что

Vitaliy
25.09.2017
22:46:16
кстати, будет опыт с нетворк полиси - отпишите плиз
Есть позитивный опыт более полугода эксплуатации. Правда контроллер самописный:)

Fusion
26.09.2017
00:15:22
T.me/newschool_vision

Google
Anton
26.09.2017
07:07:26
кубспрей с фланелем, а тот с type: host-gw
вот кстати, с host-gw получается работает маршрутизация, накладных расходов минимум. nginx-ingress в daemonset + hostNetwork на железе. по сравнению с конфигурацией без к8с не вижу заужения, разве что с фланел еще под нагрузкой не видел. что тут может вызвать проблемы производительности?

ivan
26.09.2017
08:54:38
всем привет, кто нибудь заморачивался с авторизацией x509 из подов на внешних серверах(например mongodb Enterprise with x509 auth) ?

Maksim
26.09.2017
09:29:08
а в чём собствнно вопрос?

Dorian
26.09.2017
09:38:21
А если у меня есть одна удаленная нода-миньон в другом офисе. Можно как то сделать чтобы контейнеры на ней получили реальные адреса?

Как на докере это сделать я представляю Но вот на кубе или шифте не особо

Maksim
26.09.2017
09:39:21
HostNet: True

Dorian
26.09.2017
09:39:29
Гонять трафик по оверлею долго

Maksim
26.09.2017
09:39:59
делаешь на той ноде лебл. на под вешаешь NodeSelector + HostNetwork: true

и в перёд

Dorian
26.09.2017
09:40:23
А ДНС?

Как сервис регистрировать ?

Консул?

Maksim
26.09.2017
09:54:23
в кубе-днс они буду зарегестрированы

Google
Dorian
26.09.2017
10:04:00
Спасибо Попробую

ivan
26.09.2017
10:07:59
а в чём собствнно вопрос?
автоматический rotate сертификатов и синхронизация CRL ..

Maksim
26.09.2017
11:55:16
ну с монго дб не возился

у меня опыт только с crt auth на базе nginx

ca живёт в секрете и маунтиться в под...при пересоздании пода всё ок...

и смене сервера

ivan
26.09.2017
12:43:23
интересна именно динамика, ротация сертификатов для сервиса в поде скажем каждые 2недели, pki это делать умеет, но со стороны клиента нужна автоматизация, что то вроде lets encrypt но self-signed

Roman
26.09.2017
13:27:17
Добрый день, не совсем понятно так должно быть или нет Есть кубер в aws, есть сервис с type: LoadBalancer. И в лоадбалансер он добавляет все ноды из кластера а не те на котрых запущены поды

Мне кажется это не совсем правильно

Fike
26.09.2017
13:34:51
Насколько понимаю, даже LoadBalancer подразумевает под собой обычную сущность сервиса с попаданием на конечный под через iptables. Пытаться локализовать поды в сложном приложении в долгосрочной перспективе практически невозможная задача, трафик все равно будет постоянно бегать между нодами, если только жестко не привязать все поды к нодам, и один дополнительный хоп здесь вряд ли даст критическую задержку. А вообще конечно клево было бы.

Roman
26.09.2017
13:44:36
Было бы круто, если будет к примеру 100 интсансов с 20 проэктами и все ноды будут друг на друга прокисровать то сеть выдержит или нет?

Maksim
26.09.2017
13:49:24
друг на друга они проксировать не будут

только от входа до endpoint

Paul
26.09.2017
21:16:57
Модераторы?

Dmytro
27.09.2017
11:55:30
Ктото использует https://rook.github.io/? пробую прикоутить его и есть несколько проблемных точек

а также есть ли возможность дебага Persistent Volume Claims, а то лежить в Pending и не пойму почему не хочет билдится с Storage Classe

Dmytro
27.09.2017
12:06:04
дадада, расскажите - я умираю от любопытства
одна с проблем это не хочет уходить в ребут нода, если есть примаунеч под к персисту Пишет что "INFO: task jbd2/rbd0-8:1212 blocked for more than 120 seconds. и потом видно что под тоже "INFO: task mysqld:1528 blocked for more than 120 seconds" и потом "libceph: mon1 10.3.54.92:6790 socket closed (con state CONNECTING)" повторяет до бесконечности

Dmitry
27.09.2017
12:07:11
похоже что лучше спросить в чате сефевиков

Dmytro
27.09.2017
12:07:44
если сделать ресет, то нормально стартует. Но у меня стоит coreos и он сам автоматически ребутится если есть новые обновление системы

Google
Dmytro
27.09.2017
12:09:08
да, мне и нужно чтобы они обновлялись, но из-за подвисона, приходится в ручную ребут по всем нодам вызывать через ресет, что не очень

Mikhail чердак
27.09.2017
12:18:22
Всем доброго времени суток и хорошего дня.

К сожалению, сразу же с вопросом. Изучаю замечательный сабжевый продукт. У меня есть GCE, на котором я хочу поднять traefik с автоматическим получением Let's Encrypt. Статья нашлась, но она рассчитана на локальный Kubernetes. Я же делаю это в гугловом клауде. На данный момент после просмотра кучи туториалов и всего подобного не могу понять, как заставить Ingress слушать внешний IP адрес, который я создал в GCE. Буду благодарен за помощь.

Anton
27.09.2017
12:23:18
кажется вам достаточно будет service описать для вашего деплоймента traefik с type loadbalacer

Mikhail чердак
27.09.2017
12:24:02
кажется вам достаточно будет service описать для вашего деплоймента traefik с type loadbalacer
В таком виде оно работает, да. Но у меня планируется много виртуальных хостов за данным Ingress.

И все это еще должно использовать SSL.

Anton
27.09.2017
12:25:43
я не понимаю проблемы. все вроде тоже самое, просто больше А записей для ip адреса, нет?

Mikhail чердак
27.09.2017
12:25:49
Меня зовут Михаил. Работаю в IT компании в Риге (перекатился из России). Ранее занимался QA/DevOps в Лаборатории Касперского и Netris. В гугле первая же ссылка ведет на группу. #whois

Anton
27.09.2017
12:25:56
траефик думаю умеет tls sni

Mikhail чердак
27.09.2017
12:27:21
Недостаток знаний, конечно, мешает поставить вопрос более подробно.

Ну и раз уж на то пошло мне уже банально интересно, почему это добро отказывается работать.

Anton
27.09.2017
12:29:24
я с gce не работаю, у меня baremetal. вам нужно начать отсюда https://kubernetes.io/docs/concepts/services-networking/service/#type-loadbalancer

Alisa
27.09.2017
12:30:50
@kubernetes_ru
это он и есть)

bebebe
27.09.2017
12:31:29
это он и есть)
Хорошая у меня трава, да

Roman
27.09.2017
12:54:47
Вопрос по логированию почти решился, остался последний вопрос Логи приложения пишутся в лог оттуда их будет брать filebeat и отправлять в graylog. Теперь вопрос, я хочу запустить контейнер с filebeat как sidecar . И брать логи с какого то волума, умеет ли kubernetes volumes_from?

Так ка если монтировать на фс то возможно при скейлинге подов 2 приложения filebeat смонтируются в одну папку и будут посылать одно и тоже

Google
Anton
27.09.2017
13:06:43
я volumes_from искал тоже как то, но обнаружить не удалось

Fike
27.09.2017
13:08:18
это не докер, логическая единица - не контейнер, а под

поду можно выделить emptyDir, который примонтировать потом всем контейнерам

Anton
27.09.2017
13:12:21
а emptyDir в рамках ноды при апдейте сохраняется? тоесть для деплоймента пришел апдейт, создался новый репликасет и поды, старый emptyDir из старых подов попадет в новые на том же хосте?

или emptyDir не переживает даже апдейт?

Fike
27.09.2017
13:12:56
насколько помню, emptyDir живет время жизни пода (но это не точно, нужно доку смотреть)

Anton
27.09.2017
13:13:20
читаю как раз, похоже что на под завязан и все похерится между апдейтами

Fike
27.09.2017
13:13:24
но если вы хотите, чтобы он пережил апдейт, вы что-то делаете не так

Roman
27.09.2017
13:13:36
Он создается с уникальнмы именем, если два пода на одной машине то они вконектятся в один emptyDir?

Roman
27.09.2017
13:14:21
О, спасибо. Сейчас потестирую

Anton
27.09.2017
13:14:27
аппу вроде как можно стартовать и с нуля. просто кэш набивать, это трафик =)

Fike
27.09.2017
13:15:06
кэш не долен быть привязан к инстансу приложения :\

Anton
27.09.2017
13:16:22
а к чему кэш должен быть привязан?

Fike
27.09.2017
13:18:07
кэш должен быть отдельным сетевым сервисом, как и БД. про это по-моему даже в 12fa написано, или в какой-то другой недалеколежащей рекомендации

Fike
27.09.2017
13:18:23
иначе про инвалидацию можно тупо забыть

я понимаю, что почему-то очень ценно опровергнуть мои слова

Google
Anton
27.09.2017
13:18:50
это же интернет

у меня в общем как раз кэш - отдельный сервис. их еще и много разных

Sergey
27.09.2017
13:19:23
потому что кеш внезапно должен быть настолько близко, насколько это возможно в условиях задачи. и если он может быть в памяти процесса - то это замечательно.

Fike
27.09.2017
13:21:09
да просто повторюсь про инвалидацию

так-то и данные можно не в бд хранить, а прямо в файлах рядом, и оно и быстрее будет

Sergey
27.09.2017
13:22:09
а вы кешом не называете ли быструю бд c strong consistency?

Fike
27.09.2017
13:23:15
я имею в виду хранилище с любой консистентностью

Sergey
27.09.2017
13:23:17
если у вас есть атомарная инвалидация, то чо б данные в этом кеше не хранить, раз он такой замечательный

Fike
27.09.2017
13:23:25
да боже

где я сказал про атомарную инвалидацию?

Sergey
27.09.2017
13:23:36
иначе про инвалидацию можно тупо забыть

да просто повторюсь про инвалидацию

Fike
27.09.2017
13:23:41
АТОМАРНУЮ

Страница 281 из 958