@kubernetes_ru

Страница 840 из 958
Alexander
24.09.2018
16:10:24
видимо сетевой плагин куба ?

kvaps
24.09.2018
16:12:11
Спасибо, сейчас покопаю в эту сторону
ну то есть там только один хоп, tap на клиенте и tap на сервере

M
24.09.2018
16:12:46
может кто знает кто как решает задачу если вы создаете сервисы через helm то как их регестрировать автоматически и сразу найти ??

Google
M
24.09.2018
16:13:35
вот простой пример например redis поднял ты его а у него подключение внутри куберо чтото типа super-guffy-redis как такое найти то?

Andrey
24.09.2018
16:14:50
есть ключик - - name. Не то?

Sergey
24.09.2018
16:17:03
ну то есть там только один хоп, tap на клиенте и tap на сервере
Добавлю еще, что реальные клиенты так же запускаются в докер контейнере, но только не в кластере, и в этом случае я вижу dhcp трафик

Andrey
24.09.2018
16:18:04
есть ключик - - name. Не то?
А вообще метки есть. Можно же по ним что угодно делать

p.s. Сам только сегодня почитал про helm и первый чарт написал. Помидорами не кидать :)

M
24.09.2018
16:23:50
есть ключик - - name. Не то?
ключик —name делает типа redis-redis например

Artem
24.09.2018
16:32:37
ключик —name делает типа redis-redis например
Это во многих чартах пофикшено с помощью {{- if contains $name .Release.Name -}} {{- .Release.Name | trunc 63 | trimSuffix "-" -}} {{- else -}} {{- printf "%s-%s" .Release.Name $name | trunc 63 | trimSuffix "-" -}}

M
24.09.2018
16:34:09
Это во многих чартах пофикшено с помощью {{- if contains $name .Release.Name -}} {{- .Release.Name | trunc 63 | trimSuffix "-" -}} {{- else -}} {{- printf "%s-%s" .Release.Name $name | trunc 63 | trimSuffix "-" -}}
но там дело в том что на одном кластере несколько environment и --name не помогать так как у helm плоское пространство имён даже если я и создам --name redis это не помогает

пока ещё думаю каким образом это все разрешить

Igor
24.09.2018
16:54:13
Господа, посоветуйте "курс молодого бойца", что бы +- быстро влиться в тему k8s. Мне нужно для домашнего проекта, что бы развернуть маленькое окружение из 5 "микросервисов".

Google
Sergey
24.09.2018
16:56:19
А чем плохо?
А кто сказал плохо

Juriy
24.09.2018
16:59:35
А кто сказал плохо
Никто, это я, на всякий поинтересовался.

Михаил
24.09.2018
17:05:37
Фига, так меня ещё никто не расстраивал
Подобные абстракции, на мой взгляд, помогают в тех случаях, когда нужно часто конфигурировать большое количество сервисов. Но при этом вы "платите" управляемостью и простой инфраструктуры. Вы будете тратить дополнительное время, чтобы понять, как настроить рертаи, таймауты для конкретного сервиса.

Хороший пост

Вы подробностей будете отсыпать?

Или только на ближайшей конференции?

M
24.09.2018
17:09:20
у кого какой максимум deployments в кубере?

Михаил
24.09.2018
17:13:52
M
24.09.2018
17:14:12
Ты чего узнать то хочешь?
кто как своим добром управляет

Михаил
24.09.2018
17:15:09
Хельм, ансиблом, оператор

В порядке популярности

M
24.09.2018
17:15:47
Ответа единого нет
вот про operator я даже не слышал. это что?

Михаил
24.09.2018
17:16:19
вот про operator я даже не слышал. это что?
Это когда ты сам пишешь микросервис для деплоя

Stas
24.09.2018
17:17:35
я где-то видел плагин к майнкрафту через который можно в куб деплоить

M
24.09.2018
17:17:46
Это когда ты сам пишешь микросервис для деплоя
типа как tiller что-ли? только свой

Stas
24.09.2018
17:18:43
kubecraft

Kvendingoldo
24.09.2018
17:36:26
народ, а где можно купить уже готовый кластер k8s?

исключая gce, aws

mio
24.09.2018
17:36:59
Скоро можно будет в DigitalOcean

Google
mio
24.09.2018
17:37:20
Но kubespray разворачивает за 15мин готовый кластер

Kvendingoldo
24.09.2018
17:40:51
ok, тогда другой вопрос

Мне нужно сделать тестовый проект для студентов (jenkins / nexus / registry) + application node Какого размера мне брать сервак под k8s?

Вроде бы можно взять еще openshift, но не уверен, что хватит бесплатного

mio
24.09.2018
17:43:28
Добавьте на каждую ноду по одному ядру и 1гб памяти к потреблению вашего приложения

3 ноды хороший старт

kvaps
24.09.2018
17:47:08
я где-то видел плагин к майнкрафту через который можно в куб деплоить
по моему это прекрасно! https://www.youtube.com/watch?v=A4qwsSEldHE

Stas
24.09.2018
17:56:11
народ, а где можно купить уже готовый кластер k8s?
экономические причины? если да то возьмите в гке кластер у которого все ноды preemtible. это дико дешево и вам не нужно будет тратить эти ресурсы на мастеров и етцд

регион финка или бельгия там дешевле

Stas
24.09.2018
17:59:53
это что-то вроде spot инстансов AWS?
да только цена плоская

Andrey
24.09.2018
18:00:13
Stas
24.09.2018
18:01:48
плоская?
цена спотов зависит от спроса цена нод гугла постоянная flat price

Stas
24.09.2018
18:03:41
А, понял. Огонь
их отбирают раз в 24 часа но в кубе пофиг

Let Eat
24.09.2018
18:17:49
Есть тут истории успеха ksonnet? Все молчат всегда, когда спрашиваю.
Есть, ну скорее jsonnet что у него под капотом, ksonnet просто код помогает чуток организовать. Вот пример гибкости, хелму такое и не снилось : https://github.com/coreos/prometheus-operator/blob/master/contrib/kube-prometheus/README.md

Andrey
24.09.2018
18:19:34
Есть, ну скорее jsonnet что у него под капотом, ksonnet просто код помогает чуток организовать. Вот пример гибкости, хелму такое и не снилось : https://github.com/coreos/prometheus-operator/blob/master/contrib/kube-prometheus/README.md
Я просто не могу жаловаться (сильно, проблемы всё равно есть) на Go Templates. Страдания больше у нас вызывает сам рантайм, его баги и непонятности, которые сильно разваливают все CI/CD pipeline'ы, которые мы собираем. Поэтому больше именно ksonnet интересен, не как templating engine (понимаю, что другое, но назовём так), а как инструмент деплоя.

Но ничего сейчас не поделать, ждём Helm 3.

Google
Stas
24.09.2018
19:01:36
взять с триалом, спасибо
там 300 баксов триала, можно на преемтибл нодах обдеплоится. Если правильно настроить нод афинити рулы мягкие и пул скейлеры можно деплоить прод спокойно

Вам хочется зависимости шарить или наоборот НЕ шарить?
у меня есть система у которой 37 сервисов и инфраструктурные зависимости - кролик редиска постгря. Так как я делю окружения кластерами, то неймспейс для меня это один деплой. У сервисов есть зависимости друг от друга - их много и они пересекаются. Для того чтобы деплоить фича бранчи и таски на отдельных сервисах, а еще всякие регрессы мне нужна возможность деплоить произвольные версии микросервисов. Соответственно мне нужна и резолюция зависимостей и дедупликация в рамках неймспейса. Казалось бы есть подход с амбрела чертами, но он в реальной жизни не очень работает. Если интеречно могу расписать почему он спотыкается об operations

Pablo
24.09.2018
19:09:58
Михаил
24.09.2018
19:10:34
А что интересует?
деплои конфиги энвоя rps плюсы\минусы\подводные камни

Pablo
24.09.2018
19:11:50
Будем на конфе, я не помню на которой что - devops conf и HL++ соответственно

Part
24.09.2018
19:14:02
в azure кто-нибудь готовил aks? что-то вроде и nginx-ingress поставил, и tcp.15672 открыл для rabbitmq админки - всё равно ничего. Хотя по 80 на default backend с 404 попадаю.

Михаил
24.09.2018
19:14:25
А тут поотвечать на вопросы?)

Part
24.09.2018
19:14:57
аргументы?

Pablo
24.09.2018
19:15:21
А тут поотвечать на вопросы?)
Призывается @nikolay_sivko

Part
24.09.2018
19:15:39
Говорят там нельзя ничего делать серьезного, на HN давеча что-ли было
как конкретно проявляется? В моём случае это может просто недостаток знаний и кривые руки, а не минусы AKS

Part
24.09.2018
19:16:02
ок гуглану спс

русскоязычный ?

Михаил
24.09.2018
19:16:16
@mo1seev у тебя вроде Линк был

Ты с него горел

Pablo
24.09.2018
19:16:41
Hacker news толи вчера толи позавчера

Google
Part
24.09.2018
19:17:28
Читану спс

Horrors of using Azure Kubernetes Service in production

Михаил
24.09.2018
19:17:32
Hacker news толи вчера толи позавчера
Не, было месяц назад. Прям огонь был

Vadim
24.09.2018
19:18:11
там с тех пор было полное отключение одного ДЦ на сутки

Ivan
24.09.2018
19:18:25
Pablo
24.09.2018
19:19:03
Part
24.09.2018
19:20:20
Земля тебе пуховик
Container crash would bring down entire node - страшновато, но нужно больше подробностей) Пока вижу в статье только эмоциональный список проблем.

Stas
24.09.2018
19:21:09
Ошибся, да
поделитесь конфигами энвоя только сегодня собрался точно такое же делать как у вас в посту только совсем без куба

Pablo
24.09.2018
19:21:38
Ну там в посте и спросите плиз? Да и поапаете заодно?))

А тут поотвечать на вопросы?)
А чо не на Хабре то прям, действительно?

Михаил
24.09.2018
19:24:05
Ну там в посте и спросите плиз? Да и поапаете заодно?))
ну это надо думать - как красивее написать)

Nikolay
24.09.2018
19:24:12
Привет, конфиги envoy без проблем покажем, завтра причешу и выложу на gist куда-нибудь

Vadim
24.09.2018
19:24:19
Container crash would bring down entire node - страшновато, но нужно больше подробностей) Пока вижу в статье только эмоциональный список проблем.
они не ставили лимиты для пользовательких контейнеров - и давали им запускаться на мастерах. OOM однажды добрался до аписервера - и привет

Михаил
24.09.2018
19:24:37
вы вроде на митапы от @devopsmoscow ходили. В среду будете?

Страница 840 из 958