@kubernetes_ru

Страница 939 из 958
Ivan
23.10.2018
12:17:59
у нас есть приложение которое раздает игрокам, но оно спрашивает кубер об этом

Alexey
23.10.2018
12:18:57
for name in names: kubectl apply -f app.yml

Alexey
23.10.2018
12:20:57
@boskiv вы хотите ловить поды. Поды в кубе это низкоуровневая штука, которой напряму лучше не пользоваться. Используйте deployment+service, уже лучше будет.

Google
Ivan
23.10.2018
12:21:07
может есть вариант в сервис добавлять порты на каждый под

Ivan
23.10.2018
12:21:27
тогда балансировка

а мне надо one-to-one

Alexey
23.10.2018
12:22:13
балансировка на 1 под это one-to-one =)

Ivan
23.10.2018
12:22:50
Вообщем я так понял стандартных средств нет сделать как требуется )

Alexey
23.10.2018
12:23:36
вы пытаетесь сделать из кубера не кубер. не нужно лезь в поды напрямую, только в крайнем случае. Пока у вас он не крайний.

bebebe
23.10.2018
12:24:05
error: persistentvolumeclaims "datadir-consul-0" could not be patched: persistentvolumeclaims "datadir-consul-0" is forbidden: only dynamically provisioned pvc can be resized and the storageclass that provisions the pvc must support resize You can run `kubectl replace -f /tmp/kubectl-edit-8v3dw.yaml` to try this update again. пщщщ ажур такой ажур (если что >1.11.2)

Ivan
23.10.2018
12:24:32
я не понимаю почему я должен плодить однотипные деплойменты когда достаточно просто увеличить количество реплик

Alexey
23.10.2018
12:25:54
потому что вы не можете тогда четко привязать группу игровок к поду. Поды умирают, меняются и тп. За этим нужно следить и тп, делая работу Service. Вы пытаетесь повторить логику Service.

Оверхед от service с одним подом минимальный.

bebebe
23.10.2018
12:26:44
вы пытаетесь сделать из кубера не кубер. не нужно лезь в поды напрямую, только в крайнем случае. Пока у вас он не крайний.
добавьте свой MMORPG оператор в kubernetes, будем играючи менеджить ресурсы, прокаичвать поды

Ivan
23.10.2018
12:26:53
это все верно, только нам нужно писать оркестратор над кубернетесем )

Google
bebebe
23.10.2018
12:26:57
кастовать ингрессы

ходить толпой на pvc

Alexey
23.10.2018
12:27:10
Ivan
23.10.2018
12:27:22
это как влияет ?

железо не статичное канечное

мы же планируем деплой в Cloud (AWS, GCE, Azure)

Alexey
23.10.2018
12:31:51
Пока ресурсы статические - вы делаете for name in cat servers.txt; do cat template.yml | NAME=$name envsubt | kubectl apply -f - insert into servers (name) values ($name); done В template.yml что-то вроде name: server-$NAME И история заканчивается. Никаких хлопот и проблем. Статический пул, на который пускают игроков.

С резиновым железом будет резиновый список серверов. Это совсем другая история.

Ivan
23.10.2018
12:33:36
у нас как раз она

резиновая история

Alexey
23.10.2018
12:33:57
вы автоматом докупаете/сбрасываете мощности?

Ivan
23.10.2018
12:34:43
unmanaged cluster

Игорь
23.10.2018
12:34:59
резиновая история
А есть проблема написать скрипт обновление пула? И применить, то что предложил Алексей выше?

Alexey
23.10.2018
12:35:10
И он докупает себе ноды сам?

А есть проблема написать скрипт обновление пула? И применить, то что предложил Алексей выше?
это обычно нужно когда расходы на железо космические. Такое редко у кого.

Игорь
23.10.2018
12:37:43
Ivan
23.10.2018
12:38:28
еще раз отмечу что хотелось бы решить этот вопрос средствами кубера и его API. Не костыля и не писать свои велосипеды. За все время пока kuber открыт мог бы и научится, казалось бы не космическое требование

Google
Ivan
23.10.2018
12:41:27
вы helm пробовали? ??
в процессе, но как это отвечает моим требованиям 1-в-1 порт маппинг

Andor
23.10.2018
12:41:28
оператор - это просто!

Alexey
23.10.2018
12:42:13
оператор - это просто!
тебя игнорят. оно реально решается оператором? (я если честно не вникал как оно там устроено, поэтому интересно потенциальное их использование)

Alexey
23.10.2018
12:42:26
Я просто пытаюсь везде нести посыл, что не нужно пихать autoscale на статическое железо. Которое само не покупается и тп. Докупить по кнопке это не autoscale.

Roman
23.10.2018
12:42:40
Кто-нибудь использует gitlab runner в кластере кубернетиса? Есть пару вопросов

Andor
23.10.2018
12:42:45
ну ты там можешь запускать что хочешь как хочешь по своей логике, так что да, это решается оператором

Andor
23.10.2018
12:43:39
ну думаю побольше и не на баше

Alexey
23.10.2018
12:44:19
ну думаю побольше и не на баше
ну это ПРОБЛЕМА современности. Там где решают пару строк писать оператора. Я бы с радостью наверное писал бы, только жизни простой хочется.

Все статью про расжиревший WEB читали? Плакать не хочется?

Тут и про бек немного есть и в общем про по https://habr.com/post/278655/

https://habrastorage.org/files/70c/da8/a38/70cda8a3865940cbb7ae4758fb4151ef.jpg совсем топчик, баян?

Alexey
23.10.2018
12:47:25
распределённые системы - это СЛОЖНО
Свой оператор увеличит порог входжения след DevOps на порядок.

Google
Vadim
23.10.2018
12:47:35
Andor
23.10.2018
12:47:35
уверен?

ну и "написать оператор" != "работать с оператором"

Alexey
23.10.2018
12:50:17
ты пробовал написать оператора?
нет, на любом языке можно писать или go?

Andor
23.10.2018
12:50:47
я видел оператор на питоне, но обычно на голанге пишут

обычно используя operator-framework

bebebe
23.10.2018
12:51:00
я видел cni плагин на баше

Alexey
23.10.2018
12:51:14
devops+golang прогер и devops просто это не разный порядок?

Andor
23.10.2018
12:51:34
devops+golang прогер и devops просто это не разный порядок?
а в "devops" что означают первые 3 буквы?

Andor
23.10.2018
12:52:05
неprodops?

Ivan
23.10.2018
12:52:25
not-a-prodops )

bebebe
23.10.2018
12:52:26
штоуууу

Andor
23.10.2018
12:53:18
я вот тоже типа девопс

патчить нодужс - ко мне

патчить джангу-питон - ко мне

bebebe
23.10.2018
12:53:39
штоууууу

Andor
23.10.2018
12:53:44
патчить голанг-либу - ну вы поняли

да тут с метриками беда была, везде пришлось переделывать

Google
Andor
23.10.2018
12:54:12
один из сервисов целиком пришлось переписать даже

bebebe
23.10.2018
12:54:47
когда-то в @devops_ru была замечательная олимпиада, что такое devops

можем повторить (с)

Andor
23.10.2018
12:55:09
я победил?

bebebe
23.10.2018
12:56:23
я победил?
если только на поминках сидели

Andor
23.10.2018
12:56:37
да где только сидели

на двух стульях сидели

на нагиосе сидели

bebebe
23.10.2018
12:57:08
на нагиосе сидели
нагиос надо научиться готовить, у меня это получилось.

Vadim
23.10.2018
12:57:18
https://kubedex.com/google-gke-vs-azure-aks-automation-and-reliability/ опять Азур обижают

Andor
23.10.2018
12:57:37
нагиос надо научиться готовить, у меня это получилось.
это было давно и автоматизировано, так что у меня тоже когда-то получалось

bebebe
23.10.2018
12:59:39
это было давно и автоматизировано, так что у меня тоже когда-то получалось
а имею в виду, как его правильно масштабировать, в итоге вышло nagios+gearmand+livestatus+thruk+pnp4nagios gearmand worker-ы - контейнерами делал. вышло забавно.

правда вся эта конструкция за 4 недели утекает на 22гб рам.

Andor
23.10.2018
13:00:06
я это делал ещё когда из контейнеров были только openvz и vserver

linux-vserver имею в виду

Andor
23.10.2018
13:01:43
сетями

Mikhail
23.10.2018
13:01:46
делал это еще в 2004 году!

Alexey
23.10.2018
13:01:50
и грабить корованы
джва года ждал

bebebe
23.10.2018
13:03:53
https://kubedex.com/google-gke-vs-azure-aks-automation-and-reliability/ опять Азур обижают
ну у меня примерно да такое представление, непонятно почему терраформ на gcp проходит за 3-5 минут, на ажуре >10 для создания кластеров на дестрой - gcp - около 2 минут, ажур может и 5 и 7 ждать

я могу впринципе за полгода статистику из CD выдрать... сколько у меня там терраформ джобы отрабатывали

Страница 939 из 958