
Alexey
03.10.2018
12:20:20
Я не додумался бы

True
03.10.2018
12:20:28
У ДО есть свои прелести для нас, потому мы не готовы просто взять и выкинуть его за борт

Oleg
03.10.2018
12:21:24
А ещё до дешевый, и это огромное преимущество для мелочи

Vadim
03.10.2018
12:54:23
не особо дешевле гугла, а кроме того DO Spaces - это out-of-tree модуль, да и preemptible нет

Google

Stas
03.10.2018
13:07:51
DigitalOcean Kubernetes does not yet support auto-scaling. брямс...

Sergey
03.10.2018
13:08:06
:C

Stas
03.10.2018
13:13:23
преемтибл хост гугловый 1 cpu/ 3.75 RAM стоит в финке 8 баксов в месяц. Для куба один фиг преемтибл они или нет

Vlad
03.10.2018
13:31:14
вы evict делаете для pod'ов на preemtible нодах перед выключением ноды?

Stas
03.10.2018
13:36:30
ничего такого не настраивал

Vlad
03.10.2018
13:42:15
понятно. просто для kubernetes смерть ноды неожиданность. и никакой соломки по умолчанию gcp не подстилает. никаких drain и crodon не происходит.

Stas
03.10.2018
13:44:16
нет не подстилает - отправляет на ноду сигнал. Тут сразу гуглится статья, где люди меняют дефолтный нод пул на такой в котором по сигналу нода лезет в куб и дрейнит себя - можно сделать, но я ничего такого не держу, что не переживает вырубания ноды

Vlad
03.10.2018
13:45:18
если ты про статью на medium, то автор молодец, только он накой-то чёрт переписывает скрипты gcp. а достаточно добавить свой shutdown script

Stas
03.10.2018
13:50:00
ну на мой вкус проблема как раз в том, что на это приключение надо создавать свой темплейт инстанс группы, следить за тем что он актуален по отношению к тому, что генерит гке и прочее

Vlad
03.10.2018
13:56:51
это так на medium написано и это неправильно. как раз при создании инстанс группы просто указываешь свой shutdown script, который должен быть на нодах и всё.
таким образом например https://cloud.google.com/compute/docs/shutdownscript
только в этом случае он будет применяться на всех vm в проекте.

Vadim
03.10.2018
14:04:48

Даниил
03.10.2018
15:02:33
привет, подскажите пожалуйста, каким образом можно пробросить env содержащий точку в поду?

Google

Даниил
03.10.2018
15:02:46
не нашел нигде в интернетах рабочего ответа
заявляют, что добавлено в 1.8.*, но на 1.10 не пашет(((

M
03.10.2018
15:13:20
о самые умные и смелые, поскажите как в values настроить переменную для sub-chart
я указываю вот так
nginx-ingress:
controller.kind: DaemonSet
и ничего не происходит
хотя когда я делаю helm install —set nginx-ingress.controller.kind=DaemonSet все ок

Igor
03.10.2018
15:21:16
nginx-ingress:
controller:
kind: DeamonSet

M
03.10.2018
15:27:13
на сколько я знаю в yaml это одно и тоже

Igor
03.10.2018
15:28:11
подозрительно
а что пишет helm install —debug
там должны быть yaml values
посмотри в чем разница когда ты делаешь —set
и когда -f
в debug выводе посмотри на Computated Values

M
03.10.2018
15:46:19

Igor
03.10.2018
15:46:55
не должен он игнорироваться

Mikhail чердак
03.10.2018
15:46:58
указанные тобою в -f файлы его оверрайдят

M
03.10.2018
15:47:33
и когда я запускал без -f nginx-ingress становился daemonset а когда с -f то deployment
вот я и решил что они игнорируются

Let Eat
03.10.2018
17:43:59

Google

Mikhail чердак
03.10.2018
17:55:31
А у кого есть кластер на bare metal? Что посоветуете поставить в качестве гипервизора?
С чем кубер дружит

Nick
03.10.2018
17:56:42
Зачем гипервизор если это Bare metal

Georgy
03.10.2018
17:56:55
господа, а тут есть извращенцы что используют Azure kuberentes service? у меня нжинкс сервис висит не может создать external endpoint на load balancer, а я не могу понять куда копать за логами

Mikhail чердак
03.10.2018
17:57:28

Nick
03.10.2018
17:57:45

Stanislav
03.10.2018
18:01:59
У нас - kvm, ибо на самом деле виртуалки, а не bare metal.

Nick
03.10.2018
18:02:29
Какой в этом смысл вообще ?

Sergey
03.10.2018
18:04:56
например, утилизация оборудования.
а какой смысл на дев\стейджинг и т.д кластера выделять мощные железки?

Nick
03.10.2018
18:06:29
Дев и стеджинг можно поднимать на одном кубереетес кластере
смысла в гипервизоре вообще не вижу, как и в мощных серверах)

Mikhail чердак
03.10.2018
18:07:44
это ты просто говносервисы на питоне не хостил

Sergey
03.10.2018
18:07:45
ваше право )

Mikhail чердак
03.10.2018
18:07:47
?

Georgy
03.10.2018
18:08:55

Sergey
03.10.2018
18:12:54
обьяснить что? юзкейс virtualization vs baremetal ? тут каждому свое. Много свободного железа - делай как угодно. А если, допустим, имеется 3-5 мощных железок, при этом на кубер идет мало нагрзуки и хочется иметь несколько кластеров под разные задачи - виртуализация решает.

Georgy
03.10.2018
18:14:02

Sergey
03.10.2018
18:15:26
квм дает очень низкий оверхеад. Плюс через libvirt_exporter можно снимать метрики загузки каждого из кластеров в отдельности.

Vasilyev
03.10.2018
18:18:10
Даёшь kubevirt

Georgy
03.10.2018
18:20:36
кстати, #whois
▶️ текущий проект трейдинговая платформа, но не финансовая
▶️ я номинально разработчик на .net, но поднимаю инфраструктуру на k8s. стек .net, Azure
▶️ я могу быть полезен сообществу как пользователь aks, насколько я понял его немного юзают, и там есть свои особенности
▶️ общество интересно с точки зрения актуальной информации, да и просто потрепаться за жизнь
▶️ сейчас в амстердаме
▶️ про группу посмотрел у чувака на скрине и нагуглил

Google

kvaps
03.10.2018
18:21:59
А если не планируете много нод - Proxmox самый простой вариант

Mikhail чердак
03.10.2018
18:23:25

Alexey
03.10.2018
18:23:54
5-20 сек на каждом поле! Задержка запуска. Просто так.

Let Eat
03.10.2018
18:27:49
Я может испорчен Явой/скалой. Или тем как у нас пишут ) приложение стартует, проводит миграции, продолжает старт (начинает слушать порты, откликаться на чеки и проч). Сами миграции: смотрим список миграций которые хотим, смотрим какие миграции применены в базе, если нечего делать больше, просто завершается. Вс проверка это прочитать список файлов и один селект из таблицы migrations

Mikhail чердак
03.10.2018
18:28:59
У нас просто alembic

Alexey
03.10.2018
18:40:13

Let Eat
03.10.2018
19:05:53

Alexey
03.10.2018
19:06:40
Стартануть какой-то http сервис тоже обычно вжух и готово, только это не вжух, а загрузить в память тонну либ и вжух сервер.

Михаил
03.10.2018
19:11:33

Vasilyev
03.10.2018
19:15:00
Зачем
Ну может у человека времени много свободного

Let Eat
03.10.2018
20:09:43
Так это и есть приложение, ничего отдельного не стартует

Stas
03.10.2018
21:42:07
какой проксмокс, какая небула. Вот как надо все дедать https://youtu.be/ckcLnBqGQrQ
значит берешь куб на бейрметал, сверху кладешь опенстек хелмом, в опенстеке магнумом деплоишь кластера под приложения. Все это должно быть нормально промазано ансиблем и кастомным декларативным метаязыком.

M
03.10.2018
21:47:12

Stas
03.10.2018
21:51:07
кому пипец, а кому 2к ревью за последний релизный цикл http://stackalytics.com/?module=openstack-helm-group )))

Georgy
03.10.2018
21:52:08

Google

Vadim
03.10.2018
22:01:06

Stas
03.10.2018
22:03:08
почему? его можно без ха клнтрол плана поднимать на одном хосте

Vadim
03.10.2018
22:04:13
да, ынтырпрайзное решение, чтобы удобно валить все виртуалки

kvaps
03.10.2018
22:13:43
Пока правда гипервизоры только, но планирую и control-plane перенести

M
03.10.2018
22:18:53

kvaps
03.10.2018
22:19:36
на самом деле очень удобно, лэйблы повесил, демонсетом раскатал, оно само все поднялось и в кластер добавилось

Yerlan
04.10.2018
04:37:44
Приветствую! А кто-нибудь сертифицировался по PCI DSS? Не могу понять как разделить сеть на CDE и DMZ с использованием VLAN...

Konstantin
04.10.2018
05:41:37
Коллеги, есть вот такие сообщения в логах API:
I1004 05:36:10.141920 1 node_authorizer.go:164] NODE DENY: unknown node "k8s-worker01" cannot get secret kube-system/kube-dns-token-wv9sh
I1004 05:36:10.142574 1 node_authorizer.go:164] NODE DENY: unknown node "k8s-worker01" cannot get configmap kube-system/kube-dns
I1004 05:36:11.041468 1 node_authorizer.go:164] NODE DENY: unknown node "k8s-worker01" cannot get secret hrsm/default-token-xgvqz
Может кто нибудь разъяснить что это значит, на что влияет, учитывая severity INFO. Гуглится плохо

DASTAN
04.10.2018
05:47:10