
terry
05.05.2018
14:06:00
И продолжая тему выходных и видео с конференций.
Только вчера закончился KubeCon + CloudNative Con 2018 — Copenhagen, и уже доступны видео.
Плейлист: https://goo.gl/7vwCc3
Сайт конференции: https://goo.gl/wscHfP

Mik
06.05.2018
00:54:02


Andrey
06.05.2018
08:36:15
господа, вот меня чет немного не устраивает, что выдача списка подов\деплойментов\чего бы то ни было иногда затягивается на несколько секунд. это норма или что-то подкрутить можно? что мешает связке kubectl + apiserver выдавать список за доли секунды?

Banschikov
06.05.2018
08:40:13

Google

Andrey
06.05.2018
08:44:28

Banschikov
06.05.2018
08:44:35
К примеру может проходит фильтрация запроса через фаирволл и т.д и иногда эта операция отрабатыватся чуть дольше и т.д.
Вообще 3 мастер ноды

Andrey
06.05.2018
08:45:18
Проходит разве что через амазоновский nlb, но и до его появления залипало

Banschikov
06.05.2018
08:48:59
Как вообще влияет рост etcd кластера на производительность?
Не могу сказать, так как в продакшен-среде еще не запускал кластер. Но в моем представлении все должно работать как и с одним экземпляром etcd. По факту etcd только передают свою конфигурацию друг другу, а на работу api, это не как не должно влиять
Я бы посоветовал последить за запросами от kubectl до api k8s. Если к примеру вы убедились что запрос дошел до api k8s без задаржек, а при обработке его самим api идет задержка, то тогда нужно разбиратся где кроется проблемма

Andrey
06.05.2018
08:53:37

Banschikov
06.05.2018
08:55:59

Aleksandr
06.05.2018
09:28:17
Если у аписервера есть лимиты на CPU , то уберите их, будет шустро отдавать списки ресурсов

Dmytro
06.05.2018
09:34:51
запускайте kubect в дебаг режиме и увидите на котором из рест запросов тормозит

Google

Dmytro
06.05.2018
09:35:07
флаг там кажется -v=8

Andrey
06.05.2018
09:38:16
хм, а вроде это помогло, спасибо

Andrey
06.05.2018
10:17:37
Такая же история была с knife для chef сервера, тоже бесило что подтупливало.

Andrey
06.05.2018
10:18:52

Andrey
06.05.2018
10:39:34
Каким образом? (так, для образования)

Ivan
06.05.2018
10:48:01
Всем привет!
Помогите разобраться ))
включаю RBAC. использую flannel
пытаюсь применить вот это: https://github.com/coreos/flannel/blob/master/Documentation/k8s-manifests/kube-flannel-rbac.yml
на что получаю:
"error validating data: ValidationError(ClusterRoleBinding): unknown field "namespace" in io.k8s.api.rbac.v1beta1.ClusterRoleBinding; if you choose to ignore these errors, turn validation off with —validate=false"
решил, что раз unknown field "namespace", то уберу его совсем. убрал. теперь ошибка:
" ClusterRoleBinding.rbac.authorization.k8s.io "flannel" is invalid: subjects[0].namespace: Required value"
т.е. теперь namespace просит указать.
что то я не пойму, когда он был указан, он не нравился. убрал - оказалось надо указать.
как быть?

djaarf
06.05.2018
11:48:56
а если с —validate=false создать, поле namespace будет заполнено?

Ivan
06.05.2018
11:58:46
да, дефолт

djaarf
06.05.2018
12:10:12
хз, эмм а если теперь через edit, namespace на kube-system поменять? )))
версии kubectl и серверных компонент различаются?

Vadim
06.05.2018
14:32:59
всем привет
есть kubernetes кластер 1 master + 2 secondary nodes
я создаю pod например с ubuntu и запускаю его на кластере
смотрю к-во доступной оперативной памяти и вижу, что используется только память одной secondary node
подскажите, один pod можно запускать только на какой-то конкретной ноде или просто в параметрах пода можно указать, что нужно больше памяти оперативной и тогда будут использоваться обе ноды?

Andor
06.05.2018
14:35:37
В контроллере можно указать кол-во реплик

Dmytro
06.05.2018
14:50:31
контейнер не может использовать память сразу двух нод

Banschikov
06.05.2018
15:16:03
https://www.digitalocean.com/products/kubernetes/
Кто нибуть уже пробовал?

Andor
06.05.2018
15:32:15
Я зааплаился, но они пока не прислали ничего

Banschikov
06.05.2018
15:33:45

Andor
06.05.2018
15:33:54
Вчера вроде :)

Google

Andor
06.05.2018
15:33:58
Или позавчера

Banschikov
06.05.2018
15:34:20
Понял) Ну если что ответят дай плиз знать)

Valentin
06.05.2018
15:35:22
у кого gitlab-runner с executor=kubernetes? Нет периодических проблем с dns?

Andor
06.05.2018
15:45:41

Valentin
06.05.2018
15:47:22
ci перезапускать приходится постоянно, не могу понять, что за проблема

Andor
06.05.2018
15:48:41
а лог есть?
думаю лучше в чяте гитлаба спрашивать про это

Valentin
06.05.2018
15:53:56
cannot resolve host - то к обращению к репе, то к какому-нибудь гитхабу.ком .... больше ничего

Andor
06.05.2018
15:56:37
помню только что иногда (редко) не могло отрезолвить адрес самого гитлаба

Андрэ
06.05.2018
18:01:15
Парни, а подскажите, как сделать правильно: есть Job, хочу запустить clickhouse-client чтобы он выполнил sql файл (сам файл я к поду прикрутил, все ок) - но не могу что-то понять, а как сделать, чтобы этот файл на stdin клиенту ушел? Ну типа clickhouse-client < file.sql Если прямо так в команде прописать ["clickhouse-client", "<", "file.sql"]` говорит, что пустой запрос. Файл точно есть, запрос в нем точно есть


Fike
06.05.2018
18:12:51
Парни, а подскажите, как сделать правильно: есть Job, хочу запустить clickhouse-client чтобы он выполнил sql файл (сам файл я к поду прикрутил, все ок) - но не могу что-то понять, а как сделать, чтобы этот файл на stdin клиенту ушел? Ну типа clickhouse-client < file.sql Если прямо так в команде прописать ["clickhouse-client", "<", "file.sql"]` говорит, что пустой запрос. Файл точно есть, запрос в нем точно есть
Потому что перенаправлением занимается шелл, которого там и в помине нет, там напрямую создание процесса операционкой с аргументами < и file.sql. Поэтому проще всего написать свой шелл-враппер и просто запускать его.

Андрэ
06.05.2018
18:13:27
Ну я как-то так и думал. спасибо

Sergey
06.05.2018
18:13:55
["bash", "-c", "clickhouse-client < file.sql"]

Vadim
06.05.2018
18:26:54
контейнер не может использовать память сразу двух нод
получается, что масштабирование с помощью к-ва нод может использоваться только для добавления новых подов или реплик старых
ресурсы текущих подов не могут быть увеличены без увеличения мощности ноды, на которой они запущены


bebebe
06.05.2018
18:35:52
Коллеги, я сейчас репостну сюда мой RnD по k8s (baremetal) и contrail 5.1
@Fd для истории, что бы установить contrail 5.0 в k8s надо:
1. собрать из исходников нужные бинарники. https://github.com/Juniper/contrail-packages/
2. запоковать их в пакеты deb/rpm
3. поднять http сервер и выложить на него пакеты
4. собрать N докер контейнеров. натравив через переменные окружения на http сервер поднятный в п.3 чтобы packet manager стянул оттуда пакеты из п.2 собранные из исходников п.1. При этом докер должен быть свежий, из-за использования перменных в дериктиве FROM
5. запушать получившиеся N docker образов в k8s registry
6. поменять переменные в k8s манифестах, что бы он задеплоил из нужных образов сам контнерейл.
вести с полей, первые 5 пунктов пройдены
остался последний 6
kubectl -n kube-system get pods | grep -i contrail
contrail-agent-db4qf 0/2 CrashLoopBackOff 11 10m
contrail-analytics-8h54m 4/7 CrashLoopBackOff 8 10m
contrail-analytics-bbnnv 3/7 CrashLoopBackOff 8 10m
contrail-analyticsdb-hcnnm 1/1 Running 0 10m
contrail-analyticsdb-kjqsf 1/1 Running 0 10m
contrail-configdb-stvx9 1/1 Running 0 10m
contrail-configdb-zfwvs 1/1 Running 0 10m
contrail-controller-config-4j7k7 4/5 CrashLoopBackOff 5 10m
contrail-controller-config-rqvnr 4/5 CrashLoopBackOff 6 10m
contrail-controller-control-4wqj6 3/4 CrashLoopBackOff 5 10m
contrail-controller-control-4zg85 3/4 CrashLoopBackOff 5 10m
contrail-controller-webui-2sdbn 2/2 Running 0 10m
contrail-controller-webui-ll2f4 2/2 Running 0 10m
contrail-database-nodemgr-hvztd 0/1 CrashLoopBackOff 5 10m
contrail-database-nodemgr-zg596 0/1 CrashLoopBackOff 6 10m
contrail-kube-manager-2f5zz 0/1 CrashLoopBackOff 6 10m
contrail-kube-manager-52sln 0/1 CrashLoopBackOff 6 10m


Mik
06.05.2018
18:37:20

Google

bebebe
06.05.2018
18:37:28
Может кому будет полезно

Vadim
06.05.2018
18:45:42
какая тогда основная цель использования нескольких небольших нодов по сравнению с одной большой по ресурсам нодой?

Mik
06.05.2018
18:48:28

Vadim
06.05.2018
18:51:08
если у меня есть 2 secondary nodes, то при установке некого пода kubernetes дублирует его на обе ноды??? если упадет первая, то pod будет работать на второй автоматом? правильно я понял?

Andor
06.05.2018
18:51:34
кубер не творит никакой магии в стиле openmosix
столько сколько указал в контроллере - столько и будет запущено, если скедулер найдёт ресурсы

Vadim
06.05.2018
18:54:54
получается, что к-во нодов влияет только на отказоустойчивость и никак на масшабируемость кластера?

Andor
06.05.2018
18:56:00
смотря как у вас приложение сделано
если от количвества инстансов увеличивается производительность - так и будет

Vadim
06.05.2018
18:57:56
так как увеличение к-ва инстансов может повлиять на производительность, если все работает на одной ноде (нода=инстанс) ?

Andor
06.05.2018
18:58:25
нода!=инстанс

Georgiy
06.05.2018
18:58:26
новые контексты процесса

Andor
06.05.2018
18:58:55
кажется надо сначала понять как всё работает вцелом
и терминологию

Vadim
06.05.2018
19:01:17
так вот я и хочу понять, для меня нода - это инстанс, потому что я использую OpenStack, а там инстанс - это и есть нода
а чем вы называете инстанс?
может мы просто говорим о разном

Huan
06.05.2018
19:04:47
Кто-то подключал кубер в гитлабе? Получалось установить прометеус из интерфейса гитлаба?

Ivan
06.05.2018
19:05:44

Huan
06.05.2018
19:06:26
У меня получилось установить только хельм, ингресс и раннер в один неймспейс

Google

Huan
06.05.2018
19:07:01
Во второй когда устанавливал, вываливала ошибка что уже все установлено

Ivan
06.05.2018
19:07:03
Я бы хотел эту интеграцию внутри pipeline-ci использовать, но там как то непонятно, не устанавливаются env у меня

Huan
06.05.2018
19:07:43
Может это все еще сырое?
Мануалов не нашел

Grigory
06.05.2018
19:09:09

Ivan
06.05.2018
19:09:35
дык даже kubectl запускать, у вас вышло без gcloud activate и всего этого?
у меня тупо .kube/config не монтировался в pipepline

Grigory
06.05.2018
19:09:55
у меня свой, не gke

Huan
06.05.2018
19:10:02
Я делал отдельный контейнер с кубцтл
И без подсосывания конфига получилось

Ivan
06.05.2018
19:10:42
Вот вот вот
И в чём тогда интеграция?

Mik
06.05.2018
19:10:57

Huan
06.05.2018
19:11:13
В контейнере раннера нет ночего от кубера

Fike
06.05.2018
19:11:23

Grigory
06.05.2018
19:12:38

Huan
06.05.2018
19:12:42
Но получилось прикрутить веб терминал для гитлаба

Ivan
06.05.2018
19:12:53
ну пока я только время потратил имхо