@kubernetes_ru

Страница 548 из 958
terry
05.05.2018
14:06:00
И продолжая тему выходных и видео с конференций. Только вчера закончился KubeCon + CloudNative Con 2018 — Copenhagen, и уже доступны видео. Плейлист: https://goo.gl/7vwCc3 Сайт конференции: https://goo.gl/wscHfP

Andrey
06.05.2018
08:36:15
господа, вот меня чет немного не устраивает, что выдача списка подов\деплойментов\чего бы то ни было иногда затягивается на несколько секунд. это норма или что-то подкрутить можно? что мешает связке kubectl + apiserver выдавать список за доли секунды?

Banschikov
06.05.2018
08:40:13
Google
Banschikov
06.05.2018
08:44:35
К примеру может проходит фильтрация запроса через фаирволл и т.д и иногда эта операция отрабатыватся чуть дольше и т.д.

А сколько у вас экземпляров etcd?
Эксперементировал с 3-мя

Вообще 3 мастер ноды

Andrey
06.05.2018
08:45:18
Проходит разве что через амазоновский nlb, но и до его появления залипало

Вообще 3 мастер ноды
А у меня пока одна и 3 etcd ноды

Эксперементировал с 3-мя
Как вообще влияет рост etcd кластера на производительность?

Banschikov
06.05.2018
08:48:59
Как вообще влияет рост etcd кластера на производительность?
Не могу сказать, так как в продакшен-среде еще не запускал кластер. Но в моем представлении все должно работать как и с одним экземпляром etcd. По факту etcd только передают свою конфигурацию друг другу, а на работу api, это не как не должно влиять

Я бы посоветовал последить за запросами от kubectl до api k8s. Если к примеру вы убедились что запрос дошел до api k8s без задаржек, а при обработке его самим api идет задержка, то тогда нужно разбиратся где кроется проблемма

Banschikov
06.05.2018
08:55:59
Благодарю за советы
Незачто. Может еще кто что посоветует.

Aleksandr
06.05.2018
09:28:17
Если у аписервера есть лимиты на CPU , то уберите их, будет шустро отдавать списки ресурсов

Dmytro
06.05.2018
09:34:51
запускайте kubect в дебаг режиме и увидите на котором из рест запросов тормозит

Google
Dmytro
06.05.2018
09:35:07
флаг там кажется -v=8

Andrey
06.05.2018
09:38:16
хм, а вроде это помогло, спасибо

Andrey
06.05.2018
10:17:37
Такая же история была с knife для chef сервера, тоже бесило что подтупливало.

таки есть, сейчас уберу
А при обновлении кластера не перетрется?

Andrey
06.05.2018
10:18:52
Andrey
06.05.2018
10:39:34
Каким образом? (так, для образования)

Ivan
06.05.2018
10:48:01
Всем привет! Помогите разобраться )) включаю RBAC. использую flannel пытаюсь применить вот это: https://github.com/coreos/flannel/blob/master/Documentation/k8s-manifests/kube-flannel-rbac.yml на что получаю: "error validating data: ValidationError(ClusterRoleBinding): unknown field "namespace" in io.k8s.api.rbac.v1beta1.ClusterRoleBinding; if you choose to ignore these errors, turn validation off with —validate=false" решил, что раз unknown field "namespace", то уберу его совсем. убрал. теперь ошибка: " ClusterRoleBinding.rbac.authorization.k8s.io "flannel" is invalid: subjects[0].namespace: Required value" т.е. теперь namespace просит указать. что то я не пойму, когда он был указан, он не нравился. убрал - оказалось надо указать. как быть?

djaarf
06.05.2018
11:48:56
а если с —validate=false создать, поле namespace будет заполнено?

Ivan
06.05.2018
11:58:46
да, дефолт

djaarf
06.05.2018
12:10:12
хз, эмм а если теперь через edit, namespace на kube-system поменять? )))

версии kubectl и серверных компонент различаются?

Vadim
06.05.2018
14:32:59
всем привет есть kubernetes кластер 1 master + 2 secondary nodes я создаю pod например с ubuntu и запускаю его на кластере смотрю к-во доступной оперативной памяти и вижу, что используется только память одной secondary node подскажите, один pod можно запускать только на какой-то конкретной ноде или просто в параметрах пода можно указать, что нужно больше памяти оперативной и тогда будут использоваться обе ноды?

Andor
06.05.2018
14:35:37
В контроллере можно указать кол-во реплик

Dmytro
06.05.2018
14:50:31
контейнер не может использовать память сразу двух нод

Banschikov
06.05.2018
15:16:03
https://www.digitalocean.com/products/kubernetes/

Кто нибуть уже пробовал?

Andor
06.05.2018
15:32:15
Я зааплаился, но они пока не прислали ничего

Andor
06.05.2018
15:33:54
Вчера вроде :)

Google
Andor
06.05.2018
15:33:58
Или позавчера

Banschikov
06.05.2018
15:34:20
Понял) Ну если что ответят дай плиз знать)

Valentin
06.05.2018
15:35:22
у кого gitlab-runner с executor=kubernetes? Нет периодических проблем с dns?

Andor
06.05.2018
15:45:41
у кого gitlab-runner с executor=kubernetes? Нет периодических проблем с dns?
В докере были проблемы с коннектом к докеру через юникс-сокет, при переходе на кубер проблемы отпали

Valentin
06.05.2018
15:47:22
ci перезапускать приходится постоянно, не могу понять, что за проблема

Andor
06.05.2018
15:48:41
а лог есть?

думаю лучше в чяте гитлаба спрашивать про это

Valentin
06.05.2018
15:53:56
cannot resolve host - то к обращению к репе, то к какому-нибудь гитхабу.ком .... больше ничего

Andor
06.05.2018
15:56:37
помню только что иногда (редко) не могло отрезолвить адрес самого гитлаба

Андрэ
06.05.2018
18:01:15
Парни, а подскажите, как сделать правильно: есть Job, хочу запустить clickhouse-client чтобы он выполнил sql файл (сам файл я к поду прикрутил, все ок) - но не могу что-то понять, а как сделать, чтобы этот файл на stdin клиенту ушел? Ну типа clickhouse-client < file.sql Если прямо так в команде прописать ["clickhouse-client", "<", "file.sql"]` говорит, что пустой запрос. Файл точно есть, запрос в нем точно есть

Андрэ
06.05.2018
18:13:27
Ну я как-то так и думал. спасибо

Sergey
06.05.2018
18:13:55
["bash", "-c", "clickhouse-client < file.sql"]

Vadim
06.05.2018
18:26:54
контейнер не может использовать память сразу двух нод
получается, что масштабирование с помощью к-ва нод может использоваться только для добавления новых подов или реплик старых ресурсы текущих подов не могут быть увеличены без увеличения мощности ноды, на которой они запущены

bebebe
06.05.2018
18:35:52
Коллеги, я сейчас репостну сюда мой RnD по k8s (baremetal) и contrail 5.1

@Fd для истории, что бы установить contrail 5.0 в k8s надо: 1. собрать из исходников нужные бинарники. https://github.com/Juniper/contrail-packages/ 2. запоковать их в пакеты deb/rpm 3. поднять http сервер и выложить на него пакеты 4. собрать N докер контейнеров. натравив через переменные окружения на http сервер поднятный в п.3 чтобы packet manager стянул оттуда пакеты из п.2 собранные из исходников п.1. При этом докер должен быть свежий, из-за использования перменных в дериктиве FROM 5. запушать получившиеся N docker образов в k8s registry 6. поменять переменные в k8s манифестах, что бы он задеплоил из нужных образов сам контнерейл.

вести с полей, первые 5 пунктов пройдены остался последний 6

kubectl -n kube-system get pods | grep -i contrail contrail-agent-db4qf 0/2 CrashLoopBackOff 11 10m contrail-analytics-8h54m 4/7 CrashLoopBackOff 8 10m contrail-analytics-bbnnv 3/7 CrashLoopBackOff 8 10m contrail-analyticsdb-hcnnm 1/1 Running 0 10m contrail-analyticsdb-kjqsf 1/1 Running 0 10m contrail-configdb-stvx9 1/1 Running 0 10m contrail-configdb-zfwvs 1/1 Running 0 10m contrail-controller-config-4j7k7 4/5 CrashLoopBackOff 5 10m contrail-controller-config-rqvnr 4/5 CrashLoopBackOff 6 10m contrail-controller-control-4wqj6 3/4 CrashLoopBackOff 5 10m contrail-controller-control-4zg85 3/4 CrashLoopBackOff 5 10m contrail-controller-webui-2sdbn 2/2 Running 0 10m contrail-controller-webui-ll2f4 2/2 Running 0 10m contrail-database-nodemgr-hvztd 0/1 CrashLoopBackOff 5 10m contrail-database-nodemgr-zg596 0/1 CrashLoopBackOff 6 10m contrail-kube-manager-2f5zz 0/1 CrashLoopBackOff 6 10m contrail-kube-manager-52sln 0/1 CrashLoopBackOff 6 10m



Mik
06.05.2018
18:37:20
получается, что масштабирование с помощью к-ва нод может использоваться только для добавления новых подов или реплик старых ресурсы текущих подов не могут быть увеличены без увеличения мощности ноды, на которой они запущены
Чтобы можно было запускать приложения и контейнеры и поды, с требованиями по памяти больше, чем память одной ноды, нужно использовать серверы со специальным типом памяти - Remote Access Memory. Hitachi HDS, например.

Google
bebebe
06.05.2018
18:37:28
Может кому будет полезно

Vadim
06.05.2018
18:45:42
какая тогда основная цель использования нескольких небольших нодов по сравнению с одной большой по ресурсам нодой?

Vadim
06.05.2018
18:51:08
если у меня есть 2 secondary nodes, то при установке некого пода kubernetes дублирует его на обе ноды??? если упадет первая, то pod будет работать на второй автоматом? правильно я понял?

Andor
06.05.2018
18:51:34
кубер не творит никакой магии в стиле openmosix

столько сколько указал в контроллере - столько и будет запущено, если скедулер найдёт ресурсы

Vadim
06.05.2018
18:54:54
получается, что к-во нодов влияет только на отказоустойчивость и никак на масшабируемость кластера?

Andor
06.05.2018
18:56:00
смотря как у вас приложение сделано

если от количвества инстансов увеличивается производительность - так и будет

Vadim
06.05.2018
18:57:56
так как увеличение к-ва инстансов может повлиять на производительность, если все работает на одной ноде (нода=инстанс) ?

Andor
06.05.2018
18:58:25
нода!=инстанс

Georgiy
06.05.2018
18:58:26
новые контексты процесса

Andor
06.05.2018
18:58:55
кажется надо сначала понять как всё работает вцелом

и терминологию

Vadim
06.05.2018
19:01:17
так вот я и хочу понять, для меня нода - это инстанс, потому что я использую OpenStack, а там инстанс - это и есть нода а чем вы называете инстанс?

может мы просто говорим о разном

Huan
06.05.2018
19:04:47
Кто-то подключал кубер в гитлабе? Получалось установить прометеус из интерфейса гитлаба?

Ivan
06.05.2018
19:05:44
Кто-то подключал кубер в гитлабе? Получалось установить прометеус из интерфейса гитлаба?
поделитесь потом, я с этой "интеграцией " изрядно попрыгал и вообще не понял что это было

Huan
06.05.2018
19:06:26
У меня получилось установить только хельм, ингресс и раннер в один неймспейс

Google
Huan
06.05.2018
19:07:01
Во второй когда устанавливал, вываливала ошибка что уже все установлено

Ivan
06.05.2018
19:07:03
Я бы хотел эту интеграцию внутри pipeline-ci использовать, но там как то непонятно, не устанавливаются env у меня

Huan
06.05.2018
19:07:43
Может это все еще сырое?

Мануалов не нашел

Grigory
06.05.2018
19:09:09
поделитесь потом, я с этой "интеграцией " изрядно попрыгал и вообще не понял что это было
тоже не понял подключил, а как в ci запихать так и не нашел все равно в итоге или kubectl или helm вызывать

Ivan
06.05.2018
19:09:35
дык даже kubectl запускать, у вас вышло без gcloud activate и всего этого?

у меня тупо .kube/config не монтировался в pipepline

Grigory
06.05.2018
19:09:55
у меня свой, не gke

Huan
06.05.2018
19:10:02
Я делал отдельный контейнер с кубцтл

И без подсосывания конфига получилось

Ivan
06.05.2018
19:10:42
Вот вот вот

И в чём тогда интеграция?

Mik
06.05.2018
19:10:57
так как увеличение к-ва инстансов может повлиять на производительность, если все работает на одной ноде (нода=инстанс) ?
Некоторые приложения почти линейно увеличивают производительность и/или надёжность при запуске одновременно на нескольких серверах. Это зависит от разработчиков приложений: как они напишут - так и будет работать.

Huan
06.05.2018
19:11:13
В контейнере раннера нет ночего от кубера

Grigory
06.05.2018
19:12:38
И в чём тогда интеграция?
может она планируется..

Huan
06.05.2018
19:12:42
Но получилось прикрутить веб терминал для гитлаба

Ivan
06.05.2018
19:12:53
ну пока я только время потратил имхо

Страница 548 из 958