@kubernetes_ru

Страница 256 из 958
Alisa
30.08.2017
07:34:05
да

Сергей
30.08.2017
07:34:18
и там кубцтл

или по https://ip_master:6443

у него такой дефольный

Google
Роман
30.08.2017
07:36:53
Alisa
30.08.2017
07:37:43
или по https://ip_master:6443
а если открыт только 22 порт? то мне надо зайти по ssh, открыть через nginx 6443 порт и форварднуть его на докер-контейнер с апи?

Сергей
30.08.2017
07:38:22
ну зайдите по ссх и с мастера через кубстл рулите

kvaps
30.08.2017
07:38:38
Сергей
30.08.2017
07:38:45
ну или откройте на мастер ноде 6443 порт

Роман
30.08.2017
07:39:32
Я кубеспреем разворачивал.

kvaps
30.08.2017
07:43:01
спасибо

Роман
30.08.2017
07:51:36
спасибо
Если у тебя тоже kubespray, то я вообще поменял переменную ip на calico_ip, так как у меня кластер становился недоступным, когда я ставил ip=внутренний_айпи

kvaps
30.08.2017
07:53:06
нет, я использую kubeadm, но есть желание разделить managment и внутреннюю сеть в разные vlanы

вернее, что бы кубер с нодами общался через один интерфейс, а все vxlanы были в другом

Роман
30.08.2017
09:08:26
Подскажите по prometeus: у меня кластер etcd из трёх нод. Мне в конфигмапе прометея нужно все три указывать или только один? - job_name: 'etcd' target_groups: - targets: - xxx.xxx.xxx.xxx:2379

Google
Роман
30.08.2017
09:10:26
какие метрики вы собираете? вроде как можно только одну
Я хочу вообще попробовать его. Поставил хипстер, но, как я понял, в прометее можно больше настроить.

Maksim
30.08.2017
09:10:46
ага

только хипстер нужен для hpa

Роман
30.08.2017
09:12:13
только хипстер нужен для hpa
А что это? Где про это почитать?

Maksim
30.08.2017
09:12:40
https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/

Роман
30.08.2017
09:13:01
Спасибо)

Таймураз
30.08.2017
11:51:12
Очень подозрительный аккаунт добавился

Paul
30.08.2017
11:55:09
пока он ничего не сделал - репрессии проводить не можем

кто-нибудь сможет добавить модеров?

Таймураз
30.08.2017
11:55:27
То есть аватарка норм?)

Paul
30.08.2017
11:55:28
ну хоть меня добавьте, я не знаю. Я постоянно тут сижу

Alisa
30.08.2017
12:03:55
уже который раз прошу Дениса

но он кажется поддерживает монополию :)

Paul
30.08.2017
12:08:37
по-моему он просто болт забил

я одну группу был вынужден клонировать

Alisa
30.08.2017
12:09:06
ну нет я ему когда писал дать модерку, то он заходил и удалял

Paul
30.08.2017
12:10:07
при этом он легко может дать админу права ТОЛЬКО на удаление и бан юзеров

Alisa
30.08.2017
12:13:54
может, да

Paul
30.08.2017
12:39:09
точно да - я же админю группу и знаю, как управляются права

Alisa
30.08.2017
12:42:06
го бампать его крч

Google
Paul
30.08.2017
12:52:21
бесполезняк

хоть кубовую группу тоже клонируй

Denis
30.08.2017
12:58:42
недавно же был разговор про новых админов и тут устроили какое то голосование

тут есть немного постоянных юзеров, при этом несколько из них сразу вызвались - за

@DenisIzmaylov ping, дававй админов добавим

Paul
30.08.2017
13:01:50
@DenisIzmaylov ping!

Роман
30.08.2017
13:05:27
Что-то фигня какая-то. api_servers указал, но всё равно прометей пишет: Kubernetes SD configuration requires at least one Kubernetes API server

P.
30.08.2017
13:05:33
Зачем нужен StatefulSet? Извиняюсь за нубский вопрос

Denis
30.08.2017
13:06:20
Зачем нужен StatefulSet? Извиняюсь за нубский вопрос
Что бы поды имели конкретную айдентику

Каждый раз

Для кластерных и/или stateful систем очень удобно

P.
30.08.2017
13:07:26
Maksim
30.08.2017
13:09:43
Что бы поды имели конкретную айдентику
Нет. Это лишь побочный эффект. Statefull set нужен что бы запускать опр. зависимости контейнерров

Alisa
30.08.2017
13:10:38
@DenisIzmaylov ping!

Maksim
30.08.2017
13:11:08
То что название подов не меняется

Alisa
30.08.2017
13:11:09
он не онлайн энивей, как появится, так запингуем его >:з

Maksim
30.08.2017
13:11:51
https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/

Dmitry
30.08.2017
13:12:04
Stateful ты можешь жестко привязать pv к поду, и каждый рез при поднятии пода, к нему будет подключаться его pv

Google
Maksim
30.08.2017
13:12:12
Собсно тут statefull сет используется что бы перед запуском es изменить кол-во страниц памяти в систему

Dmitry
30.08.2017
13:12:30
В deployment ты можешь сделать тоже самое, но тогда придется использовать helm темплейты

P.
30.08.2017
13:14:46
Что произойдет в случае если у вас rolling update и персистент вольюм ReadWriteOnce?

Насчет ES еще вот так можно (если я верно понял о чем речь): https://github.com/pires/kubernetes-elasticsearch-cluster/blob/5a83c043c4b84288c544a291bb1e888e0d3a90c6/es-client.yaml#L16

Denis
30.08.2017
13:16:18
Maksim
30.08.2017
13:16:57
Ты сказал, что в этом смысл statefull set

Admin
ERROR: S client not available

Maksim
30.08.2017
13:17:31
а ясказал, что это лишь один из...более того не самым главным, досталось по наследству от pet set

Denis
30.08.2017
13:17:42
Ну собственно да в этом, я просто несовсем понял что ты написал

Что за зависимости контейнеров?

Maksim
30.08.2017
13:20:22
их стабильно название

Alisa
30.08.2017
15:03:27
???? что за жесть, я когда обновляю страничку с моей единственной нодой, то он меняет их system uuid, то есть перенаправляет то на одну, то на другую ноду это из-за того, что у них имена одинаковые или почему так?

Ivan
30.08.2017
15:07:38
Что ему может быть нужно?
попробуй оставить пустым апи сервер если пром у тебя в кубе, вот пример: - job_name: 'kubernetes-apiservers' scheme: https tls_config: ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt insecure_skip_verify: true bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token kubernetes_sd_configs: - role: endpoints api_server:

Alisa
30.08.2017
15:14:56
а чтобы etcd server не падал, нужно чтобы он был минимум на 3 нодах?

Paul
30.08.2017
15:15:32
не обязательно

но если нужен кластер - три ноды минимум и нечетное количество нод

Alisa
30.08.2017
15:15:53
а то я развернул master-etcd-agent полный набор на 2 ноды, и когда вырубаю одну, то всё падает( Error from server: etcdserver: request timed out

а, то есть мне нужна третья нода таки? ?

Paul
30.08.2017
15:16:42
для кластера - да

Alisa
30.08.2017
15:16:54
а почему он сам себя не может выбрать новым мастером?

Google
Paul
30.08.2017
15:17:58
нужен консенсус для выборов. особенность работы протокола

Magistr
30.08.2017
15:18:19
сплит брейн потому что предотвратить надо

Paul
30.08.2017
15:19:10
уточнил, нечетное количество нод - рекомендация. 3 ноды - обязательный минимум

Fike
30.08.2017
15:20:18
Можно, но смысла нет

Alisa
30.08.2017
15:25:51
а как переименовать ноду?? set hostname & reboot не помог доки тоже

Paul
30.08.2017
15:32:26
переименовать где?

Alisa
30.08.2017
15:36:09
в k8s, а то мне не очень понятно почему он видит одну ноду, но когда я обновляю страницу с инфой о ноде, то он меняет значения system uuid, то одной ноды, то другой (не знаю как еще это объяснить) крч кластер работает на двух нодах, но в инфе показывает только одну

Alisa
30.08.2017
19:54:10
ой мне ответили!

страница с инфой о ноде это какая?
http://localhost:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/#!/node/ubuntu-1604-xenial-64-minimal?namespace=default вот типа такая url для ui

начнем с простого - сколько нод и сколько апи-серверов? апи-сервера друг о друге знают вообще?
2 ноды, на каждой стоит master-etcd-agent они друг о друге знают, я это определил так: поднял какой-то сервис, зашел по ssh на другую машину и увидел этот же сервис через kubectl

Paul
30.08.2017
19:55:55
так, стоп. берем одну ноду, смотрим в ее апи-сервер. апи-сервер напрямую или через haproxy?

Alisa
30.08.2017
19:55:55
http://localhost:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/#!/node/ubuntu-1604-xenial-64-minimal?namespace=default вот типа такая url для ui
проблема видимо в том, что k8s определяет ноду по hostname, а он не уникален(

кажется что напрямую, разворачивал через kubespray, если подскажете как это перепроверить, то я это сделаю :)

Страница 256 из 958