@kubernetes_ru

Страница 140 из 958
Timur
16.03.2017
15:02:21
пользуюсь связкой Rancher + Kubernetes. пока настроено 2 хоста - один EC2 от AWS и один VPS от местного провайдера. вчера EC2 потерялся (статус disconnected в Rancher/hosts), из-за него Kubernetes стал почти read-only, ничего не могу деплоить\удалять. стер EC2-сервер, теперь при попытке удалить деплои или поды мне выдает "Error from server: client: etcd cluster is unavailable or misconfigured" etcd перезапускал, тщетно

Artur
16.03.2017
15:05:30
2 мастера?

Fike
16.03.2017
15:06:06
два участника кластера etcd, судя по всему

нужно сказать оставшемуся etcd, что он теперь в кластере один, перезапуски вообще никак не помогут

Google
Fike
16.03.2017
15:07:03
но запускать кластер из двух участников это гхм та еще идея

а вот это уже знает гугл (я не знаю)

Timur
16.03.2017
15:07:47
Mikhail
16.03.2017
15:07:51
Товарищи, а ктото натыкался на хорошую статью по установке кубера на Debian ? Сколько не пробую - всё как то костыльно.

Fike
16.03.2017
15:08:16
это пока тест возможностей. а почему?
ну кворум только из двух участников

Timur
16.03.2017
15:08:21
2 мастера?
я не знаю тонкостей настройки Kubernetes Ранчером, но насколько я понял, 1 мастер.

Fike
16.03.2017
15:08:21
без других вариантов

один выпал - кластер умер

что и произошло

Timur
16.03.2017
15:09:00
какой оптимальный вариант?

в данный момент ставим в приоритет high availability

Dmitry
16.03.2017
15:09:29
https://github.com/kubernetes/kubernetes/issues/33729 блин, вот с этой уже час вожусь

Google
Fike
16.03.2017
15:10:40
какой оптимальный вариант?
делать кластер из нечетного количества участников

написано в любой доке по любому распределенному решению

Artur
16.03.2017
15:11:07
если там ранчер сам всё разворачивал, то не думаю, что там можно развернуть четное число

ещё и в разных ДЦ

Fike
16.03.2017
15:11:26
as you see

Timur
16.03.2017
15:11:49
хм

Artur
16.03.2017
15:21:45
1 кубернетис-кластер в разных дц кажется не очень ха идея

Alchemist
16.03.2017
15:29:19
kops вроде умеет делать в разных дц если не путаю

yolkov
16.03.2017
15:33:07
но не по одной ноде

Artur
16.03.2017
16:09:25
федеративный кластер - согласен, а с таким сетапом понимания что будет происходить с кластером у меня нет. даже если мастер-слейв в разных дц

Paul
16.03.2017
20:27:45
коллеги, использующие kargo-cli – кто-нибудь смог собрать go-версию? Или я неправильно понимаю концепцию карго?

Vladimir
16.03.2017
21:08:50
Ayrat ping, ты же kargo-cli пробовал?

Paul
16.03.2017
21:11:06
провозился с карго полтора часа, пока нет понимания видимо - мало провозился. Копаю дальше. Если кто-то поделится опытом - буду рад

пока что максимум, чего я от карго добился - это вот такой фигни: Traceback (most recent call last): File "/usr/local/bin/kargo", line 381, in <module> args.func(config) File "/usr/local/bin/kargo", line 73, in deploy Run.deploy_kubernetes() File "/usr/local/lib/python2.7/dist-packages/kargo/deploy.py", line 269, in deploy_kubernetes display.display(' '.join(cmd), color='bright blue') TypeError: sequence item 0: expected string, NoneType found

Fike
16.03.2017
21:16:18
python ❤️

Vladimir
16.03.2017
21:20:18
Я использую вот этот карго: https://github.com/kubernetes-incubator/kargo

Paul
16.03.2017
21:27:39
ну да. но в его же документации сказано - используйте kargo-cli

в общем пока что все это создает впечатление набора кривоватых велосипедов

Ihor
16.03.2017
22:04:05
чем ansible-playbook не устроил?

Google
Ihor
16.03.2017
22:05:13
посмотрите на даты последних коммитов в kargo-cli и kargogo

Paul
16.03.2017
22:29:29
чем ansible-playbook не устроил?
В смысле написать? Я не настолько хорошо знаю куб :)

Ihor
16.03.2017
22:29:47
да нет, он в репе kargo есть

https://github.com/kubernetes-incubator/kargo/blob/master/docs/getting-started.md#starting-custom-deployment например

Paul
16.03.2017
22:48:53
link preview - просто огонь

я не уверен, что хочу знать, что это

Ihor
16.03.2017
22:53:36
ну всегда есть https://kubernetes.slack.com/messages/kargo/ :)

Vladimir
16.03.2017
23:23:58
Мой опыт показывает, что развернуть куб не разбираясь в нем практически невозможно

Это либо брать тул, в котором все гвоздями прибито, где максимум можно поменять количество нод

Либо что то "широкого" профиля, но которое нужно под каждый use case допиливать

Я на днях попробовал Azure Container Engine - типа развертывание "production ready" куба от Azure.

Так вот, он НЕ работает :)

Деплой этого всего дела (делающийся мышкой в веб интерфейсе Azure) падает с невразумительной ошибкой через полторы минуты выполнения

Paul
16.03.2017
23:29:11
я не говорил "вообще не разбираясь", просто мне не хочется делать руками совсем все

Vladimir
16.03.2017
23:29:49
Причем я и так, и сяк, и все креденшиалы перепроверил, все равно одна хрень

А вот коллеге удалось эту штуку задеплоить в Azure: он не смотря на то, что написано в документации (а там это явно указано и даже предупреждение стоит, "не перепутайте!"), поменял местами пару гуидов (application id и object id), и у него это дерьмецо развернулось!

Мне вот руками тоже не хочется это дело разворачивать, но при этом "короьочного" функционала нигде не хватает

Paul
16.03.2017
23:34:02
это именно БАГ. У меня такой любимый на убунте есть с weave. если на хосте есть два интерфейса, то адреса нод должны быть строго публичными. Еесли указать приватные - weave будет падать. При этом трафик пойдет строго по приватному интерфейсу

вот такой вот подарок

Google
Vladimir
16.03.2017
23:34:44
Я поэтому и выбрал kargo как что то с знакомой основой (Ansible), активным сообществом, развивающееся и отчасти unopionated

Paul
16.03.2017
23:35:30
вот я и пытаюсь постичь карго

Paul
16.03.2017
23:35:43
с документацией-то катастрофа, ни квикстарта, ничего

про то, что надо поменять гуиды, хотя в документации написано, что делать этого нельзя

это явный баг, кто-то где-то в коде что-то посеял

Vladimir
16.03.2017
23:36:40
А, ты про Azure Container Engine?

Paul
16.03.2017
23:36:57
ага

Vladimir
16.03.2017
23:37:16
Ага согласен

В чём ты разворачиваешь?

В AWS?

Paul
16.03.2017
23:51:33
bare-metal, у нас свои сервера

Vladimir
16.03.2017
23:54:59
А kargo-cli умеет bare metal?

Для обычного kargo, который на ansible, все конфигурации в какой то степени как bare metal

Paul
17.03.2017
00:06:26
написно что умеет. В результате вся возня с карго для меня вылилась в генерацию конфигов. Как только я пойму, как сгенерить именно то, что мне нужно - решу 90% поставленой задачи. Осталась мелочь

Denis
17.03.2017
00:10:53
add_header Public-Key-Pins
Но тут задача в Ingress сделать :)

А вот как реализовать Public-Key-Pins средствами Ingress?

Ivan
17.03.2017
07:13:40
Hello! Сорри, давно тут не проявлял активность, допиливал вот эту штуку https://github.com/Mirantis/kubeadm-dind-cluster Если у кого есть желание попробовать, то теперь можно запустить тестовый многонодовый k8s кластер, например, вот так: $ wget https://cdn.rawgit.com/Mirantis/kubeadm-dind-cluster/master/fixed/dind-cluster-v1.5.sh $ chmod +x dind-cluster-v1.5.sh $ ./dind-cluster-v1.5.sh up Нужен свежий докер (1.12+), проверялось на Mac OS X, Ubuntu 16.04, Fedora 25. Может работать с удалённым докером. При необходимости может собирать k8s из исходников, но может работать и без этого. Крайне быстро работает перезапуск кластера. Пока что не работает со storage driver'ом btrfs в докере (баг в cadvisor -> kubelet, проблема с зачисткой volumes).

неплохо работает в Travis CI

взлетает довольно легко на Маке с 8 Gb RAM

Google
Ivan
17.03.2017
07:15:09
за фидбэк буду признателен :)

Mikhail
17.03.2017
08:25:39
а что не так?
Видимо руки не из того места :) Только осваиваю кубер, медленно продвигается освоение.

Ihor
17.03.2017
08:39:16
У всех на определенном этапе бывает :)

Mikhail
17.03.2017
08:48:27
Без этого, конечно, никуда :)

Anton
17.03.2017
08:51:03
ой ничего себе, Михаил, мир круглый

на свадьбе твоей сестры виделись))

Mikhail
17.03.2017
08:53:12
Мир и правда тесен =)

Alex
17.03.2017
09:21:56
У Миши за последние полчаса аж два подобных сюрприза) Мир - Шар. Sorry за оффтоп)

Artem
17.03.2017
10:51:06
тут много кто кого знает. мне написал чувак с которым 10 лет назад работали

Max
17.03.2017
11:22:03
Коллеги а кто-то знает аналогичный чатик по GCP? )

Artem
17.03.2017
11:22:58
ага, тоже интересно было бы, а то тут такое ощущение, что у всех кубер только на bare metal развернут)

а там есть некоторые свои нюансы

Max
17.03.2017
11:24:19
GCP сам по себе, ссуко, странен - там и без k8s вопросов хватает

то-ли дело AWS/OpenStack

Ivan
17.03.2017
13:51:03
не совсем

Страница 140 из 958