@kubernetes_ru

Страница 737 из 958
Alexey
06.08.2018
14:11:45
У меня на deploy публикуется ссылка отката в telegram bot, чтобы не вспоминать если что. Сообщение отправляется одной строкой curl

* не ссылка отката, просто на pipeline, где можно перезапустить deploy.

статика html/css/js собирается с каждой ветки на свой поддомен, ссылка тоже публикуется в телеге. Обожаю статику, с api так сложнее. И телега рулит, что одним curl можно публиковать команде уведомления.

Gleb
06.08.2018
14:17:18
Логи kube-controller-manager.
````E0806 14:01:58.269297 1 reflector.go:205] k8s.io/kubernetes/cmd/kube-scheduler/app/server.go:594: Failed to list *v1.Pod: Get https://hcp-kubernetes.51632707.svc.cluster.local:443/api/v1/pods?fieldSelector=spec.schedulerName%3Ddefault-scheduler%2Cstatus.phase%21%3DFailed%2Cstatus.phase%21%3DSucceeded&limit=500&resourceVersion=0: net/http: TLS handshake timeout 0806 14:01:58.269583 1 reflector.go:205] k8s.io/kubernetes/vendor/k8s.io/client-go/informers/factory.go:87: Failed to list *v1.ReplicationController: Get https://hcp-kubernetes.5b307.svc.cluster.local:443/api/v1/replicationcontrollers?limit=500&resourceVersion=0: net/http: TLS handshake timeout```

Google
Gleb
06.08.2018
14:17:42
чот прям жоско сломалось что-то в ажуре

Gleb
06.08.2018
14:18:07
ага, только это ажур, а логи kube-scheduler

че делать-то

в смысле я в саппорт написал

но походу тут тоьлко один выход - делать еще один кластер

Juriy
06.08.2018
14:35:27
всем привет

подскажите плиз кто вкурсе

есть у меня вольюм вот такой

volumes: - name: shared-files emptyDir: {}

подключенно к нему два контейнера в поде

и беда печаль от юзера www-data не может че то писать туда

куда копнуть?

Google
Slava
06.08.2018
14:37:50
accessMode в PV

Игорь
06.08.2018
14:43:47
Всем привет, как лучше поднимать kubernetes в разных датацентрах? Использовать несколько кластеров или можно настроить один распределенный? Можно ли настроить рабочий вариант 3 мастера с 3 нодами размазанными по 3 разным датацентрам?

Juriy
06.08.2018
14:46:49
accessMode в PV
то есть я так понимаю надо создать PersistentVolume и задать ReadWriteMany а потом его подключить к поду?

Slava
06.08.2018
14:47:09
да, через pvc

Juriy
06.08.2018
14:47:26
а для чего нужен emptyDir: {}

?

Slava
06.08.2018
14:47:41
хз, если честно)

Valera
06.08.2018
15:00:47
Хотя что я туплю, у нас такая же функциональность реализована из коробки самим Gitlab + его нативной интеграцией со слаком :)

Игорь
06.08.2018
15:02:03
несколько кластеров
А какие подводные камни в одном распределенном?

Mikhail
06.08.2018
15:03:34
Михаил
06.08.2018
15:04:34
Игорь
06.08.2018
15:05:56
И на что это повлияет, кроме как на немного более длительную синхронизацию? Какие в связи с этим вылезут косяки?

Михаил
06.08.2018
15:08:21
и вариант, что в одном дц весь прод, а в другом нифига вполне себе актуальный

Игорь
06.08.2018
15:13:46
Михаил
06.08.2018
15:27:43
Он разве размазывает по ртт, а не по ресурсам?
по ресурсам. ну и у тебя получится, что все сконцентрировано на одной ноде в одном дц

Игорь
06.08.2018
15:28:11
Почему так получится-то?

rus
06.08.2018
15:49:44
Несколько докладов по k8s со swampUP 2018 swampUP 2018 | Kubernetes, Openshift awesomeness with Artifactory - Red Hat https://www.youtube.com/watch?v=ZKe-F20wB1U swampUP 2018 | DevOps with Azure, Kubernetes, and Helm - Jessica Deen https://www.youtube.com/watch?v=TeyCIM3drb4 swampUP 2018 | Kubernetes, OpenShift Awesomeness with Artifactory - Burr Sutter https://www.youtube.com/watch?v=75vjL9qe1kI swampUP 2018 | Managing artifacts cross multiple Kubernetes clusters https://www.youtube.com/watch?v=WBBCgFVOfuQ swampUP 2018 | Kubernetes is hard! Lessons learned taking JFrog apps to Kubernetes - Eldad Assis https://www.youtube.com/watch?v=o4PRs0gpl18

Google
Gleb
06.08.2018
16:51:38
друзья, а яправильно понимаю, что в кластерах с RBAC (oauth на Azure Active Directory) не получится сделать дешборд, в который люди логинятся?

сделал kubeconfig, а оно Not enough data to create auth info structure.

External identity providers or certificate-based authentication are not supported at this time.

а берер токена с таким RBAC нет. единственный вариант, получается, тем, кто хочет дешборд - создавать свой собственный сервисаккаунт с такими же ролями?

ну или сделать сервисаккаунт с read привелегиями всего и через oauth прокси выставить, чтобы могли только читать все кроме секретов

Elenhil
06.08.2018
17:16:18
Ребят. Хочу потыкать кубер с нуля. Какую впску для этого лучше взять? Какие минимальные требования для например двухнодового кластера?

Mikhail
06.08.2018
17:23:19
Ребят. Хочу потыкать кубер с нуля. Какую впску для этого лучше взять? Какие минимальные требования для например двухнодового кластера?
если поиграться, то можно взять minikube или воспользоваться встроенным в докер. А так, я поднимал на минимальных что были у провайдера

вот еще https://labs.play-with-k8s.com

Mikhail
06.08.2018
17:27:19
брал на скалевей минималки

Elenhil
06.08.2018
17:29:20
Для минималки запустить пару контейнеров?

Не дохера ли?

Мне не в бой же

Banschikov
06.08.2018
17:30:25
Что, простите?)

Для минималки запустить пару контейнеров?
Как минимум у тебя будет запущен там etcd + несколько контейнеров системных. Вообщем советую для того чтобы поигратся арендуй одну vps , и там разверни мастер один и разреши на нем запуск рабочих подов. 2 гига озу охватит на все про все, чтобы поигратся

Elenhil
06.08.2018
17:36:00
Ну я хотел ещё кластер потыкать.

Ну ок, чекну, спасибо

Banschikov
06.08.2018
17:36:59
Ну я хотел ещё кластер потыкать.
Если ксластер то 2 гига для мастера, и 1,5 гига для воркера. Вообще потыкатся на virtualbox норм получится

Google
Elenhil
06.08.2018
17:41:31
Не, у меня печатная машинка :(

Михаил
06.08.2018
17:57:53
Ну я хотел ещё кластер потыкать.
Кластер это три машины минимум)

Вообще радует, что есть люди, которые хотят from scratch

Elenhil
06.08.2018
19:16:00
Вообще радует, что есть люди, которые хотят from scratch
Ну это самый простой способ в опс въехать

Михаил
06.08.2018
19:17:23
Ну это самый простой способ в опс въехать
Ты же понимаешь, что from scratch это притащить бинари на ноду и писать к ним конфиги? А не поставить kubeadm

Михаил
06.08.2018
19:19:04
И серты сгенерить.
Ага, но можно для начала и так

Без rbac

Михаил
06.08.2018
19:21:27
Скначала скомпилить
Не обязательно)

Andrey
06.08.2018
19:50:42
#helm upgrade --recreate-pods сначала всё остановит, а потом начнёт новые поды делать для всех ресурсов, или он это в параллель делает?

Anton
06.08.2018
20:19:26
Ну я хотел ещё кластер потыкать.
300 уе триала на gce хватит потыкать в кластере кубер, в т.ч. и hard way

Vadim
06.08.2018
20:54:24
https://movingfulcrum.com/horrors-of-using-azure-kubernetes-service-in-production/ cc @SinTeZoiD

Эдуард
06.08.2018
20:56:05
а для чего нужен emptyDir: {}
Потерять данные)

Михаил
06.08.2018
20:58:30
Это к вопросу, что есть GKE, а остальное от лукавого?

Vadim
06.08.2018
20:59:41
Это к вопросу, что есть GKE, а остальное от лукавого?
Скорее к вопросу о самодельных кластерах vs. "там умеют готовить"

Google
Juriy
06.08.2018
21:22:41
А если серьезно? Понятно что когда под умрет данные пропадут, я предположил что это дело можно использовать чтобы передать данные в соседний контейнер. Например нжинксу из php-fpm.

Juriy
06.08.2018
21:36:25
Не, плохая идея. Только если из одного пода.
Но вот чето пока не удалось побороть проблему с пермишенами. :(

Эдуард
06.08.2018
21:37:11
busybox, root, chmod 777

Алексей
06.08.2018
21:40:26
А можно маппить pvc в init контейнер?

Juriy
06.08.2018
21:40:58
busybox, root, chmod 777
Попробую, благодарка.

Konstantin
06.08.2018
23:03:39
Эдуард
06.08.2018
23:04:21
Konstantin
06.08.2018
23:04:35
Ох, время не глянул ((( надеюсь не разбудил

Там апрув мгновенный
Хм, написано в течении 2х дней

Но я через гитлаб, видать там другой триал) надо чекнуть

Страница 737 из 958