@kubernetes_ru

Страница 773 из 958
Let Eat
21.08.2018
11:23:30
Оракл же, у них и стратегии похожие
У Майкрософт целая толпа сисадминаов, которую в новую эпоху надо перетащить. PowerShell хорошо зашёл, остался докер и они снова на коне. А ораклу зачем?

Михаил
21.08.2018
11:24:02
чего не понятного то?

Google
Let Eat
21.08.2018
11:24:44
а толку то уже?
Бренд мощнейший

Михаил
21.08.2018
11:26:09
Бренд мощнейший
ну разве что докреровцы молодцы, что в moby всё выкинули

Let Eat
21.08.2018
11:26:56
Контейнеры == докер, Клауд == AWS. Это надолго в головах

Михаил
21.08.2018
11:27:20
а зачем писать, есть же lxc
http://lurkmore.to/фатальный_недостаток

Igor
21.08.2018
11:28:18
http://lurkmore.to/фатальный_недостаток
или NIH https://en.wikipedia.org/wiki/Not_invented_here

Михаил
21.08.2018
11:28:24
Igor
21.08.2018
11:44:59
https://github.com/rootless-containers/usernetes

Pink
21.08.2018
12:14:22
настоящие программисты используют бабочек
Настоящие программисты текст не редактируют

Leo
21.08.2018
12:33:26
похер
Человеко-часы дороже железа, если все будут писать свои костыли, не будет стандартизации никакой, придётся тратить время на разработку и поддержку собственного продукта

и в чем смысл...

Andor
21.08.2018
12:34:22
Только ситхи всё возводят в абсолют

Google
Leo
21.08.2018
12:34:41
есть еще nspawn от systemd

мне понравился, chroot на стероидах)

Andor
21.08.2018
12:35:00
Не стоит судить о человеке и его задачах, не зная ни человека, ни его задач

Leo
21.08.2018
12:35:29
эм...

Pink
21.08.2018
12:35:33
Mikhail
21.08.2018
13:02:25
У нас всегда хорошо

Vitaliy
21.08.2018
13:41:50
Подскажите, а что у нас теперь в 1.11 вместо cadvisor-a? Как я понял он депрекейтед..

Igor
21.08.2018
13:45:24
The flag configuring what port to run this UI on --cadvisor-port was deprecated in v1.10. Now the default is --cadvisor-port=0, in other words, to not run the web server. If you still need to run cAdvisor, the recommended way to run it is via a DaemonSet. Note that the --cadvisor-port will be removed in v1.12

Дмитрий
21.08.2018
13:46:57
Кто нибудь сталкивался с тем, что очень быстро разрывается подключение по kubectl run/exec ?

Дмитрий
21.08.2018
14:04:22
Google
Let Eat
21.08.2018
14:09:11
Nikolai
21.08.2018
15:20:32
Приветствую! Помогите разобраться с ingress-ом, не могу понять логику его работы Задача: открыть доступ наружу 2 порта приложения (http, websocket) с авторедиректом на ssl При этом на кластере есть несколько namespase-ов для разных окружений, к каждому привязаны определенные виртуал-хосты (вида dev.example.com) Kub-кластер развернут не в облаке, следовательно LB нет Также на сколько понял nginx в качестве ингресса не очень адекватно работает с вебсокет-соединениями Поэтому решил реализовать на traefik, но столкнулся с непонимаем того, как это работает Вопрос: можете в двух словах объяснить как работает DaemonSet и подходит ли он для решения такой задачи? Если нет, то получается нужно разворачивать свой LB ? Какой в таком случае?

Andor
21.08.2018
15:21:31
> Kub-кластер развернут не в облаке, следовательно LB нет не следовательно, есть metallb

Дмитрий
21.08.2018
15:35:40
Кто-нибудь обновлял ca.crt в кластере?

Artyom
21.08.2018
16:16:05
Вот это новость!

/report

Mikhail
21.08.2018
16:16:55
добрая администрация в лице @SinTeZoiD оплатила нам подписку )

Pink
21.08.2018
16:17:27
/report

Ой, простите

Fike
21.08.2018
16:18:10
там можно правой нажать и удалить

"самые опытные разводилы", насколько ж хорошо-то, а

Fike
21.08.2018
16:25:40
а что не так с websockets ? https://kubernetes.github.io/ingress-nginx/user-guide/miscellaneous/#websockets
возможность забыть про долгоиграющие коннекты, из-за которых обновления ингресса будут оставлять висящие процессы

Nikolai
21.08.2018
16:27:57
The NGINX ingress controller does not use Services to route traffic to the pods. Instead it uses the Endpoints API вот это смущает

Fike
21.08.2018
16:32:18
говорят пофиксили https://github.com/kubernetes/ingress-nginx/issues/2461
Не-не, проблема как раз в том, что если у тебя висит коннект, старый процесс не убьется, пока он не отвалится. И если есть хотя бы один клиент, который годами не выключает браузер, то это попадалово

Google
Admin
ERROR: S client not available

Pink
21.08.2018
16:33:36
предлагают два ingress использовать, второй для long-running connections
и вот так собственно и решил эту проблему (:

Fike
21.08.2018
16:35:03
предлагают два ingress использовать, второй для long-running connections
да просто приложуха должна раз в час посылать запрос на переподключение, а клиент - уметь обрабатывать его

Pink
21.08.2018
16:38:17
В принципе да, было бы неплохо, чтобы сервис умел восстанавливать сессию

Nikolai
21.08.2018
16:42:23
а может кто объяснить в чем разница между daemonset и loadbalancer

Igor
21.08.2018
16:43:12
а может кто объяснить в чем разница между daemonset и loadbalancer
daemonset это под который запускается на каждой рабочей ноде

Maksim
21.08.2018
16:43:46
daemonset это под который запускается на каждой рабочей ноде
Ну не на каждой. Селекторы и противности не отменяються)

Igor
21.08.2018
16:45:39
Ну не на каждой. Селекторы и противности не отменяються)
in a simple case, one DaemonSet, covering all nodes, would be used for each type of daemon.

Maksim
21.08.2018
16:46:01
In a simple......

Как я уже сказал nodeSelectors и taints работают при шедуленге подов чюпосредством ds контроллера

Igor
21.08.2018
16:48:58
а может кто объяснить в чем разница между daemonset и loadbalancer
а loadbalancer это https://cloud.google.com/load-balancing/docs/https/

Как я уже сказал nodeSelectors и taints работают при шедуленге подов чюпосредством ds контроллера
это более экзотиский способ использования ds, они в доке пишут "on every node" про способы применения

Maksim
21.08.2018
16:52:06
Я так одно время держал ингресс контролеры на входных узлах. Через ds и селекторы.

Maksim
21.08.2018
16:54:18
В том что деплой сдеоает столько подов сколько у казано в реплик е, а ds на всех удовлитворяющих выборке

Igor
21.08.2018
16:54:19
входные узлы динамически поднимаются/опускаются?

Maksim
21.08.2018
16:54:41
Ну и раньше не было автоматического ролингапдейьа подов. В 1.11 хз

Google
Maksim
21.08.2018
16:55:48
Есть вариант с деплоем. Писать anti affinity и число реплик равное числе целевых нод, но через ds чуточку проще

У тебя кластер из 50 нод. Тебе нужно гарантированнотзапустить под на 12 из 50.

У тебч два решения ds + nodeSelector или nodeSelector+deploy+anti-affinity.

Igor
21.08.2018
17:05:54
с 1.6 оказывается в ds появился RollingUpdate

Maksim
21.08.2018
17:07:25
точно не было этого в 1ю6 и в 1/9 -)

Igor
21.08.2018
17:12:30
точно не было этого в 1ю6 и в 1/9 -)
https://kubernetes.io/docs/tasks/manage-daemon/update-daemon-set/



Let Eat
21.08.2018
17:55:30
Ну, теперь можно и в сислог слать и в kubectl logs видеть

https://github.com/moby/moby/issues/33475

Страница 773 из 958