@kubernetes_ru

Страница 650 из 958
Andrey
28.06.2018
13:59:10
Может, OOM приходит?

Andor
28.06.2018
13:59:23
Ну или прокинь сокет докера да подёргай docker logs

Banschikov
28.06.2018
14:00:27
Может, OOM приходит?
Нет.Точно.Я вижу ресурсы. Завтра с хоста логи докера посмотрю

Andrey
28.06.2018
14:01:07
Нет.Точно.Я вижу ресурсы. Завтра с хоста логи докера посмотрю
Я не сарказмирую, если что, просто тяжело помочь, если нет полного видения ситуации.

Google
Banschikov
28.06.2018
14:02:32
Я не сарказмирую, если что, просто тяжело помочь, если нет полного видения ситуации.
Я понимаю. Я спросил может кто сталкивался с этим, когда в темплейте сервисе указываешь несколько портов, и после этого все крашится.Может баг какой

bebebe
28.06.2018
14:09:14
https://blog.linkerd.io/2018/06/26/using-linkerd-as-a-service-mesh-proxy-at-wepay/

Vadim
28.06.2018
14:17:43
https://blog.linkerd.io/2018/06/26/using-linkerd-as-a-service-mesh-proxy-at-wepay/
DaemonSet - это читерство, тогда поды между собой смогут общаться

Max
28.06.2018
14:24:40
Приветствую. Подскажите как организовать сетевое взаимодействие между сервисами. Пытаюсь связать два сервиса, kibana и elasticsearch. Из контейнера с кибаной CLUSTER IP эластика недоступен. Как такие вещи вообще делаются?



Max
28.06.2018
14:25:35
service есть, на скриншоте выше отметил

Айбелив
28.06.2018
14:26:16
сервисы не пингуются, это просто правило в iptables

Mikhail
28.06.2018
14:26:30
форвардинг разрешен? kube-proxy запущен?

Max
28.06.2018
14:26:48
kube-proxy не запущен

форвардинг еще не проверял

Banschikov
28.06.2018
14:27:48
kube-proxy не запущен
значит ничего работать не будет

Andor
28.06.2018
14:28:01
Service не пингуется

Google
Andor
28.06.2018
14:28:16
Если не пингуется, то это не значит, что он недоступен

kvaps
28.06.2018
14:29:45
telnet 10.97.129.210 9200

Max
28.06.2018
14:30:18
telnet 10.97.129.210 9200
есть альтернативы?

Айбелив
28.06.2018
14:30:43
apt-get update, не?

Mikhail
28.06.2018
14:31:23
Max
28.06.2018
14:31:31
apt-get update, не?
спс, не догадался)

Mikhail
28.06.2018
14:32:50
ну запустите уже kube-proxy? )

kvaps
28.06.2018
14:33:18
kubectl edit, лол :)
kubectl patch pv "${volumename}" -p "{\"spec\":{\"claimRef\":{\"uid\":\"${newuid}\"}}}"

Mikhail
28.06.2018
14:36:29
теперь посмотрите в его логи, в правила iptables, посмотрите разрешен ли форвардинг в нем же

должно быть правило на нужный вам кластерИп

Nikolay
28.06.2018
14:37:47
kvaps
28.06.2018
14:38:17
kubectl patch pv "${volumename}" -p "{\"spec\":{\"claimRef\":{\"uid\":\"${newuid}\"}}}"
или можно просто удалить: kubectl patch pv "${volumename}" -p '{"spec":{"claimRef":{"uid":""}}}'

@Enchantner а ты свой провижионер пишешь?

Nikolay
28.06.2018
14:39:56
@Enchantner а ты свой провижионер пишешь?
у меня анзибл отдельно идет и нарезает на нодах LVM-разделы

по идее, можно было бы как-то это автоматизировать через StorageClass или что-то такое, но сейчас это все независимо

Google
kvaps
28.06.2018
14:41:17
если хочешь, я тут немного игрался и написал свой провижионер на bash, его можно легко переделать под что угодно: https://github.com/kvaps/kube-iscsi-loop/blob/master/iscsi-sharedfs-provisioner/iscsi-sharedfs-provisioner

kvaps
28.06.2018
14:42:22
да, но я про провижионер

Nikolay
28.06.2018
14:42:41
окей, спасибо, посмотрю

Алексей
28.06.2018
14:45:07
в родолжение на тему ipvs и внешних адресов добавил к kube-router keepalive с vip ами получил отказоустойчивые адреса трафик на 3 ноды кластера которые являются балансировщиками 13600 rps (http, https) в мегабитах 200 на вход 400 на выход

Andor
28.06.2018
14:46:14
Отлично

Какие с ним проблемы?

Алексей
28.06.2018
14:58:28
пока проблем не было

Andor
28.06.2018
15:00:52
Подозрительно -_-

Denis
28.06.2018
15:49:04
народ а как добавить флаг в кублет --authentication-token-webhook=true имеется ввиду заранить кублет с этим флагом или что?

Harry
28.06.2018
18:20:44
Добрый вечер. Озадачился я хранением значений разных секретных переменных типа доступов к базе в темплейтах Хельма, чтобы они прокидывались в окружение при деплое в стейдж или прод. Но хранить в открытом виде некошерно, подскажите годный способ, пожалуйста.

Igor
28.06.2018
18:36:28
На мероприятии hyperledger hsckfest показывали развертывание hyperledger fabric network в облаке через кубик.

Очень изящный код получается

Для многих облачных сервисов

Nik
28.06.2018
18:41:15
Есть ссылка?

bebebe
28.06.2018
18:41:40
https://blog.pagero.com/articles/tech-talk/simplicity-lies-at-the-heart-of-nats/

Harry
28.06.2018
18:47:12
https://github.com/futuresimple/helm-secrets
Спасибо. Я где-то встречался с вариантом через helm charts, но не могу найти. Кто-нибудь так делал?

Google
Banschikov
28.06.2018
18:52:08
helm-secrets upgrade --install нормально работает

Andor
28.06.2018
18:54:21
а он из vault умеет?

Igor
28.06.2018
18:55:49
Есть ссылка?
Чуть позже. Когда материалы дадут.

Admin
ERROR: S client not available

Igor
28.06.2018
18:56:09
Но кое что есть на гитхабе. Проект hyperledger cello

В папке src

Линк неудобно, ребят, с телефона. Легко ищется

Ilya
28.06.2018
20:17:30
А лучше бы Vault прикрутить

Добрый вечер. Озадачился я хранением значений разных секретных переменных типа доступов к базе в темплейтах Хельма, чтобы они прокидывались в окружение при деплое в стейдж или прод. Но хранить в открытом виде некошерно, подскажите годный способ, пожалуйста.

Maxim
28.06.2018
21:14:06
Повторю тут вопрос ;)

Maxim Rusak: Вопрос: использовал ли кто-нибудь oss платформы для FaaS типа openwhisk, openfaas, fission? Где использовали? Для чего? Как ощущения? Как выбирали? Заранее спасибо?

Nikolay
28.06.2018
21:34:01
А можно очень тупой вопрос? Я так и не добрался до helm, он стоит того? Крутая штука?

Я так понимаю, это инсталлилка каких угодно ресурсов поверх кубера?

bebebe
28.06.2018
21:34:47
https://redmonk.com/jgovernor/2018/06/28/rancher-labs-treating-cattle-like-cattle/

Andrey
28.06.2018
21:44:31
Я так понимаю, это инсталлилка каких угодно ресурсов поверх кубера?
Мы повсеместно используем Helm. Проблемы текущие решает, но сам не без тонны багов. Они недавно Helm 3 анонсировали, а ещё советую на ksonnet взглянуть.

Однозначно советовать Helm 2 я не могу.

Quang
29.06.2018
04:17:41
https://github.com/kubernetes/kops/issues/834 Hi all any have issue like this ?? how did you add ssl to k8s api ?

Banschikov
29.06.2018
06:43:04
всем привет. К примеру один воркер-узел ушел на покой в кластере. Запущенные на нем ранее поды показаны в запущенном состоянии, но по факту их нет . Естевственно сервисы не могут до них достучатся. Как сказать шедуллеру, что бы он перепланировал их на другую рабочую ноду? Сейчас просто прешлось удалить под, только после этого он был создан на другом воркере

Google
Sergey
29.06.2018
06:46:27
так может убивать их сразу с нодой?

Banschikov
29.06.2018
06:47:36
так может убивать их сразу с нодой?
Я просто думал есть какой-то другой более правильный способ

Как бы задача k8s является в оркестрации

Sergey
29.06.2018
06:48:42
вопрос в том, не привязаны ли эти поды к конкретной ноде

Banschikov
29.06.2018
06:50:01
вопрос в том, не привязаны ли эти поды к конкретной ноде
Вроде как не должны. Покрайней мере selectorNode не было

Banschikov
29.06.2018
06:58:14
kubectl cordon
+ Cпасибо.

kvaps
29.06.2018
07:20:02
Может. Но смотрел статус нод в кластере. И тот узел был NotReady
А какой куб? У меня после апдейта на 11 решедуллинг для деплоймента тоже не сработал почему-то хотя нода и NotReady была. Деплоймент показывался как Running

Roman
29.06.2018
08:18:19
А тут про ранчер 2 кто нить может подсказать?

Egor
29.06.2018
08:18:25
всем привет. изучаю k8s совсем с нуля. раскатал деплоймент с hello world, service и ingress для него. сейчас хочу как-то собирать с этого access-log. Как это делается, какими инструментами?

Страница 650 из 958