@kubernetes_ru

Страница 555 из 958
Banschikov
09.05.2018
16:06:12
Еще в КРОК написали письмо

bebebe
09.05.2018
16:06:59
@pro_hosting

Вот тут ещё можно поспрашивать

Banschikov
09.05.2018
16:07:18
@pro_hosting
Спасибо

Google
Andor
09.05.2018
16:07:22
как будто амазон дешёвый

Banschikov
09.05.2018
16:07:48
как будто амазон дешёвый
Ну мне больше по душе ажур к примеру.

Andor
09.05.2018
16:08:02
omg

Banschikov
09.05.2018
16:08:19
omg
ЧТо тебя печалит?)

Aleksandr
09.05.2018
16:49:49
Посмотрите, пожалуйста, у вас по netstat -i | column -t на veth интерфейсах дропы есть?

Harry
09.05.2018
17:21:03
Коллеги, добрый вечер. Подскажите, насколько феншуйно и правильно деплоить штатными средствами Гитлаба? Я знаю, что часто применяют Dapp, но я не хочу плодить сущности. Может, в штатных средствах есть какие-то подводные камни и лучше сразу смотреть в сторону Dapp?

Ivan
09.05.2018
17:25:25
Мое впечатление штатные странные какието

Harry
09.05.2018
18:06:42
Хм, интересно, спасибо. Но я как-то сторонюсь helm-а. Он у меня не работает и я пока не думал о том, чтобы заставить его работать. Молодо-зелено ведь.

Harry
09.05.2018
18:30:37
Алексей
09.05.2018
18:33:38
Подскажите куда копать? поднят ingress, настроен сервис Если делаю curl с ноды на него по http - всё ок если пытаюсь зайти через браузер с другой машины - ошибка 500 фаерволов нету, ошибка nginx'a вылетает?

Google
Harry
09.05.2018
18:35:24
Логи пода ingress контроллера смотреть

Алексей
09.05.2018
18:36:12
192.168.88.11 - [192.168.88.11] - - [09/May/2018:18:32:05 +0000] "GET /favicon.ico HTTP/1.1" 500 0 "- " "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Y aBrowser/18.3.1.1232 Yowser/2.5 Safari/537.36" 310 24.831 [cattle-system-cattle-service-443] 10.42.2. 3:443 0 24.831 500 получается что ему сервис отдаёт 500 ошибку

Harry
09.05.2018
18:37:10
Ну тогда смотрите логи пода сервиса

Alexander
09.05.2018
20:43:39
Новая книжка про актуальное :)

Виталий
10.05.2018
05:12:19
Не путаете? Копирайт стоит 2018 год, плюс несколько разделов про k8s.

Andrey
10.05.2018
05:12:40


Valentin
10.05.2018
05:15:00
Huan
10.05.2018
06:36:46
привет всем. подскажите плз. пытаюсь запустить прометеус в кубе и выдает такую ошибку: May 10 08:34:39 kube-node3 kubelet[6797]: I0510 08:34:39.710789 6797 kuberuntime_manager.go:757] checking backoff for container "init-chown-data" in pod "prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a)" May 10 08:34:39 kube-node3 kubelet[6797]: I0510 08:34:39.710939 6797 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=init-chown-data pod=prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a) May 10 08:34:39 kube-node3 kubelet[6797]: E0510 08:34:39.710981 6797 pod_workers.go:186] Error syncing pod 6bc79c9f-53da-11e8-87a1-005056b2b12a ("prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a)"), skipping: failed to "StartContainer" for "init-chown-data" with CrashLoopBackOff: "Back-off 5m0s restarting failed container=init-chown-data pod=prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a)" как пофиксить?

Konstantin
10.05.2018
06:41:25
Кстати на счёт GitLab. При установке helm из вебки GitLab постоянно ругается на недоступность репозитория alpine. Я понять не могу вообще как это дело дебажить? Логов, где есть что-то про helm не нашел

Konstantin
10.05.2018
07:05:39
А почему нет?

Хочется пощупать их общий pipeline

Nik
10.05.2018
08:17:18
ну вот к примеру кластер на виртуальных инстансах в облаке. Ceph норма развернуть в этом же облаке? Мне всегда казалось что ceph нужно развертывать на bare metal и причем со всякими горячими и холодными кэшами на ssd
Развернул подобное с rook, пока все нравится. Но надо понимать, для чего используется он. В целом фз-152 в РФ это vcd вмтвари со всеми его недостатками. ec2 или gce в разы удобнее.

Андрей
10.05.2018
08:22:49
Всем привет, задам глупый вопрос, который наверно уже поднимался раз так 10, но все-таки: никто бд не поднимал в кластере с хранением данных в PV? Поды-то перемещаются в другую ноду при отключении, а вот PV остается на месте. Как-то можно заставить реплицироваться PV между нодами?

No1
10.05.2018
08:23:47
кластерная фс?

Андрей
10.05.2018
08:24:05
в самом кластере или рядом?

Andor
10.05.2018
08:25:21
PV у тебя в чём?

Андрей
10.05.2018
08:25:55
PV у тебя в чём?
пока обычный Local, если вопрос про это.

Andor
10.05.2018
08:26:14
ну то есть они не могут переключаться между серверами

Google
Андрей
10.05.2018
08:27:02
Он оставляет PV на какой-либо ноде и с нее шарит, если я правильно механизм понял. Нода сдохла - PV тоже. :/

statefulSet
Почитаю сейчас, спасибо

Valentin
10.05.2018
08:27:45
БД какая? Постргес?

Андрей
10.05.2018
08:28:18
Разные есть, и постгрес, и персона/mysql

Пока сложно дается понимание statefulSet, это вместо подов/деплойментов, или вместо PV?

Valentin
10.05.2018
08:31:50
это вместо деплойментов

поды создаются, но только там, где они умерли в прошлый раз

Андрей
10.05.2018
08:32:28
Ага, и судя по докам надо сразу больше одного делать?

Valentin
10.05.2018
08:32:37
не обязательно

Андрей
10.05.2018
08:33:01
А если их 2 - они между собой синхронизируются?

Banschikov
10.05.2018
08:33:23
Andor
10.05.2018
08:33:44
зависит от PV на самом деле

могут и на другой ноде запуститься если PV может переехать

Valentin
10.05.2018
08:34:19
могут и на другой ноде запуститься если PV может переехать
сами? или это махинации нужны какие-то?

Andor
10.05.2018
08:34:46
поды сами ничего не умеют, контроллер их может перевезти если надо будет

Андрей
10.05.2018
08:35:10
А как быть с данными?

Andor
10.05.2018
08:35:19
данные в PV

Андрей
10.05.2018
08:35:42
Например, у меня есть PV с данными бд на ноде1, она отключилась, поды переехали, а PV - нет

Google
Valentin
10.05.2018
08:35:43
ну и бэкапить pv на уровне файловой системы - как вариант

Андрей
10.05.2018
08:36:12
Андрей
10.05.2018
08:36:25
или все-таки они могут переехать, но не сразу?

Banschikov
10.05.2018
08:36:39
Например, у меня есть PV с данными бд на ноде1, она отключилась, поды переехали, а PV - нет
Для этого как я понимаю нужно использовать разделяемый сторадж

Banschikov
10.05.2018
08:37:05
Точнее сторадж который, к которому доступ есть со всех нод

Андрей
10.05.2018
08:37:29
Точнее сторадж который, к которому доступ есть со всех нод
но по умолчанию к PV есть доступ отовсюду же

Andor
10.05.2018
08:37:59
ты же сказал что у тебя он локальный

Андрей
10.05.2018
08:38:22
хм, значит что-то я еще не поднимаю в терминологии

Valentin
10.05.2018
08:38:59
локальный тоже можно шарить по сети )

Banschikov
10.05.2018
08:39:01
но по умолчанию к PV есть доступ отовсюду же
Но когда энода с PV скончается до доступ к нему пропадет) А разделяемый сторадж будет всегда доступен

Андрей
10.05.2018
08:39:24
хм, как же тогда его пошарить в кластере правильно?

Andor
10.05.2018
08:39:31
локальный тоже можно шарить по сети )
так чтобы кубер это понимал?

Valentin
10.05.2018
08:39:51
не

Valentin
10.05.2018
08:40:20
чтобы кубик понимал, надо разделяемое хранилище, верно

Andor
10.05.2018
08:40:23
ну базу данных хранить в nfs это вообще забавное развлечение

Андрей
10.05.2018
08:40:46
ну базу данных хранить в nfs это вообще забавное развлечение
вот да, благо среда тестовая, скорость не критична

Google
Андрей
10.05.2018
08:40:56
Но спасибо, пойду изучать эти вещи :)

Andor
10.05.2018
08:41:08
а openebs я сам тоже планирую потыкать пальцем

Banschikov
10.05.2018
08:41:23
ну базу данных хранить в nfs это вообще забавное развлечение
Я пробовал и у меня были какие то непонятные глюки, после падения ноды.

В обще в k8s есть провижеонер который так и назыается nfs-storage

Андрей
10.05.2018
08:43:49
а statefullset между нодами как живет, кто-нибудь проверял с бд?

Banschikov
10.05.2018
08:45:55
а statefullset между нодами как живет, кто-нибудь проверял с бд?
Я проверял с локальными стораджами. После того как убивал одну ноду с экземпяром statefullset, то этот кхемпляр уже не запускался, что собственно и логично. Контроллер не смог найти pvc этого экземпляра и запустить его

Jango
10.05.2018
09:30:50
Господа, вопрос по работе kubespray с coreos. После завершения деплоя в ~/.kube/config остается не указан адрес кластера. Соответственно с рабочей машинки кластер через kubectl недоступен. Я включил опцию kubectl_localhost: true но это не помогло. Если захожу на ноду и делаю на ней kubectl get nodes ноды отображаются. Системные контейнеры зараненны. Куда смотреть\что ковырять?

Andor
10.05.2018
09:32:12
Наверное адрес апи сервера

Jango
10.05.2018
09:35:32
Наверное адрес апи сервера
curl 127.0.0.1:8080/api { "kind": "APIVersions", "versions": [ "v1" ], "serverAddressByClientCIDRs": [ { "clientCIDR": "0.0.0.0/0", "serverAddress": "10.10.101.135:6443" } ] } serverAddress должен быть внешним, верно?

Страница 555 из 958