
Banschikov
09.05.2018
16:06:12
Еще в КРОК написали письмо

bebebe
09.05.2018
16:06:59
@pro_hosting
Вот тут ещё можно поспрашивать

Banschikov
09.05.2018
16:07:18

Google

Andor
09.05.2018
16:07:22
как будто амазон дешёвый

Banschikov
09.05.2018
16:07:48

Andor
09.05.2018
16:08:02
omg

Banschikov
09.05.2018
16:08:19

Aleksandr
09.05.2018
16:49:49
Посмотрите, пожалуйста, у вас по netstat -i | column -t на veth интерфейсах дропы есть?

bebebe
09.05.2018
16:55:07

Harry
09.05.2018
17:21:03
Коллеги, добрый вечер. Подскажите, насколько феншуйно и правильно деплоить штатными средствами Гитлаба? Я знаю, что часто применяют Dapp, но я не хочу плодить сущности. Может, в штатных средствах есть какие-то подводные камни и лучше сразу смотреть в сторону Dapp?

Ivan
09.05.2018
17:25:25
Мое впечатление штатные странные какието

bebebe
09.05.2018
17:31:54

Harry
09.05.2018
18:06:42
Хм, интересно, спасибо. Но я как-то сторонюсь helm-а. Он у меня не работает и я пока не думал о том, чтобы заставить его работать. Молодо-зелено ведь.

bebebe
09.05.2018
18:07:25

Harry
09.05.2018
18:30:37

Алексей
09.05.2018
18:33:38
Подскажите куда копать?
поднят ingress, настроен сервис
Если делаю curl с ноды на него по http - всё ок
если пытаюсь зайти через браузер с другой машины - ошибка 500
фаерволов нету, ошибка nginx'a вылетает?

Google

Harry
09.05.2018
18:35:24
Логи пода ingress контроллера смотреть

Алексей
09.05.2018
18:36:12
192.168.88.11 - [192.168.88.11] - - [09/May/2018:18:32:05 +0000] "GET /favicon.ico HTTP/1.1" 500 0 "- " "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/64.0.3282.186 Y aBrowser/18.3.1.1232 Yowser/2.5 Safari/537.36" 310 24.831 [cattle-system-cattle-service-443] 10.42.2. 3:443 0 24.831 500
получается что ему сервис отдаёт 500 ошибку

Harry
09.05.2018
18:37:10
Ну тогда смотрите логи пода сервиса

Alexander
09.05.2018
20:43:39
Новая книжка про актуальное :)

Виталий
10.05.2018
05:12:19
Не путаете? Копирайт стоит 2018 год, плюс несколько разделов про k8s.

Andrey
10.05.2018
05:12:40

Valentin
10.05.2018
05:15:00


Huan
10.05.2018
06:36:46
привет всем. подскажите плз. пытаюсь запустить прометеус в кубе и выдает такую ошибку:
May 10 08:34:39 kube-node3 kubelet[6797]: I0510 08:34:39.710789 6797 kuberuntime_manager.go:757] checking backoff for container "init-chown-data" in pod "prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a)"
May 10 08:34:39 kube-node3 kubelet[6797]: I0510 08:34:39.710939 6797 kuberuntime_manager.go:767] Back-off 5m0s restarting failed container=init-chown-data pod=prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a)
May 10 08:34:39 kube-node3 kubelet[6797]: E0510 08:34:39.710981 6797 pod_workers.go:186] Error syncing pod 6bc79c9f-53da-11e8-87a1-005056b2b12a ("prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a)"), skipping: failed to "StartContainer" for "init-chown-data" with CrashLoopBackOff: "Back-off 5m0s restarting failed container=init-chown-data pod=prometheus-prometheus-server-577dd55455-g9jzr_gitlab-managed-apps(6bc79c9f-53da-11e8-87a1-005056b2b12a)"
как пофиксить?


Konstantin
10.05.2018
06:41:25
Кстати на счёт GitLab. При установке helm из вебки GitLab постоянно ругается на недоступность репозитория alpine. Я понять не могу вообще как это дело дебажить? Логов, где есть что-то про helm не нашел

Valentin
10.05.2018
06:42:13

Konstantin
10.05.2018
07:05:39
А почему нет?
Хочется пощупать их общий pipeline

Nik
10.05.2018
08:17:18

Андрей
10.05.2018
08:22:49
Всем привет, задам глупый вопрос, который наверно уже поднимался раз так 10, но все-таки: никто бд не поднимал в кластере с хранением данных в PV? Поды-то перемещаются в другую ноду при отключении, а вот PV остается на месте. Как-то можно заставить реплицироваться PV между нодами?

No1
10.05.2018
08:23:47
кластерная фс?

Андрей
10.05.2018
08:24:05
в самом кластере или рядом?

Andor
10.05.2018
08:25:21
PV у тебя в чём?

Valentin
10.05.2018
08:25:22

Андрей
10.05.2018
08:25:55

Andor
10.05.2018
08:26:14
ну то есть они не могут переключаться между серверами

Google

Андрей
10.05.2018
08:27:02
Он оставляет PV на какой-либо ноде и с нее шарит, если я правильно механизм понял. Нода сдохла - PV тоже. :/

Banschikov
10.05.2018
08:27:16

Valentin
10.05.2018
08:27:45
БД какая? Постргес?

Андрей
10.05.2018
08:28:18
Разные есть, и постгрес, и персона/mysql
Пока сложно дается понимание statefulSet, это вместо подов/деплойментов, или вместо PV?

Valentin
10.05.2018
08:31:50
это вместо деплойментов
поды создаются, но только там, где они умерли в прошлый раз

Андрей
10.05.2018
08:32:28
Ага, и судя по докам надо сразу больше одного делать?

Valentin
10.05.2018
08:32:37
не обязательно

Андрей
10.05.2018
08:33:01
А если их 2 - они между собой синхронизируются?

Banschikov
10.05.2018
08:33:23

Andor
10.05.2018
08:33:44
зависит от PV на самом деле
могут и на другой ноде запуститься если PV может переехать

Valentin
10.05.2018
08:34:19

Andor
10.05.2018
08:34:46
поды сами ничего не умеют, контроллер их может перевезти если надо будет

Андрей
10.05.2018
08:35:10
А как быть с данными?

Andor
10.05.2018
08:35:19
данные в PV

Андрей
10.05.2018
08:35:42
Например, у меня есть PV с данными бд на ноде1, она отключилась, поды переехали, а PV - нет

Google

Valentin
10.05.2018
08:35:43
ну и бэкапить pv на уровне файловой системы - как вариант

Андрей
10.05.2018
08:36:12

Andor
10.05.2018
08:36:13

Андрей
10.05.2018
08:36:25
или все-таки они могут переехать, но не сразу?

Banschikov
10.05.2018
08:36:39

Valentin
10.05.2018
08:37:03

Banschikov
10.05.2018
08:37:05
Точнее сторадж который, к которому доступ есть со всех нод

Андрей
10.05.2018
08:37:29

Andor
10.05.2018
08:37:59
ты же сказал что у тебя он локальный

Андрей
10.05.2018
08:38:22
хм, значит что-то я еще не поднимаю в терминологии

Valentin
10.05.2018
08:38:59
локальный тоже можно шарить по сети )

Banschikov
10.05.2018
08:39:01

Андрей
10.05.2018
08:39:24
хм, как же тогда его пошарить в кластере правильно?

Andor
10.05.2018
08:39:31

Valentin
10.05.2018
08:39:51
не

Banschikov
10.05.2018
08:39:52

Valentin
10.05.2018
08:40:20
чтобы кубик понимал, надо разделяемое хранилище, верно

Andor
10.05.2018
08:40:23
ну базу данных хранить в nfs это вообще забавное развлечение

Андрей
10.05.2018
08:40:46

Google

Андрей
10.05.2018
08:40:56
Но спасибо, пойду изучать эти вещи :)

Andor
10.05.2018
08:41:08
а openebs я сам тоже планирую потыкать пальцем

Banschikov
10.05.2018
08:41:23
В обще в k8s есть провижеонер который так и назыается nfs-storage

Андрей
10.05.2018
08:43:49
а statefullset между нодами как живет, кто-нибудь проверял с бд?

Banschikov
10.05.2018
08:45:55

Jango
10.05.2018
09:30:50
Господа, вопрос по работе kubespray с coreos. После завершения деплоя в ~/.kube/config остается не указан адрес кластера. Соответственно с рабочей машинки кластер через kubectl недоступен.
Я включил опцию
kubectl_localhost: true
но это не помогло. Если захожу на ноду и делаю на ней
kubectl get nodes
ноды отображаются. Системные контейнеры зараненны. Куда смотреть\что ковырять?

Andor
10.05.2018
09:32:12
Наверное адрес апи сервера

Jango
10.05.2018
09:35:32
Наверное адрес апи сервера
curl 127.0.0.1:8080/api
{
"kind": "APIVersions",
"versions": [
"v1"
],
"serverAddressByClientCIDRs": [
{
"clientCIDR": "0.0.0.0/0",
"serverAddress": "10.10.101.135:6443"
}
]
}
serverAddress должен быть внешним, верно?