
Andrey
13.07.2018
13:51:10
вобщем вопрос остаётся. Чем же заменить rollout status? Ну или как делать scale+set image атомарно, чтоб rollout начался по честному
как вариант, можно один под вне деплоя запустить, с restart=Never, наверное, и посмотреть, как оно
чёт я теряюсь

Alexey
13.07.2018
14:23:13
Да. 1 в параметрах
видимо какая то хрень с iptables
после сброса правил - все завелось
только сейчас вопрос: как правильно настроить правила в фаерволе ?
systemctl stop kubelet
systemctl stop docker
iptables --flush
iptables -tnat --flush
systemctl start kubelet
systemctl start docker

Google

Andrey
13.07.2018
14:23:46

Andor
13.07.2018
14:23:54
А почему сначала кубелет, а потом докер запускаешь?

Dmytro
13.07.2018
15:26:18
Выглядит мегакостыльно, может лучше сразу научить девелоперов делать 3 step migrations?
Бекап базы, рестор, даунтайм вот это всё
А если ошибка при ресторе базы то что делать? И ещё куча подобных вопросов

Andrey
13.07.2018
15:40:33
господа, а как использование дисков конкретными подами мониторить? с местом разобрался, а вот IOPS не знаю, как получить

Andrey
13.07.2018
15:45:04
опять же, ошибки надо обрабатывать

Slava
13.07.2018
15:47:52
помогите советом: есть два деплоймента (postgresql, httpd) и сервисы под оба деплоймента, для postgresql (port 5432) назначается endpoint, для httpd (port 80) - нет. куда копать?

Andrey
13.07.2018
15:48:38
селекторы проверь у сервиса

Slava
13.07.2018
15:48:53
кофиги идентичны, только name и label отличаются


Alexey
13.07.2018
15:50:01
еще вопрос:
запустил дашборд, не получаетсья авторизоваться. логи с пода
2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56022 with 200 status code
2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Incoming HTTP/1.0 GET /api/v1/login/status request from 10.244.0.1:56028: {}
2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56028 with 200 status code
2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Incoming HTTP/1.0 GET /api/v1/csrftoken/login request from 10.244.0.1:56030: {}
2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56030 with 200 status code
2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Incoming HTTP/1.0 POST /api/v1/login request from 10.244.0.1:56036: {
"kubeConfig": "",
"password": "",
"token": "...",
"username": ""
}
2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56036 with 200 status code
2018/07/13 15:07:26 [2018-07-13T15:07:26Z] Incoming HTTP/1.0 GET /api/v1/login/status request from 10.24

Google

Slava
13.07.2018
15:53:56

Andrey
13.07.2018
15:56:54
a readiness probe под проходит?

Slava
13.07.2018
16:00:52
то есть успевает ли у pod наступить статус Ready=true ?
Если readiness probe не наступает, в какую сторону дальше копать? Сам сервер внутри пода работает, если что: wget http://localhost/test_file отдаёт файлик

Andrey
13.07.2018
16:28:45
Извне его помучай, из другого пода там

Slava
13.07.2018
16:29:31
Так postgresql точно так же поднял - работает
Но nslookup выдаёт инфу по хостнэйму

Andrey
13.07.2018
16:33:24
Ты запрос на сервак сам извне сделай

Dmytro
13.07.2018
16:35:14
Из другого пода ничего не увидишь если он нот реди
Попробуй тот же контейнер запусти локально и извне контейнера дернуть урл

Slava
13.07.2018
16:36:56

Andrey
13.07.2018
16:37:03
Я это имел ввиду

Slava
13.07.2018
16:37:16
А причина непонятна

Andrey
13.07.2018
16:37:24
Или по ip его, не суть важно

Slava
13.07.2018
16:40:03

Andrey
13.07.2018
16:40:08
Да

Google

Slava
13.07.2018
16:40:20
Не пингует)

Andrey
13.07.2018
16:40:32
Вгетом запрос

Slava
13.07.2018
16:40:47
То же самое

Andrey
13.07.2018
16:40:52
Вооо

Slava
13.07.2018
16:41:14
причина?)

Andrey
13.07.2018
16:41:42
Кривая конфигурация сервера, который слушает на loopback-интерфейсе

Slava
13.07.2018
16:42:06
Хм
То есть смотреть в сам докер-образ?

Andrey
13.07.2018
16:52:12
В конфиг сервака, с которого ты получаешь файло

Slava
13.07.2018
17:01:39
создал под на основе другого образа (nginx) - поведение такое же.
НО: из другого пода мой таргет-под пингуется по IP пода (192.168.77.52), по ClusterIP (10.101.201.233) пинга нет, nslookup резолвит сервис по имени и даёт ClusterIP

Andrey
13.07.2018
17:04:16
ClusterIP - это адрес сервиса
Бери адрес пода

Slava
13.07.2018
17:06:00
теперь задача: есть сервисА, и ему надо видеть nginx по хостнейму, для этого поднимаю service для nginx-пода, но пинга нет
или мне сервис не нужен для этих целей?
вопрос: а если ужо есть системный (kube-system) сервис на 80-м порту, то может ли быть это причиной?

Alexey
13.07.2018
17:54:48


Andrey
13.07.2018
17:55:57

Slava
13.07.2018
17:57:26

Alexey
13.07.2018
17:58:04
без авторизации - интерфейс отображаеться, но сделать в нет ничего нельзя ?

Google

Lasto
13.07.2018
18:00:49
Привет, кто то использует Ранчер 2.0? Интересует возможность управления нескольких кластеров централизованно

Slava
13.07.2018
18:00:59
Сходи к нему по https
Даже без ингресс там есть самоподписанные серты
У меня он в респонсе на логин ругался на то, что не секюрно к нему хожу

Dmytro
13.07.2018
21:53:27

Slava
14.07.2018
09:23:37

Tores
14.07.2018
09:31:31
Прокси не работает,, он рулит созданием правил, а прокси в свою очередь на cni завязан, имхо такая связка га любой ноде

Admin
ERROR: S client not available

Slava
14.07.2018
09:50:32
да, только он работает) но как-то спустя рукава
для этого создам правило, для того нет

Alex Milushev
14.07.2018
10:26:47

Slava
14.07.2018
10:30:00
а можо его как-то ребутнуть с помощью kubectl ?
из последнего вижу только нечто про кэш
https://pastebin.com/jSBz7tp3
экспериментирую тут:
1) когда-то пару дней назад возможно криво создал деплоймент с сервисом (сервис без эндпойнта поднялся) с конкретным лэйблом и именем (пусть будет app1)
2) сегодня с таким же ровно конфигом только с другим лэйблом и именем (пусть будет app2) поднимаю деплоймент с сервисом - всё работает
3) пытаюсь по новой со старым лэйблом и именем - не работает, эндпойнт не назначается
где-то засел какой-то злобный кэш, видимо
и вот в kube-proxy, думаю, речь про него
что надо подредактировать, чтобы изменить --service-node-port-range ?
хочется по 443 до кластера стучаться

Google

Crypt
14.07.2018
16:08:08

Slava
14.07.2018
16:08:41
можно конкретней?
у меня есть nginx-ingress-controller , у него 443 мэпится на 30541
есть ingress для сервиса, там указан hostname + tls
стучусь к сервису как https://app.hostname.com:30541

Crypt
14.07.2018
16:10:13
Сервисы в режиме NodePort только 3хххх порты юзают, нужно поверх ingress ставить с ssl, чтобы по 443 к сервисам ходить

Slava
14.07.2018
16:11:03
пытался у nginx-ingress-controller поменять nodePort на 443 - не вышло

Crypt
14.07.2018
16:11:41
А сервис ингресса запущен?

Slava
14.07.2018
16:12:47
который за ingress'ом лежит? то есть backend для ингреса?
зы: могу тупить, ибо с кубом не так близко знаком

Юрий
14.07.2018
16:13:42
Ingress контроллер ставьте daemonset-ом и ему давайте host network
Буклет слушать на 80 и 443
*будет

Slava
14.07.2018
16:14:32
сейчас состояние вот такое
nginx-ingress-controller LoadBalancer 10.106.253.138 <pending> 80:32445/TCP,443:31374/TCP 5d
nginx-ingress-default-backend ClusterIP 10.106.71.165 <none> 80/TCP 5d
спасибо!
попробую

Crypt
14.07.2018
16:15:26
Я короче по этой схеме ставил - https://kubernetes.github.io/ingress-nginx/deploy/#baremetal
Взлетело....

Slava
14.07.2018
16:15:41
гранд мерси

Crypt
14.07.2018
16:15:45
там кроме контроллера и дефолтного бэкенда нужно еще сам инжинкс пустить