@kubernetes_ru

Страница 683 из 958
Andrey
13.07.2018
13:51:10
вобщем вопрос остаётся. Чем же заменить rollout status? Ну или как делать scale+set image атомарно, чтоб rollout начался по честному

как вариант, можно один под вне деплоя запустить, с restart=Never, наверное, и посмотреть, как оно

чёт я теряюсь

Alexey
13.07.2018
14:23:13
Да. 1 в параметрах
видимо какая то хрень с iptables после сброса правил - все завелось только сейчас вопрос: как правильно настроить правила в фаерволе ? systemctl stop kubelet systemctl stop docker iptables --flush iptables -tnat --flush systemctl start kubelet systemctl start docker

Google
Andrey
13.07.2018
14:23:46
Andor
13.07.2018
14:23:54
А почему сначала кубелет, а потом докер запускаешь?

Dmytro
13.07.2018
15:26:18
Выглядит мегакостыльно, может лучше сразу научить девелоперов делать 3 step migrations?

Бекап базы, рестор, даунтайм вот это всё

А если ошибка при ресторе базы то что делать? И ещё куча подобных вопросов

Andrey
13.07.2018
15:40:33
господа, а как использование дисков конкретными подами мониторить? с местом разобрался, а вот IOPS не знаю, как получить

Andrey
13.07.2018
15:45:04
Выглядит мегакостыльно, может лучше сразу научить девелоперов делать 3 step migrations?
нет. даунтайм дешевле. А ошибки в любом случае обрабатывать надо.

опять же, ошибки надо обрабатывать

Slava
13.07.2018
15:47:52
помогите советом: есть два деплоймента (postgresql, httpd) и сервисы под оба деплоймента, для postgresql (port 5432) назначается endpoint, для httpd (port 80) - нет. куда копать?

Andrey
13.07.2018
15:48:38
селекторы проверь у сервиса

Slava
13.07.2018
15:48:53
кофиги идентичны, только name и label отличаются

Alexey
13.07.2018
15:50:01
еще вопрос: запустил дашборд, не получаетсья авторизоваться. логи с пода 2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56022 with 200 status code 2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Incoming HTTP/1.0 GET /api/v1/login/status request from 10.244.0.1:56028: {} 2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56028 with 200 status code 2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Incoming HTTP/1.0 GET /api/v1/csrftoken/login request from 10.244.0.1:56030: {} 2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56030 with 200 status code 2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Incoming HTTP/1.0 POST /api/v1/login request from 10.244.0.1:56036: { "kubeConfig": "", "password": "", "token": "...", "username": "" } 2018/07/13 15:07:25 [2018-07-13T15:07:25Z] Outcoming response to 10.244.0.1:56036 with 200 status code 2018/07/13 15:07:26 [2018-07-13T15:07:26Z] Incoming HTTP/1.0 GET /api/v1/login/status request from 10.24

Google
Slava
13.07.2018
15:53:56
селекторы проверь у сервиса
ну и селекторы тоже

Andrey
13.07.2018
15:56:54
a readiness probe под проходит?

Slava
13.07.2018
16:00:52
то есть успевает ли у pod наступить статус Ready=true ?

a readiness probe под проходит?
почитал доки, надо попробовать, спасибо за наводку

Если readiness probe не наступает, в какую сторону дальше копать? Сам сервер внутри пода работает, если что: wget http://localhost/test_file отдаёт файлик

Andrey
13.07.2018
16:28:45
Извне его помучай, из другого пода там

Slava
13.07.2018
16:29:31
Так postgresql точно так же поднял - работает

Но nslookup выдаёт инфу по хостнэйму

Andrey
13.07.2018
16:33:24
Ты запрос на сервак сам извне сделай

Dmytro
13.07.2018
16:35:14
Из другого пода ничего не увидишь если он нот реди

Попробуй тот же контейнер запусти локально и извне контейнера дернуть урл

Slava
13.07.2018
16:36:56
Ты запрос на сервак сам извне сделай
Не запрашивается, в том то и дело, ибо endpoint пустой

Andrey
13.07.2018
16:37:03
Из другого пода ничего не увидишь если он нот реди
Дык это, вроде же имена подов тоже резолвятся

Я это имел ввиду

Slava
13.07.2018
16:37:16
А причина непонятна

Andrey
13.07.2018
16:37:24
Или по ip его, не суть важно

Slava
13.07.2018
16:40:03
Andrey
13.07.2018
16:40:08
Да

Google
Slava
13.07.2018
16:40:20
Не пингует)

Andrey
13.07.2018
16:40:32
Вгетом запрос

Slava
13.07.2018
16:40:47
То же самое

Andrey
13.07.2018
16:40:52
Вооо

Slava
13.07.2018
16:41:14
причина?)

Andrey
13.07.2018
16:41:42
Кривая конфигурация сервера, который слушает на loopback-интерфейсе

Slava
13.07.2018
16:42:06
Хм

То есть смотреть в сам докер-образ?

Andrey
13.07.2018
16:52:12
В конфиг сервака, с которого ты получаешь файло

Slava
13.07.2018
17:01:39
создал под на основе другого образа (nginx) - поведение такое же. НО: из другого пода мой таргет-под пингуется по IP пода (192.168.77.52), по ClusterIP (10.101.201.233) пинга нет, nslookup резолвит сервис по имени и даёт ClusterIP

Andrey
13.07.2018
17:04:16
ClusterIP - это адрес сервиса

Бери адрес пода

Slava
13.07.2018
17:06:00
теперь задача: есть сервисА, и ему надо видеть nginx по хостнейму, для этого поднимаю service для nginx-пода, но пинга нет

или мне сервис не нужен для этих целей?

вопрос: а если ужо есть системный (kube-system) сервис на 80-м порту, то может ли быть это причиной?

Slava
13.07.2018
17:57:26
Alexey
13.07.2018
17:58:04
без авторизации - интерфейс отображаеться, но сделать в нет ничего нельзя ?

Google
Lasto
13.07.2018
18:00:49
Привет, кто то использует Ранчер 2.0? Интересует возможность управления нескольких кластеров централизованно

Slava
13.07.2018
18:00:59
Сходи к нему по https

Даже без ингресс там есть самоподписанные серты

У меня он в респонсе на логин ругался на то, что не секюрно к нему хожу

Dmytro
13.07.2018
21:53:27
теперь задача: есть сервисА, и ему надо видеть nginx по хостнейму, для этого поднимаю service для nginx-пода, но пинга нет
Так сервис не может пинговаться, это правило в iptables. Проверяй телнетом или неткатом на нужный порт

Tores
14.07.2018
09:31:31
Прокси не работает,, он рулит созданием правил, а прокси в свою очередь на cni завязан, имхо такая связка га любой ноде

Admin
ERROR: S client not available

Slava
14.07.2018
09:50:32
да, только он работает) но как-то спустя рукава

для этого создам правило, для того нет

Alex Milushev
14.07.2018
10:26:47
для этого создам правило, для того нет
Проверь логи прокси, у него возможно прав нету на доступ к эндпоинтам api

Slava
14.07.2018
10:30:00
а можо его как-то ребутнуть с помощью kubectl ? из последнего вижу только нечто про кэш

https://pastebin.com/jSBz7tp3

https://pastebin.com/jSBz7tp3
это весь лог пода kube-proxy

экспериментирую тут: 1) когда-то пару дней назад возможно криво создал деплоймент с сервисом (сервис без эндпойнта поднялся) с конкретным лэйблом и именем (пусть будет app1) 2) сегодня с таким же ровно конфигом только с другим лэйблом и именем (пусть будет app2) поднимаю деплоймент с сервисом - всё работает 3) пытаюсь по новой со старым лэйблом и именем - не работает, эндпойнт не назначается

где-то засел какой-то злобный кэш, видимо

и вот в kube-proxy, думаю, речь про него

что надо подредактировать, чтобы изменить --service-node-port-range ?

хочется по 443 до кластера стучаться

Google
Slava
14.07.2018
16:08:41
можно конкретней?

у меня есть nginx-ingress-controller , у него 443 мэпится на 30541

есть ingress для сервиса, там указан hostname + tls

стучусь к сервису как https://app.hostname.com:30541

Crypt
14.07.2018
16:10:13
Сервисы в режиме NodePort только 3хххх порты юзают, нужно поверх ingress ставить с ssl, чтобы по 443 к сервисам ходить

Slava
14.07.2018
16:11:03
пытался у nginx-ingress-controller поменять nodePort на 443 - не вышло

Crypt
14.07.2018
16:11:41
А сервис ингресса запущен?

Slava
14.07.2018
16:12:47
который за ingress'ом лежит? то есть backend для ингреса?

зы: могу тупить, ибо с кубом не так близко знаком

Юрий
14.07.2018
16:13:42
Ingress контроллер ставьте daemonset-ом и ему давайте host network

Буклет слушать на 80 и 443

*будет

Slava
14.07.2018
16:14:32
сейчас состояние вот такое nginx-ingress-controller LoadBalancer 10.106.253.138 <pending> 80:32445/TCP,443:31374/TCP 5d nginx-ingress-default-backend ClusterIP 10.106.71.165 <none> 80/TCP 5d

спасибо!

попробую

Crypt
14.07.2018
16:15:26
Я короче по этой схеме ставил - https://kubernetes.github.io/ingress-nginx/deploy/#baremetal Взлетело....

Slava
14.07.2018
16:15:41
гранд мерси

Crypt
14.07.2018
16:15:45
там кроме контроллера и дефолтного бэкенда нужно еще сам инжинкс пустить

Страница 683 из 958