
Andrey
20.02.2018
16:10:49
Коллеги, подскажите, никто не встречался с периодическими проблемами резолва внешних и внутренних доменов через kube-dns? Как-то диагностировали?
Ошибки сопровождаются стандартным django.db.utils.OperationalError: could not translate host name "postgres" to address: Temporary failure in name resolution.

Andrey
20.02.2018
16:12:53

sherzod
20.02.2018
16:13:37
сделал через стандартные средства drone (забил полученный ключ для сервис аккаунта)

Google

Let Eat
20.02.2018
19:44:01
Залили вторую версию, сам еще не прочитал https://docs.google.com/document/d/1q1UGAIfmOkLSxKhVg7mKknplq3OTDWAIQGWMJandHzg/mobilebasic

M
20.02.2018
20:17:46
ребят расскажите что за сервис тип loadbalancer в k8s
я как понял это не касается локального кластера если я его сам поднял

anton
20.02.2018
20:24:02
я как понял это не касается локального кластера если я его сам поднял
Type LoadBalancer
On cloud providers which support external load balancers, setting the type field to "LoadBalancer" will provision a load balancer for your Service.
вроде ты все правильно понял, но я не настоящий доктор.
я дальше локального minikube не сильно продвинулся, но в процессе..

M
20.02.2018
20:25:15

Vadim
20.02.2018
20:26:57

M
20.02.2018
20:27:40
и где ошибку прочитать а то у меня висит до сих пор pending а причину pending я не знаю

anton
20.02.2018
20:28:25

Vadim
20.02.2018
20:28:26

M
20.02.2018
20:29:01
кажется будто kubernetes спасёт мир

Google

Михаил
20.02.2018
20:31:28

M
20.02.2018
20:32:34

Михаил
20.02.2018
20:33:05
ты опять тролишь
1)А что, нельзя?
2)нет, смотрю на всю эту истерику вокруг куба и мне грустно

M
20.02.2018
20:33:19

Михаил
20.02.2018
20:34:08
и косяки в приложениях
ок, не истерика
Вижу хайп. DevOps конфа куб куб куб

Alex Milushev
20.02.2018
20:42:00
Хм, куб упрощает многие вещи но закрывать им косяки? Не думаю.

Anton
20.02.2018
20:43:09

Paul
20.02.2018
20:43:27

Dmitry
20.02.2018
20:46:51
>Production-Grade Container Orchestration
А я вот решил пару месяцев назад кубер в проде пощупать, и сегодня сразу два issue из багтрекера докера словил, в итоге две ноды их трех штормило.
И к самому куберу нареканий нету, и все равно осадочек остался.

Михаил
20.02.2018
20:47:58

anton
20.02.2018
20:48:17

Anton
20.02.2018
20:48:50

Dmitry
20.02.2018
20:50:50
Первая связана с meltdown-патчем ядра, выше тут кидали ссылку, выражалось в том что ноду штормило/контейнеры рестаровали.
Сдрейнил плохую, поды уехали на другую и она словила это: https://github.com/moby/moby/issues/32827 - кронджобы запускались и зависали, инит-контейнеры не могли завершиться.
Я правда неподдерживаемый докер 17.12/17.09 юзаю, но вроде и в 1.13/17.03 багов полно

Михаил
20.02.2018
20:52:28

Vadim
20.02.2018
20:57:22
в 1.12/1.13 еще терпимо

anton
20.02.2018
21:14:00
коллеги, а подскажите пожалуйста начинающему..
сделал я statefulset, прикрутил к нему persistent volume и вроде бы все хорошо, но кое-что меня тревожит..
правильным ли будет в этот сторадж положить какой-нибудь файлик и под livenessProbe проверять его наличие? тогда в ситуации, пропажи стораджа можно будет попробовать передеплоить под?
или существует какой-то другой способ?
цель - не дать поду крутиться без стораджа...

Google

Paul
20.02.2018
21:27:19

anton
20.02.2018
21:28:23

Paul
20.02.2018
21:31:02
моему утверждению не стоит верить на слово – его лучше проверить. Но вообще вы описали под и сторадж является частью этого пода. А значит – при исчезновении стораджа под должен быть пересоздан, это логично

anton
20.02.2018
21:38:29
похоже я не всю информацию предоставил, и может быть это имеет значение..
на самом деле у пода указан не сторадж, а pvc

Paul
20.02.2018
21:39:03

anton
20.02.2018
21:54:09

Vadim
20.02.2018
21:57:46

Dmytro
20.02.2018
23:26:59

Aleksandr
21.02.2018
00:36:39

Maksim
21.02.2018
04:18:19

Thirumalai
21.02.2018
04:18:29
http://itmithran.com/monitoring-docker-containers-using-built-commands/

Andor
21.02.2018
06:10:52

bebebe
21.02.2018
06:28:51

Let Eat
21.02.2018
08:58:32

Vadim
21.02.2018
09:00:25

Let Eat
21.02.2018
09:02:38
Мне кажется если PV напрямую в поде использовать, то не даст.


anton
21.02.2018
09:15:38
Вы же знаете куда в контейнере монтируется сторадж :) так что можете сказать где файлик
не совсем знаю, ведь если у меня точка монтирования какая-нибудь /mnt/datadir и делаю там файлик через touch healthy, я изначально не знаю, оно создаст его в фс контейнера или в примонтированный сторадж (вдруг он не примонтировался)
предыстория такая:
есть брокер VerneMQ, который сохраняет сообщения и подписки в LevelDB. мне хочется это положить в PV, что бы не потерять при решедулинге пода.
но обратил внимание, если оторвать PV, процесс VerneMQ внутри контейнера продолжает себе жить, срыгивая ошибки в лог... поэтому думаю над способом как прибить под, у которого отвалился PV, без модификации сорцов.
я только начал этот тернистый путь, и думал может есть какие-то стандартные способы решения, но пока не нагуглил.

Google


Let Eat
21.02.2018
09:19:34
не совсем знаю, ведь если у меня точка монтирования какая-нибудь /mnt/datadir и делаю там файлик через touch healthy, я изначально не знаю, оно создаст его в фс контейнера или в примонтированный сторадж (вдруг он не примонтировался)
предыстория такая:
есть брокер VerneMQ, который сохраняет сообщения и подписки в LevelDB. мне хочется это положить в PV, что бы не потерять при решедулинге пода.
но обратил внимание, если оторвать PV, процесс VerneMQ внутри контейнера продолжает себе жить, срыгивая ошибки в лог... поэтому думаю над способом как прибить под, у которого отвалился PV, без модификации сорцов.
я только начал этот тернистый путь, и думал может есть какие-то стандартные способы решения, но пока не нагуглил.
К моменту запуска пода оно точно примонтировано. И я очень сильно сомневаюсь, что вообще возможно отмонтировать из контейнера вольюм на лету. Я пока на телефоне, но удаление PV видится мне чем то нереальным. Почти 100% уверен, что если оно реально удаляется, то под пересоздается. Пока на телефоне, но сегодня проверю
не совсем знаю, ведь если у меня точка монтирования какая-нибудь /mnt/datadir и делаю там файлик через touch healthy, я изначально не знаю, оно создаст его в фс контейнера или в примонтированный сторадж (вдруг он не примонтировался)
предыстория такая:
есть брокер VerneMQ, который сохраняет сообщения и подписки в LevelDB. мне хочется это положить в PV, что бы не потерять при решедулинге пода.
но обратил внимание, если оторвать PV, процесс VerneMQ внутри контейнера продолжает себе жить, срыгивая ошибки в лог... поэтому думаю над способом как прибить под, у которого отвалился PV, без модификации сорцов.
я только начал этот тернистый путь, и думал может есть какие-то стандартные способы решения, но пока не нагуглил.
Если PV удаляется, под не пересоздается и контейнер продолжает жить, то это мега бага


anton
21.02.2018
09:24:12

Let Eat
21.02.2018
09:29:13

Andrey
21.02.2018
09:29:18
оффтоп: ммм, а не напомните как решается проблема с "Permission denied" при монтировании volume в контейнер так как разные uid у юзеров? я как-то раньше решал а сейчас не могу вспомнить, нужна какая-нибудь отправная точка :)


Andor
21.02.2018
09:29:29
не совсем знаю, ведь если у меня точка монтирования какая-нибудь /mnt/datadir и делаю там файлик через touch healthy, я изначально не знаю, оно создаст его в фс контейнера или в примонтированный сторадж (вдруг он не примонтировался)
предыстория такая:
есть брокер VerneMQ, который сохраняет сообщения и подписки в LevelDB. мне хочется это положить в PV, что бы не потерять при решедулинге пода.
но обратил внимание, если оторвать PV, процесс VerneMQ внутри контейнера продолжает себе жить, срыгивая ошибки в лог... поэтому думаю над способом как прибить под, у которого отвалился PV, без модификации сорцов.
я только начал этот тернистый путь, и думал может есть какие-то стандартные способы решения, но пока не нагуглил.
а нельзя этот vernemq запатчить?

Let Eat
21.02.2018
09:29:43

Andor
21.02.2018
09:29:46

Andrey
21.02.2018
09:29:49
спасиб

anton
21.02.2018
09:31:01

Andor
21.02.2018
09:31:32
ну это знаешь "малой кровью" ака "костыли и подпорки" vs "правильное решение"

anton
21.02.2018
09:34:06
согласен.
мне просто не понятно было, что должно быть с подом, если вольюм пропал или стал нездоров.
на миникубе почему-то решедулинга не было. хотя может я дурак и делал что-то не так.
вечером попробую еще раз.

Andrey
21.02.2018
09:37:40
https://github.com/kubernetes/minikube/blob/5661ba0b5e2402e45a8cb766495cd34411139ca6/pkg/localkube/proxy.go
теперь понятно, откуда берется адрес 0 в записи лога о попытке пингануть /healthz

M
21.02.2018
09:47:17
ребята а расскажите как expose порт если это не cloud
я немного запутался

Anton
21.02.2018
09:48:10
service type: nodePort
или hostnetwork в pod
service externalIP

Google

Anton
21.02.2018
09:50:34
и еще наверное варианты есть

M
21.02.2018
10:04:48

Anton
21.02.2018
10:05:19
ну ты чего, опять ленишься загуглить kubernetes service type: nodeport?

M
21.02.2018
10:34:00