@kubernetes_ru

Страница 208 из 958
Роман
13.07.2017
07:20:54
О. точно. Я думал, неймспейсы изолируют сервисы.

ivan
13.07.2017
07:35:56
изолируют же network policy

если их не заюзать то доступно, или не?

Khramov
13.07.2017
07:39:51
Да

Google
Denis
13.07.2017
08:09:12
А кто нибудь знает про похожий чатик только зарубежный?

Khramov
13.07.2017
08:09:39
В слаке я только нашел

В телеграме не видел, хотя искал

Роман
13.07.2017
08:32:28
А как реализуются контейнеры, которые выполняются один раз за деплой и завершают свою работу? Например, мне нужно накатить миграции в бд.

При помощи Job, как я понял.

Maksim
13.07.2017
08:39:26
ага

job создаёт контейнер тот выполняет свою функцию и на exit 0 помирает

Khramov
13.07.2017
08:46:34
народ, какая может быть причина что в подах нет интернета, есть только в системных

Dmitry
13.07.2017
08:52:28
Flannel + iptables не дружит

Denis
13.07.2017
08:56:23
А как чаще всего делят среды? Один кластер для test/stage и один для прода? У кого как сделано?

Khramov
13.07.2017
08:57:38
2 куба, 1 на sandbox'e и 1 на проде

Victor
13.07.2017
09:13:56
да лучше отдельно

Google
Роман
13.07.2017
09:14:18
А всё-таки логирование. В докере я пропичывал драйвер gelf. А в кубере, как я понял, логи хранятся в файлах и напрямую отправлять логи из контейнеров в приложение, которое будет их обрабатывать, не реализовано?

Роман
13.07.2017
09:20:22
Жаль. Что-то не православно как-то сначала писать в файлы, потом эти файлы читать, а потом ещё и в базу складывать.

Fike
13.07.2017
09:24:26
Там же с fluentd подвязки, нет?

Роман
13.07.2017
09:27:38
Там же с fluentd подвязки, нет?
Он же тоже файлы читает. Во многих инструментах, на просторах интернет, используется именню fluent. Но при этом монтируются каталоги с хост системы.

Alexey
13.07.2017
09:29:16
Жаль. Что-то не православно как-то сначала писать в файлы, потом эти файлы читать, а потом ещё и в базу складывать.
У лог плагинов докера есть парочка проблем, после которых вообще не хочется пользоваться ими. Так что это в некоторых ситуациях неплохое решение.

Alexey
13.07.2017
09:30:04
Если нужен будет мультилайн, то с лог плагинами про него можно забыть.

При использование DNS в лог драйверах(для сервис дискавери, к примеру) он резолвит его только на старте контейнера и случается две траблы: 1) Если поменяется IP собиралки логов, то логи будут идти по старому маршруту в /dev/null прямиком. 2) Если DNS запись не резолвится(например health check не проходит, инциализируется собиралка лого и сервис дискавери пока не отдаёт тебе DNS запись), то контейнеры будут просто падать.

На эту тему есть ишью обмусоленное давно.

Fike
13.07.2017
09:51:35
И что с файлами-то не так? Вы хотите неотправленные логи держать в памяти?

Роман
13.07.2017
10:05:22
И что с файлами-то не так? Вы хотите неотправленные логи держать в памяти?
Будет два места, в которых хранятся логи - в файлах и в эластике. Или fluent очищает файлы?

Alexey
13.07.2017
10:48:49
Будет два места, в которых хранятся логи - в файлах и в эластике. Или fluent очищает файлы?
Докер демон очищает. У json-file плагина есть возможность указать максимальный размер лог файла. Да и logrotate никто не отменял :)

https://docs.docker.com/engine/admin/logging/json-file/

Роман
13.07.2017
10:50:14
https://docs.docker.com/engine/admin/logging/json-file/
Как в кубере прописать параметры командной строки докера?

Alexey
13.07.2017
10:50:50
Можно в daemon.json настроить попробовать.

Это будет распространяться на все контейнеры, если не переписано при запуске отдельного контейнера

Роман
13.07.2017
10:55:10
Ну и ещё момент, связанный с файлами: какой оверхед такой схемы? Если докер отправляет логи напрямую на udp порт, то в данном случае сначала пишем в файлы, а потом только записываем в эластик - лишнее звено.

Fike
13.07.2017
10:57:52
какой оверхед от чтения файлов

Google
Fike
13.07.2017
10:57:59
экономия на спичках

Роман
13.07.2017
10:59:52
какой оверхед от чтения файлов
100 тысяч пользователей одновременно делают по 5-10 запросов в секунду.

Fike
13.07.2017
11:00:06
это не 100 тысяч файлов

если у вас полмиллиона-миллион запросов в секунду (чего, конечно, нет), то логи вы вообще не заметите

Роман
13.07.2017
11:01:49
Ну ладно. В целом убедили)

Alexey
13.07.2017
11:02:08
Плюсую котика, он дело говорит.

Чот тут все котики дело говорят. Слишком много вас)

Pavel
13.07.2017
11:08:22
Alexey
13.07.2017
11:09:10
Сказал Павел — сова.

KrivdaTheTriewe
13.07.2017
11:10:29
всем приветик

Denis
13.07.2017
11:10:38
привет

Paul
13.07.2017
11:14:11
Paul
13.07.2017
11:14:53
Сказал Павел — сова.
Павел-батарейка поддерживает

Alexey
13.07.2017
11:15:25
А я Лёша... Просто Лёша...

Ivan
13.07.2017
11:21:47
А я Лёша... Просто Лёша...
Песня такая есть. "Лёша я или не Лёша"

Paul
13.07.2017
11:22:06
Ivan
13.07.2017
11:22:42
ты кетчуп.
Эка ты его одновременно овощем и биомассой назвал

Paul
13.07.2017
11:23:06
Эка ты его одновременно овощем и биомассой назвал
это он сам себя назвал. Реально в кетчупе очень мало био.

Ivan
13.07.2017
11:23:25
Кстати, кетчуп - это же смуззи

Хипстерная биомасса из овоща. О_о

Google
Artem
13.07.2017
11:24:51
Кетчуп термически обрабатывают вроде же, значит не смузи

Ivan
13.07.2017
11:25:30
Кетчуп - это хипстоватая биомасса из овоща, приготовленная на котле

Denis
13.07.2017
12:29:27
Допустим у меня есть два кластера куба, есть один yaml с описанием Service без селектора, например БД вне кластера. Встает вопрос как настроить Endpoints в разных средах? Использовать для них разные конфиги или же можно еще дальше абстрагировать через какой нибудь ConfigMap?

Хочется по максимуму реюзать конфиги в двух средах

Maksim
13.07.2017
12:31:04
никак

в кубере endpoint только внутренний

внешние сервисы они предлагаю настроивать через cname у сервиса

Admin
ERROR: S client not available

Ivan
13.07.2017
12:33:11
Давно меня так не оскорбляли...
Я не утверждал, что ты - кетчуп, не надо тут)

Роман
13.07.2017
12:33:48
User "system:serviceaccount:nginx-ingress:nginx-ingress-serviceaccount" cannot create configmaps in the namespace "nginx-ingress". (post configmaps) Что-то не пойму это сообщение. Clusterrole содержит post configmaps

Maksim
13.07.2017
12:34:12
externalName:

Alexey
13.07.2017
12:36:40
Я не утверждал, что ты - кетчуп, не надо тут)
Ну может я хипстоватая, но не биомасса точно...)

Khramov
13.07.2017
12:57:51
Народ, а где вы храните все конфиги деплоев для ваших приложений? Когда их парочка то ничего страшного, а когда много то уже проблема

Ivan
13.07.2017
12:59:13
Denis
13.07.2017
13:28:18
в кубере endpoint только внутренний
Всмысле? Я только что настроли Endpoints чтобы они указывали на сервис вне кубера --- apiVersion: v1 kind: Service metadata: name: billing spec: ports: - port: 80 --- apiVersion: v1 kind: Endpoints metadata: name: billing subsets: - addresses: - ip: 10.12.90.31 ports: - port: 8000

Maksim
13.07.2017
13:28:30
О

Denis
13.07.2017
13:28:33
Это работает

Google
Maksim
13.07.2017
13:28:42
через edit endpoint,

,

?

Denis
13.07.2017
13:28:56
Вопрос как не хардкодидь адреса в конфиге Endpoints

?
не понял вопроса )

Maksim
13.07.2017
13:29:23
Ну в доке по куберу говорится берите ExternalName в svc

Как ты настроил ендпоин на внешний сервис

я в принцепе понял

Artem
13.07.2017
13:30:19
ендпойнты всегда работали с внешними адресам

Denis
13.07.2017
13:30:29
Сервис без селектора плюс одноименный эндпоинтс

Artem
13.07.2017
13:30:36
удобно так ссылаться на внешнюю бд например

Denis
13.07.2017
13:30:51
Да, вопрос как не хардкодить порт и вдрес

Roman
13.07.2017
13:36:09
во у меня вопрос как внекубернета хардкодить порт, в сварме, что бы nginx внутрь не пихать

Artem
13.07.2017
13:58:34
чет не понял или я что-то не догоняю

в курбнетес или в сварме, как это вместе совмещается?

Михаил
13.07.2017
14:32:33
Zon
13.07.2017
14:49:13
сколько букв то
curl -s https://rackn.com/ | wc -m 82153

bebebe
13.07.2017
14:55:42
curl -s https://rackn.com/ | wc -m 82153
lynx --dump https://rackn.com/ | wc -c 6384

@SinTeZoiD читайте лучше мои буквы

их меньше

Михаил
13.07.2017
14:56:46

Страница 208 из 958