
Cyrill
12.05.2017
17:50:46
https://2ch.hk/b/arch/2016-06-22/res/130158006.html
хорошей пятницы?

Zon
12.05.2017
17:50:50
Хочу Веселье
https://github.com/kelseyhightower/kubernetes-the-hard-way развлекайся

Александр
12.05.2017
18:47:40
Подскажите как через API kubernetes (1.6) удалить deployment вместе с rs и pod?

Let Eat
12.05.2017
22:16:30
Сделайте kubectl —v=999 delete deploy xxx

Google

Let Eat
12.05.2017
22:18:48
Там в выводе будут все API запросы

Ochir
13.05.2017
12:52:07
Всем привет
у меня такой вопрос
Исходные данные: есть докер приложение, которому при запуске нужно задавать конфигурационный файл. возможно ли развернуть такое приложение на нескольких нодах с одним мастером, чтобы у каждой из нод были разные конфигурации?
смотрю на ConfigMaps
и пока не пойму как это можно реализовать
Привет всем!
Народ, а подскажите, какой из мануалов выкурить. Уже вроде исчитал доки, но не осиливаю.
Дано: Есть приложуха, почти все настройки которой можно задать через опции командной строки. Но есть настройка связи с бд, она только через файл
вроде такого:
/my/cool/app —db-shards=/path/to/shards.config
Нужно запустить N инстансов шардов db, количество затем изменяться не будет, а после запустить /my/cool/app, но так, чтобы был нагенерён правильный конфиг шардов.
Как это правильно то делать?
у меня получается похожая задача, только конфиги уже сгенерированы


Fike
13.05.2017
17:52:18
Можно отдельно деплоймент каждому инстансу делать, но понятно, что это решение так себе

Zon
13.05.2017
18:18:04
Нужно вытаскивать дискавери из конфигов

Andrey
13.05.2017
19:52:15

Ochir
13.05.2017
19:54:29

Andrey
13.05.2017
19:55:27
ну вот так, навскидку, не зная специфики, я бы порекомендовал посмотреть в сторону https://deis.com/workflow/

Denis
15.05.2017
12:18:19
А кто по каким причинам выбирал InfluxDB против Prometheus?
1. https://bitworking.org/news/2017/03/prometheus
2. http://blog.nobugware.com/post/2016/Telegraf_Prometheus_metrics_swiss_army_knife/
3. https://prometheus.io/docs/operating/configuration/#<kubernetes_sd_config

Google

Стас Щетинников
15.05.2017
12:22:02

Denis
15.05.2017
12:24:52
А что является "сложными" данными?

Стас Щетинников
15.05.2017
12:27:09
А что является "сложными" данными?
То, что плохо ложится в модель прометеуса, например, мы графики из Жиры и всякие запросы храним в инфлуксе. Это нужно чтобы иметь единый дашборд, составленный из разных datasources.
Кстати, если я не ошибаюсь в прометеусе нельзя хранить данные дольше какого-то срока (аля месяц) и нужно использовать influxdb для них. но возможно я и ошибаюсь.
https://telegram.me/metrics_ru - вообще этот вопрос лучше сюда ;)

Denis
15.05.2017
12:32:03
https://blog.netsil.com/a-comparison-of-time-series-databases-and-netsils-use-of-druid-db805d471206

Vladimir
15.05.2017
12:33:21
У Jira есть REST API . по нему тащить можно что угодно статусы, ,блокеры криты, затраченое время на них

Zon
15.05.2017
12:36:25

Denis
15.05.2017
14:14:47

Dmitry
15.05.2017
14:56:30
По поводу ротейта прометеуса. Как я понял он в нем обязателен. Но а с другой стороны, все равно в любой тсдб надо ротейт делать =)

Paul
15.05.2017
15:17:56

Dmitry
15.05.2017
15:19:13
я про storage.local.retention

Fike
15.05.2017
15:22:47
там не RRDB?
(я действительно еще не работал с прометеусом и это не вопрос-подколка)

Dmitry
15.05.2017
15:23:51
не
leveldb
https://github.com/google/leveldb

Vitaliy
15.05.2017
15:24:31
afaik prometheus в фоне удаляет старые чанки с данными, переписывая файлы метрик и диск от этого постоянно напряжён

Google

Vitaliy
15.05.2017
15:25:14
а leveldb только для индексов
https://prometheus.io/docs/operating/storage/

Dmitry
15.05.2017
15:26:04
ага, подглядел уже =)

Vitaliy
15.05.2017
15:28:06
есть еще интересная статья, как они собираются сделать хорошо в новой мажорной версии https://fabxc.org/blog/2017-04-10-writing-a-tsdb/

Alex Milushev
15.05.2017
22:35:14
привет
пытаюсь запихнуть yaml для container linux в user_data в aws и получаю
line 1: error: must be "#cloud-config" or begin with "#!"

Denis
16.05.2017
00:42:29
https://logdna.com/beta/kubernetes.html

Max
16.05.2017
01:12:46

Let Eat
16.05.2017
05:21:36

Alex Milushev
16.05.2017
08:43:49
хай, делаю dns discovery etcd по мануалу https://coreos.com/etcd/docs/latest/op-guide/clustering.html#dns-discovery

Alex Milushev
16.05.2017
12:36:11
валится с ошибкой: etcdmain: --initial-cluster must include b05c107572f84540be196a60e7d8de9d=http://10.0.0.192:2380
кто знает как поправить?

Artem
16.05.2017
13:55:01
какая версия etcd

Alex Milushev
16.05.2017
14:45:17
3.1.7

Ivan
16.05.2017
15:23:00

Alex Milushev
16.05.2017
15:50:33
сек

Google

Admin
ERROR: S client not available

Alex Milushev
16.05.2017
15:50:49
лог ошибки https://pastebin.com/MuQg6XMK
dns записи https://pastebin.com/n1Hk5zNM

Alexandr
16.05.2017
16:00:47
Коллеги - помогите выбрать интересные доклады на DevOps - DevConf'17 https://devconf.ru/ru/offers/DevOps

Fike
16.05.2017
16:05:03
если честно, интересного ноль

Let Eat
16.05.2017
16:08:23
в Storage секции интереснее

Ivan
16.05.2017
16:10:41
лог ошибки https://pastebin.com/MuQg6XMK
До этого кластер работал хоть раз без дискавери? Просто вижу мап вольюма. Туда пишутся данные о кластере. Если менял настройки, попробуй поменять —initial-cluster-state new на--initial-cluster-state=existing
--listen-client-urls http://0.0.0.0:2379 - и тут бы я тоже использовал днс имя, раз уже дискавери

Alexandr
16.05.2017
17:43:59

Dmitry
16.05.2017
17:53:08
там очень замороченый манифест

Ochir
16.05.2017
17:53:30

Михаил
16.05.2017
18:14:55

yolkov
16.05.2017
18:16:04
я бы помотрел, беглым осмотром я не нашел как это делать
т.е. там можно значения менять, но вот добавлять удалять блоки или целые деплойменты я не нашел как

Let Eat
16.05.2017
19:24:45

Михаил
16.05.2017
19:27:30

Alex Milushev
17.05.2017
08:19:55
разобрался, не указывайте:
_etcd-server-ssl._tcp
_etcd-client-ssl._tcp
если у вас нет ssl в etcd, даже есть есть обычные записи -- валится

Rayan
17.05.2017
18:05:51
Привет всем, правильно ли понимаю что если создать сервис с типом ClusterIP что то типа
type: ClusterIP
ports:
- protocol: TCP
port: 80
target: 8000
selector:
pod: drone
через cluster ip этого сервиса по <service-cluster-ip>:80 я буду обращаться в порт одного из подов :8000?

Let Eat
17.05.2017
18:31:26
да

Google

Let Eat
17.05.2017
18:31:54
в поды лейблом pod=drone
обращение будет через DNAT в iptables

Rayan
17.05.2017
18:54:23
если да то какая та хрень у меня
и не работает
k8s 1.6

Let Eat
17.05.2017
19:09:37
изнутри куба работает?

Rayan
17.05.2017
19:09:55
запрос из нода куба