
Игорь
09.08.2018
09:10:19

Svyatoslav
09.08.2018
09:12:21
а какой у вас опыт на проде, сколько времени заняло и что вы можете посоветовать?
прометеус или что-то еще?
тема интересная и т.к. опыта нет - хочется иметь представление стоит ли в это влезать

Google

Vadim
09.08.2018
09:14:04
Сейчас кстати лайвстрим PromCon идёт - https://www.youtube.com/watch?v=VvJx0WTiGcA&feature=youtu.be

Sergey
09.08.2018
09:14:21

Svyatoslav
09.08.2018
09:14:38

Sergey
09.08.2018
09:14:52

Svyatoslav
09.08.2018
09:14:53
2000 часов на монитор нг сделать
по моему опыту работы с заказчиком - такие цифры неприемлемы были

Sergey
09.08.2018
09:15:27
и что, хоть 5000 часов
зависит от инфры, кейса, экспортеров, плюс графану как надо под это настроить

Svyatoslav
09.08.2018
09:16:26
ок задам вопрос иначе
стоит ли дописывать свои патчи для того чтобы прометеус или забикс начали работать корректно с кубером?

Vadim
09.08.2018
09:18:34
а вот я бы посмотрел на патчи для заббикса, например

Sergey
09.08.2018
09:18:35
а зачем, все искаропки работает

Svyatoslav
09.08.2018
09:18:52
на сколько сложно настраивать мониторинг с кубером?

Sergey
09.08.2018
09:18:58
патчи к прометею?)
куда?)

Google

Lebedev
09.08.2018
09:19:27
когда лень посмотреть видео, но ты все знаешь. Прости Хосподи.

Sergey
09.08.2018
09:19:34

Svyatoslav
09.08.2018
09:20:13
пафос свой закинуть? или может поддержать дискусиию
вопросы выше идут коллегам, которые имеют опыт и сейчас этим занимаются

Sergey
09.08.2018
09:23:29
в целом любая система или сервис настраивается легко\сложно в зависимости от того, какой опыт вы с ней имеете

Svyatoslav
09.08.2018
09:25:42
на мою память мы всегда брали на vmware + серверный парк цода 2-3 месяца
в квартале рабочих часов 446

Anton
09.08.2018
09:26:28
вопросы выше идут коллегам, которые имеют опыт и сейчас этим занимаются
вы опираетесь на условную цифру в 2000 часов, которую флант включили в свой доклад, не уточнив при этом что вошло в эти 2000 часов. учитывайте разницу в инфраструктуре, ваш навык и прочие штуки. может у них 2000 часов работала команда из 20 человек и было пару сотен нод с тысячами деплойментв и миллиардами метрик.
в целом, так как сам залез недавно в мониторинг кубера, у вас есть только один нормальный вариант - прометеус, думаю солидарны тут будут многие. залезать туда заббиксом - ну не знаю - а зачем?
большим плюсом в сторону прометеуса будет конечно же prometheus operator который контребьютят сами ребята из core os.

Svyatoslav
09.08.2018
09:28:06

Lebedev
09.08.2018
09:28:12
Конкретное число в 2000 - это опыт автора с его проектам, он в видео объясняет какой тип проектов в основном у них бывает (число узлов, число pod-ов), объясняет как в его идеале должен выглядеть мониторинг, почему scaling в отображение данных важен, ну и выкидывает общие 2000 часов. Не посмотрев видео, задавать вопросы, почему и есть ли правда в этих 2000 - очень странное действие.

Anton
09.08.2018
09:29:51
да и это опять же свой велосипед в каком то роде, не обязательно идти дорогой фланта.

Twelfth
09.08.2018
09:31:40
Здравствуйте. Пытаюсь добавить новый storage provisioner, собрал yaml файл, применил его, но новый storage class не появляется.
packet@doctor:~/local$ helm template ./ > loc.yaml
packet@doctor:~/local$ kubectl apply -f loc.yaml
configmap/local-provisioner-config created
daemonset.extensions/local-volume-provisioner created
serviceaccount/local-storage-admin created
clusterrolebinding.rbac.authorization.k8s.io/local-storage-provisioner-pv-binding created
clusterrole.rbac.authorization.k8s.io/local-storage-provisioner-node-clusterrole created
clusterrolebinding.rbac.authorization.k8s.io/local-storage-provisioner-node-binding created
packet@doctor:~/local$ kubectl get storageclasses
No resources found.

Vadim
09.08.2018
09:32:08
А кто-то правда использует jsonnet? на promcon дядя сейчас показывает примеры как его юзать с прометеусом
мне одному кажется это всё равно сделано не для белковых форм жизни?

Artem
09.08.2018
09:44:53

Vadim
09.08.2018
09:45:33

Artem
09.08.2018
09:46:28
ну, helm template как раз рендерит

Google

Vadim
09.08.2018
09:47:16
хелм-то да, но я сомневаюсь что стоит переходить с энсибловых плейбуков, к примеру - будет труднее это дебажить

Evgenii
09.08.2018
09:47:36
—dry-run —debug добавить

Vadim
09.08.2018
09:47:39
(а если темплейтить через jinja уже получается статика)

Anton
09.08.2018
10:39:26
Что лучше вкладывать в название StorageClass:
1) отсылку к имплементации (aws-gp2, rook-ceph-block)
2) или отсылку к характеристикам (slow, fast, unreliable, gold, shit)
?

Vadim
09.08.2018
10:41:06

Alisa
09.08.2018
13:01:44
всем привет!
подскажите плиз как правильнее всего мониторить свои python/node.js микросервисы в k8s на google cloud?
пока что думаю про opensesus / stackdriver
но там еще prometheus/grafana, sysdig есть, это просто альтернативы или они умеют чтото чего не умеет stackdriver?

Alex
09.08.2018
13:48:38
Добрый день, коллеги. Понимаю что вообще моветон, но похоже особенно летом фиды с вакансиями никто не читает ? А хочется крутого спеца в команду и ? Поэтому скромно размещу и тут нашу вакансию Senior Devops, тем более что с K8s активно работаем) https://hh.ru/vacancy/27232504

Рустам
09.08.2018
13:50:09
кокието омерикосы пришли в бнб

Andrey
09.08.2018
13:50:43
Если у вас четкое разделение на быстрые и медленные стораджи - то наверное там прикреплять ssd или satahdd
Fast и slow сильно размыливают
Что есть фаст, что есть слоу

Sergey
09.08.2018
13:54:46

Alex
09.08.2018
14:01:03
в @devops_jobs напишите
Как раз туда и писал, но там в фид публикация идет, которую читают только те кто прям в Активном поиске

Sergey
09.08.2018
14:03:29
если нет людей значит нет
ждите осень

Anton
09.08.2018
14:05:08

Alex
09.08.2018
14:06:07
it negros?
Если немного инверсировать первые символы то получается что так ?
а так Integros

Google

Anton
09.08.2018
14:06:36
прочиталось так, извините

Sergey
09.08.2018
14:07:17

Gleb
09.08.2018
14:17:08

Twelfth
09.08.2018
14:49:32
Здравствуйте. Почему-то под завис в состоянии pending, статус pvc:
Normal WaitForFirstConsumer 14s (x3 over 28s) persistentvolume-controller waiting for first consumer to be created before binding

Artem
09.08.2018
14:51:03
нету никого, кто бы запрашивал этот клайм

Twelfth
09.08.2018
14:53:05
В поде, к которому этот pvc прикрепляется:
0/1 nodes are available: 1 node(s) didn't find available persistent volumes to bind.
Volumes:
data:
Type: PersistentVolumeClaim (a reference to a PersistentVolumeClaim in the same namespace)
ClaimName: data-stolon-keeper-0
ReadOnly: false
Т.е. consumer всё-таки есть
В конфиге пода прописывал
volumeClaimTemplates:
- metadata:
name: data
spec:
accessModes: [ "ReadWriteOnce" ]
storageClassName: "fast-disks"
resources:
requests:
storage: 200Mi

Artem
09.08.2018
15:08:29
а что в огах у провизионера?

Twelfth
09.08.2018
15:11:30
E0809 15:10:53.070752 1 discovery.go:201] Path "/mnt/fast-disks/data-stolon-keeper-0" is not an actual mountpoint
Директория /mnt/fast-disks/data-stolon-keeper-0 существует, но не является точкой монтирования(мне нужно просто пробросить директорию в под).

Anton
09.08.2018
15:17:20
если просто диру с хоста, то нужно hostPath
если класс local-storage, то нужно что то намонтировать под local volume provisioner и он на pvc выдаст вольюмы

Twelfth
09.08.2018
15:21:07
Как-то так?

Anton
09.08.2018
15:21:58
нет. у вас видимо statefulset и в нем описаны volumeClaimTemplates, которые создадут pvc на каждую реплику
вам как то нужно окунуться в api reference =)

Twelfth
09.08.2018
15:22:17

Google

Artem
09.08.2018
15:24:27

Anton
09.08.2018
15:25:08
грубо, убрать volumeclaimtemplate. открыть доку с доступными вольюмами, посмотреть как рostPath описывается.
НО - если на хосте две реплики будет, они обе смонтируют одну диру

Vadim
09.08.2018
15:26:36

Anton
09.08.2018
15:27:06

kvaps
09.08.2018
15:28:53

Anton
09.08.2018
15:30:18

kvaps
09.08.2018
15:31:55
а что если у меня девайс расшарен на несколько нод
и нельзя иметь два конкурентных маунта на разных нодах