@kubernetes_ru

Страница 746 из 958
Игорь
09.08.2018
09:10:19
День добрый! Тут доклад интересный прошел и мужик сказал что prometeus настраивали 2000 часов для работы с кубером
мужик - совладелец компании, у него не почасовая ставка, а овер 70 кластеров на поддержке.

Svyatoslav
09.08.2018
09:12:21
а какой у вас опыт на проде, сколько времени заняло и что вы можете посоветовать?

прометеус или что-то еще?

тема интересная и т.к. опыта нет - хочется иметь представление стоит ли в это влезать

Google
Vadim
09.08.2018
09:14:04
Сейчас кстати лайвстрим PromCon идёт - https://www.youtube.com/watch?v=VvJx0WTiGcA&feature=youtu.be

Svyatoslav
09.08.2018
09:14:38
какие цифры
выше картинкк с доклада

Sergey
09.08.2018
09:14:52
выше картинкк с доклада
а что смущает то

Svyatoslav
09.08.2018
09:14:53
2000 часов на монитор нг сделать

по моему опыту работы с заказчиком - такие цифры неприемлемы были

Sergey
09.08.2018
09:15:27
и что, хоть 5000 часов зависит от инфры, кейса, экспортеров, плюс графану как надо под это настроить

Svyatoslav
09.08.2018
09:16:26
ок задам вопрос иначе

стоит ли дописывать свои патчи для того чтобы прометеус или забикс начали работать корректно с кубером?

Vadim
09.08.2018
09:18:34
а вот я бы посмотрел на патчи для заббикса, например

Sergey
09.08.2018
09:18:35
а зачем, все искаропки работает

Svyatoslav
09.08.2018
09:18:52
на сколько сложно настраивать мониторинг с кубером?

Sergey
09.08.2018
09:18:58
патчи к прометею?) куда?)

Google
Lebedev
09.08.2018
09:19:27
когда лень посмотреть видео, но ты все знаешь. Прости Хосподи.

Sergey
09.08.2018
09:19:34
на сколько сложно настраивать мониторинг с кубером?
На картинках выше что вы кидали все рассказали как это

Svyatoslav
09.08.2018
09:20:13
пафос свой закинуть? или может поддержать дискусиию

вопросы выше идут коллегам, которые имеют опыт и сейчас этим занимаются

Sergey
09.08.2018
09:23:29
в целом любая система или сервис настраивается легко\сложно в зависимости от того, какой опыт вы с ней имеете

Svyatoslav
09.08.2018
09:25:42
на мою память мы всегда брали на vmware + серверный парк цода 2-3 месяца

в квартале рабочих часов 446

Anton
09.08.2018
09:26:28
вопросы выше идут коллегам, которые имеют опыт и сейчас этим занимаются
вы опираетесь на условную цифру в 2000 часов, которую флант включили в свой доклад, не уточнив при этом что вошло в эти 2000 часов. учитывайте разницу в инфраструктуре, ваш навык и прочие штуки. может у них 2000 часов работала команда из 20 человек и было пару сотен нод с тысячами деплойментв и миллиардами метрик.

в целом, так как сам залез недавно в мониторинг кубера, у вас есть только один нормальный вариант - прометеус, думаю солидарны тут будут многие. залезать туда заббиксом - ну не знаю - а зачем?

большим плюсом в сторону прометеуса будет конечно же prometheus operator который контребьютят сами ребята из core os.

Lebedev
09.08.2018
09:28:12
Конкретное число в 2000 - это опыт автора с его проектам, он в видео объясняет какой тип проектов в основном у них бывает (число узлов, число pod-ов), объясняет как в его идеале должен выглядеть мониторинг, почему scaling в отображение данных важен, ну и выкидывает общие 2000 часов. Не посмотрев видео, задавать вопросы, почему и есть ли правда в этих 2000 - очень странное действие.

Anton
09.08.2018
09:29:51
да и это опять же свой велосипед в каком то роде, не обязательно идти дорогой фланта.

Twelfth
09.08.2018
09:31:40
Здравствуйте. Пытаюсь добавить новый storage provisioner, собрал yaml файл, применил его, но новый storage class не появляется. packet@doctor:~/local$ helm template ./ > loc.yaml packet@doctor:~/local$ kubectl apply -f loc.yaml configmap/local-provisioner-config created daemonset.extensions/local-volume-provisioner created serviceaccount/local-storage-admin created clusterrolebinding.rbac.authorization.k8s.io/local-storage-provisioner-pv-binding created clusterrole.rbac.authorization.k8s.io/local-storage-provisioner-node-clusterrole created clusterrolebinding.rbac.authorization.k8s.io/local-storage-provisioner-node-binding created packet@doctor:~/local$ kubectl get storageclasses No resources found.

Vadim
09.08.2018
09:32:08
А кто-то правда использует jsonnet? на promcon дядя сейчас показывает примеры как его юзать с прометеусом

мне одному кажется это всё равно сделано не для белковых форм жизни?

Vadim
09.08.2018
09:45:33
Это только по началу
а там можно dry-run или как-то прорендерить до апплая?

Artem
09.08.2018
09:46:28
ну, helm template как раз рендерит

Google
Vadim
09.08.2018
09:47:16
хелм-то да, но я сомневаюсь что стоит переходить с энсибловых плейбуков, к примеру - будет труднее это дебажить

Evgenii
09.08.2018
09:47:36
—dry-run —debug добавить

Vadim
09.08.2018
09:47:39
(а если темплейтить через jinja уже получается статика)

Anton
09.08.2018
10:39:26
Что лучше вкладывать в название StorageClass: 1) отсылку к имплементации (aws-gp2, rook-ceph-block) 2) или отсылку к характеристикам (slow, fast, unreliable, gold, shit) ?

Alisa
09.08.2018
13:01:44
всем привет! подскажите плиз как правильнее всего мониторить свои python/node.js микросервисы в k8s на google cloud? пока что думаю про opensesus / stackdriver но там еще prometheus/grafana, sysdig есть, это просто альтернативы или они умеют чтото чего не умеет stackdriver?

Alex
09.08.2018
13:48:38
Добрый день, коллеги. Понимаю что вообще моветон, но похоже особенно летом фиды с вакансиями никто не читает ? А хочется крутого спеца в команду и ? Поэтому скромно размещу и тут нашу вакансию Senior Devops, тем более что с K8s активно работаем) https://hh.ru/vacancy/27232504

Рустам
09.08.2018
13:50:09
кокието омерикосы пришли в бнб

Andrey
09.08.2018
13:50:43
Если у вас четкое разделение на быстрые и медленные стораджи - то наверное там прикреплять ssd или satahdd

Fast и slow сильно размыливают

Что есть фаст, что есть слоу

Alex
09.08.2018
14:01:03
в @devops_jobs напишите
Как раз туда и писал, но там в фид публикация идет, которую читают только те кто прям в Активном поиске

Sergey
09.08.2018
14:03:29
если нет людей значит нет ждите осень

Alex
09.08.2018
14:06:07
it negros?
Если немного инверсировать первые символы то получается что так ?

а так Integros

Google
Anton
09.08.2018
14:06:36
прочиталось так, извините

Sergey
09.08.2018
14:07:17
it negros?
тонка)0

Gleb
09.08.2018
14:17:08
Добрый день, коллеги. Понимаю что вообще моветон, но похоже особенно летом фиды с вакансиями никто не читает ? А хочется крутого спеца в команду и ? Поэтому скромно размещу и тут нашу вакансию Senior Devops, тем более что с K8s активно работаем) https://hh.ru/vacancy/27232504
а вы в заявленой вилке уверены? за 250 вы бы все равно месяца за два кого-нибудь нашли я думаю, тут возможно рассхождение в видении денег у кандидатов и работодателя, а то я ща смотрю народ по 150 просит после того как 1 раз запустил кубеспрей.

Twelfth
09.08.2018
14:49:32
Здравствуйте. Почему-то под завис в состоянии pending, статус pvc: Normal WaitForFirstConsumer 14s (x3 over 28s) persistentvolume-controller waiting for first consumer to be created before binding

Artem
09.08.2018
14:51:03
нету никого, кто бы запрашивал этот клайм

Twelfth
09.08.2018
14:53:05
В поде, к которому этот pvc прикрепляется: 0/1 nodes are available: 1 node(s) didn't find available persistent volumes to bind.

Volumes: data: Type: PersistentVolumeClaim (a reference to a PersistentVolumeClaim in the same namespace) ClaimName: data-stolon-keeper-0 ReadOnly: false

Т.е. consumer всё-таки есть

В конфиге пода прописывал volumeClaimTemplates: - metadata: name: data spec: accessModes: [ "ReadWriteOnce" ] storageClassName: "fast-disks" resources: requests: storage: 200Mi

Artem
09.08.2018
15:08:29
а что в огах у провизионера?

Twelfth
09.08.2018
15:11:30
E0809 15:10:53.070752 1 discovery.go:201] Path "/mnt/fast-disks/data-stolon-keeper-0" is not an actual mountpoint

Директория /mnt/fast-disks/data-stolon-keeper-0 существует, но не является точкой монтирования(мне нужно просто пробросить директорию в под).

Anton
09.08.2018
15:17:20
если просто диру с хоста, то нужно hostPath

если класс local-storage, то нужно что то намонтировать под local volume provisioner и он на pvc выдаст вольюмы

Twelfth
09.08.2018
15:21:07
если просто диру с хоста, то нужно hostPath
```volumeClaimTemplates: - metadata: name: data spec: accessModes: [ "ReadWriteOnce" ] hostPath: ... resources: requests: storage: 200Mi```

Как-то так?

Anton
09.08.2018
15:21:58
нет. у вас видимо statefulset и в нем описаны volumeClaimTemplates, которые создадут pvc на каждую реплику

вам как то нужно окунуться в api reference =)

Twelfth
09.08.2018
15:22:17
вам как то нужно окунуться в api reference =)
Про volume claim templates я знаю. Я пытаюсь понять, как мне создать statefulset, который в качестве хранилища будет юзать директорию хоста.

Google
Anton
09.08.2018
15:25:08
грубо, убрать volumeclaimtemplate. открыть доку с доступными вольюмами, посмотреть как рostPath описывается. НО - если на хосте две реплики будет, они обе смонтируют одну диру

Vadim
09.08.2018
15:26:36
E0809 15:10:53.070752 1 discovery.go:201] Path "/mnt/fast-disks/data-stolon-keeper-0" is not an actual mountpoint
он просит создать такую директорию / смонтировать в неё диск с таким именем на этой ноде

Anton
09.08.2018
15:27:06
Никак, pvc это про динамический провизионинг
но "вольюмы" может раздать local volume provisioner, которые на самом деле "что то" смонтированное в /mnt/disks

kvaps
09.08.2018
15:28:53
но "вольюмы" может раздать local volume provisioner, которые на самом деле "что то" смонтированное в /mnt/disks
кстати это нифига не удобно что он не умеет самостоятельно монтировать девайс по требованию, приходится свои костыли через flexvolume придумывать

kvaps
09.08.2018
15:31:55
а что если у меня девайс расшарен на несколько нод

и нельзя иметь два конкурентных маунта на разных нодах

Страница 746 из 958