
Pavel
22.07.2018
20:40:23

Михаил
22.07.2018
20:41:25

66271
22.07.2018
20:41:34

Pavel
22.07.2018
20:42:51
хм) сервисы?

Google

Pavel
22.07.2018
20:42:57
cisco? microtic?

Robert
22.07.2018
20:48:10

66271
22.07.2018
20:48:13
cisco? microtic?
ну если роутеры взаимосвязанны, можно поллить snmp таблицы связности
т.е. у вас там наверняка бекбон на ospf, забирая эти данные можно написать свой дискавери)
но я вроде как уже говорил что для железа я сам рекомендую zabbix) слишком много нароботок там сделано за последние 10 лет

Pavel
22.07.2018
20:49:13

Yaroslav
23.07.2018
00:15:16
Блин, ну начитался вашей писанины за ночь, голова распухла от того сколько еще надо изучить

Banschikov
23.07.2018
06:10:49
Всем привет! Есть джоба с параметром backoffLimit : 3
Насколько понимаю, она должна ограничивать количевство перезапусков джобы?

Anton
23.07.2018
06:11:53
еще политика рестартов есть для job, эти два параметра влияют на перезапуск
вообще limit помоему это число попыток. тоесть 3 запуска максимум

Banschikov
23.07.2018
06:15:31

Anton
23.07.2018
06:19:53
о нем и речь

Banschikov
23.07.2018
06:21:18
о нем и речь
Указано backoffLimit : 3 и restartPolicy": OnFailure

Google

Banschikov
23.07.2018
06:29:29

Anton
23.07.2018
06:34:55
попробуй restart policy never
ну или джобу переосмыслить нужно
попробовать легко на busybox с cmd

Banschikov
23.07.2018
06:39:54

Alexander
23.07.2018
07:15:16
Ребят подскажите логику. У меня сейчас запускается плейбук и спомощью модуля к8с разворачивает приложение. Как правильно на удаленный сервер где исполняется kubectl , прокидывать ключи?
Пока в голове мысль хранить на мастере ансибла в анс-вульт содержание клбчей, потом на конечном хосте из этих секретов создать файлы ключей, а после исполнения удалить... но почти уверен что эта схема так себе

Vadim
23.07.2018
07:17:42

Juriy
23.07.2018
07:18:26

ptchol
23.07.2018
07:19:44
metrics_ru

Robert
23.07.2018
07:21:37

Vladimir
23.07.2018
07:21:39

Juriy
23.07.2018
07:41:40

kvaps
23.07.2018
07:42:42
Почему?
если не хочешь что бы zfs много памяти жрала
при включенной дедупликации zfs все хэши в памяти держит

Juriy
23.07.2018
07:52:05

Вася
23.07.2018
09:55:53
Котоны, кто нибудь пробовал только containerd использовать в кубе?

Валентин
23.07.2018
09:56:52
Я использую в тестовом кластере. Работает

Вася
23.07.2018
09:57:32
Были ли уже сложности с ним?

Валентин
23.07.2018
09:59:40
Нет, все ок. Он к спекам где-то относится более четко и это даже хорошо. Например nexus-oss HEAD запрос игнорит, хочет GET, а по спецификации HEAD только и containerd его и шлет регистри. Это вот единственное, что я заметил, но следование спекам мне нравится больше, чем "да и так работает и ладно"

Google

Вася
23.07.2018
10:02:34
А образы также через тулзу собирать?

Михаил
23.07.2018
10:03:11


Huan
23.07.2018
10:04:57
привет всем. кто-то прикручивал в кубернетес cephfs?
при создании claim выдает ошибку:
I0723 10:03:28.964828 1 leaderelection.go:178] successfully acquired lease to provision for pvc kube-test/claim1
I0723 10:03:28.966849 1 event.go:218] Event(v1.ObjectReference{Kind:"PersistentVolumeClaim", Namespace:"kube-test", Name:"claim1", UID:"82da642a-8e58-11e8-be2c-005056b2b12a", APIVersion:"v1", ResourceVersion:"14503224", FieldPath:""}): type: 'Normal' reason: 'Provisioning' External provisioner is provisioning volume for claim "kube-test/claim1"
E0723 10:03:39.796804 1 cephfs-provisioner.go:155] failed to provision share "kubernetes-dynamic-pvc-f1905d95-8e5e-11e8-9700-ea04dd2539d0" for "kubernetes-dynamic-user-f1905e1a-8e5e-11e8-9700-ea04dd2539d0", err: exit status 1, output: Traceback (most recent call last):
File "/usr/local/bin/cephfs_provisioner", line 336, in <module>
main()
File "/usr/local/bin/cephfs_provisioner", line 330, in main
print cephfs.create_share(share, user, size=size)
File "/usr/local/bin/cephfs_provisioner", line 210, in create_share
volume = self.volume_client.create_volume(volume_path, size=size)
File "/usr/local/bin/cephfs_provisioner", line 106, in volume_client
self._volume_client.connect(None)
File "/lib/python2.7/site-packages/ceph_volume_client.py", line 471, in connect
self.fs.mount()
File "cephfs.pyx", line 548, in cephfs.LibCephFS.mount (/home/jenkins-build/build/workspace/ceph-build/ARCH/x86_64/AVAILABLE_ARCH/x86_64/AVAILABLE_DIST/centos7/DIST/centos7/MACHINE_SIZE/huge/release/13.2.0/rpm/el7/BUILD/ceph-13.2.0/build/src/pybind/cephfs/pyrex/cephfs.c:5648)
cephfs.Error: (110, 'error calling ceph_mount: error code 110')
E0723 10:03:39.796908 1 controller.go:1068] Failed to provision volume for claim "kube-test/claim1" with StorageClass "cephfs": exit status 1


kvaps
23.07.2018
10:06:45
Только применительно для куба
По сути есть linstor который создает drbd-устройства на нодах, он умеет ZFS или LVM как backend. После этого запускаешь под с NFS-сервером с NodeAffinity к нодам где находится это drbd-устройство
все очень просто
только я сейчас больше к iscsi склоняюсь нежели к nfs, но обе реализации возможны
а вообще у linstor свой драйвер был для куба, он умеет drbd-устройство напрямую к поду доставлять

Nata
23.07.2018
10:11:58
Привет. А подскажите, может кто в курсе, есть какая-нибудь штука конвертить описания конфигураций kubernetes в terraform? вроде kompose для compose -> kubernetes

Sergey
23.07.2018
10:15:13
Нету

kvaps
23.07.2018
10:16:59

Михаил
23.07.2018
10:28:20

Валентин
23.07.2018
10:32:09

kvaps
23.07.2018
10:33:01
OpenEBS разве что, но он тоже немного странный

Вася
23.07.2018
10:34:10

Михаил
23.07.2018
10:34:22
и я сейчас не только про ceph
и не столько

Google

kvaps
23.07.2018
10:35:05
Ну я перепробовал много всего, что ты имеешь ввиду?
Ceph - он очень сильно проседает при более-менее приличной нагрузке.
+ ресурсов требует немеренно

Михаил
23.07.2018
10:36:25

kvaps
23.07.2018
10:37:07
многа хостинга и многа VPSок

Artem
23.07.2018
10:43:03

Михаил
23.07.2018
10:43:21

kvaps
23.07.2018
11:13:19

Sabbath
23.07.2018
11:17:30
Перфекционист во мне грустит( Иконка чата криво вписана в круг

Artem
23.07.2018
11:21:06
Но это все поверх цефа и дрбд

Pavel
23.07.2018
11:23:27

Artem
23.07.2018
11:24:53

Alexander
23.07.2018
11:30:12
Ребят в кубере есть какаянить политика зависимостей? Если например оьновил см файл который используется в деплойменте, то поды надо пересоздать автоматом?

Михаил
23.07.2018
11:30:15

Vlad
23.07.2018
11:30:17

Anton
23.07.2018
11:37:49

Alexander
23.07.2018
11:38:22

Anton
23.07.2018
11:39:21
смысл в том что ты меняешь прост объект при изменении конфигмапа

Alexander
23.07.2018
11:40:46

Google

Pavel
23.07.2018
11:41:34

Anton
23.07.2018
11:44:06

Alexander
23.07.2018
11:45:21

Anton
23.07.2018
11:45:57
что мешает в ansible то же самое применить?
https://github.com/helm/helm/blob/master/docs/charts_tips_and_tricks.md#automatically-roll-deployments-when-configmaps-or-secrets-change
все что нужно, это добавить хеш отрендеренного конфигмапа в spec.template.metadata.annotations

Alexander
23.07.2018
11:49:50

Anton
23.07.2018
11:55:09
грубо helm шаблонизатор + каталог чартов (шаблонов\пакетов) + хранение истории.
в данной ситуации нужно только добавить
spec:
template:
metadata:
annotations:
checksum/config: {{ здесь какой то инклюд результата шаблонизирования configmap или набора входных данных для него | какая то хеш функция }}

Egor
23.07.2018
11:55:24
всем привет. учусь, играюсь с 3хнодовым кластером на baremetal. на одной ноде внезапно падает kube-apiserver, соответственно перестаёт слушаться порт 6443. может кто сталкивался, или подскажет, как отловить?