
Dmitry
11.07.2017
07:09:14
TLS дает лаг в начале сессии(хендшейк) потом респонстайм почти такой-же, как и без tls.

Khramov
11.07.2017
07:10:12
Да все хорошо уже, просто в моментс оздания контейнеров кубом докер ппц как лагает и задержки по 20 секунд, когда он создал все быстро летать начало

Fike
11.07.2017
07:10:33
а в логах что?

Jan
11.07.2017
07:35:52
лаг с tls обычно не выше 200мс, откуда такие задержки

Google

Fike
11.07.2017
07:37:08
ну потому что это скорее всего совсем не лаг tls

Andrey
11.07.2017
07:57:47
кто-нибудь юзает jenkins для периодических задач в кубере типа бекапа базы и тп?

Khramov
11.07.2017
07:59:11
Мы только начала настраивать, скоро начнем юзать

Andrey
11.07.2017
08:00:55
а как настраиваете, поделитесь? я че-то встрял: надо форкнуть контейнер от jenkinsci/jnlp-slave?
есть какой-то плагин который позволяет выполнять в запущеном поде конкретные консольные команды? чтобы под каждую задачу не билдить ран-скрипт в образ

Khramov
11.07.2017
08:02:22
Вот этого не знаю, этим другой человек занимается.
Пока только настраивает, если нужно - спрошу
А образ обычный library/jenkins

Andrey
11.07.2017
08:03:00
ну, не то чтобы прям уж очень нужно чтоб человека отвлекать, но если вдруг в курилке будете мимо проходить... )

Pavel
11.07.2017
08:05:16
вы находитесь в одном месте?

Khramov
11.07.2017
08:06:09
Кто мы? :)

Dmitry
11.07.2017
09:26:22
Мы используем. Поднимаем поды и билдим там всякую всячину заливая в s3
Плагин называется pipeline :)
Даже можно без пайплайна

Google

Dmitry
11.07.2017
09:31:20
ставишь https://wiki.jenkins-ci.org/display/JENKINS/Kubernetes+Plugin
создаешь pod template
ну а потом создаешь задачу ограниченную этим подом
https://i.imgur.com/jxO4TjP.png
Темплейт пода
https://i.imgur.com/WVAaWe8.png
а это сам контейнер
https://github.com/onetwotrip/jenkins-node

Роман
11.07.2017
12:31:21
Просветите насчёт PersistentVolumes. Может я что-то неправильно понимаю ещё - мне нужен инструмент, чтобы у меня все волюмы были синхронизированы на нодах. И если на одной из них изменятся файлы - на других произошло то же самое.
Возможно, ceph - это именно то, что нужно, но с ним у меня какие-то проблемы. Есть альтернативы?

Khramov
11.07.2017
12:32:06
glusterfs
ceph так не работает

Михаил
11.07.2017
12:33:43
работает так цеф
а за гластер я бы вообще жестко тролил
и возможно чуть чуть бил

Khramov
11.07.2017
12:34:07
А что не так с гластером то? :D

Dmitry
11.07.2017
12:34:13
по тз очень подходит drbd ;)

Михаил
11.07.2017
12:34:19

Khramov
11.07.2017
12:34:44
Ну эта хрень всего 1 раз у нас была, а так нормально вроде работает

Grigory
11.07.2017
12:34:51
ceph не подошел нам поскольку там сложности с созданием нескольких fs

Google

Михаил
11.07.2017
12:35:10
@ceph_ru если что)

Grigory
11.07.2017
12:36:38
если нужно иметь несколько файловых систем независимых друг от друга и с разделением прав
насколько я понимаю cephfs можно только одну создать?

Михаил
11.07.2017
12:37:03

Grigory
11.07.2017
12:37:58
для внешнего расшаренного хранилища
с возможностью мотирования в несколько контейнеров

Khramov
11.07.2017
12:38:19
Вот :)

Михаил
11.07.2017
12:39:14

Artem
11.07.2017
12:39:39

Grigory
11.07.2017
12:39:51
да, так можно
просто в кубе тогда нельзя указать какой fs подключать

Михаил
11.07.2017
12:40:38
ты же точку монтирования всего лишь делаешь

Grigory
11.07.2017
12:43:09
ну вот тут например
https://github.com/kubernetes/kubernetes/blob/master/examples/volumes/cephfs/cephfs.yaml
там нельзя специфицировать нужный fs

Михаил
11.07.2017
12:47:36
нуу, надо подумать
хотя если решили не юзать, так и не юзайте)
спецефичный кейс у вас

Khramov
11.07.2017
12:48:44
Это есть такое

Fike
11.07.2017
12:49:05

Михаил
11.07.2017
12:49:45
что не отменяет того, что гластер не очень

Khramov
11.07.2017
12:51:27
Альтернатив пока нет, самим не очень нравится

Google

Михаил
11.07.2017
12:52:04

Khramov
11.07.2017
12:59:32
Пацаны, а вы не в курсе, в Москве в блиэайшее время не планируется никаких митапов/конференций по кубу?

Victor
11.07.2017
13:00:48
не, по docker'у завтра будет

Khramov
11.07.2017
13:01:03
А где/когда/от кого/во сколько ?

Михаил
11.07.2017
13:01:21

Admin
ERROR: S client not available

Victor
11.07.2017
13:01:47

Paul
11.07.2017
13:12:45
у меня все особо важные тома созданы вручную

Михаил
11.07.2017
13:13:05

Paul
11.07.2017
13:13:26
полностью потерял нить рассуждений. Треования какие?

Михаил
11.07.2017
13:14:45
несколько кластерных фс

Andrey
11.07.2017
13:19:19
у меня только одного nginx ingress не пересчитывает ендпоинты при перезапуске пода?

Victor
11.07.2017
13:29:18
В ingress (nginx community) для ssl host == CN ?
Если сделать host: *.domain.ru сертификат цепляет,
если host: sub.domain.ru то не может
P.S. Скорей как описать sub.sub.domain.ru
P.S.S Я все понял, так не получиться

Grigory
11.07.2017
13:45:41
1. несколько томов
2. каждый из них можно монтировать в несколько разных контейнеров на RW (!) (так что rbd не канает)
по первому пункту не проходит cephfs, по второму не подходит rbd

Artem
11.07.2017
14:35:18
nfs?
по обоим подходит

bebebe
11.07.2017
14:41:03

Altai
11.07.2017
23:39:48
https://www.youtube.com/watch?v=Mw4ImA2IB10
А ведь Swarm всё больше на k8s становится похож.

Google

Роман
12.07.2017
01:49:26
Клуб людей, которые всегда и везде делают деньги!
?????
Делюсь мануалами, практическими советами и темами, которые проверены лично на моем опыте и опыте моих близких.
?Вступайте в мой паблик прямо сейчас: @moneycl

Fengenton
12.07.2017
03:58:10
https://t.me/telegaup - авторский канал по продвижению и монетизации каналов в Telegram.

Khramov
12.07.2017
05:30:59
Ребят, нужна хелпа.
На 1 из мастеров почему-то иногда выскакивает ошибка у подов при создании:
1m 28s 2 kubelet, master1 Warning FailedSync Error syncing pod, skipping: failed to "CreatePodSandbox" for "ch-api-v2-6hx88_hosting(eff4fb16-66c2-11e7-a787-52540073c081)" with CreatePodSandboxError: "CreatePodSandbox for pod \"ch-api-v2-6hx88_hosting(eff4fb16-66c2-11e7-a787-52540073c081)\" failed: rpc error: code = 2 desc = NetworkPlugin cni failed to set up pod \"ch-api-v2-6hx88_hosting\" network: Get https://10.96.0.1:443/api/v1/namespaces/hosting/pods/ch-api-v2-6hx88: dial tcp 10.96.0.1:443: i/o timeout"
Только на 1 мастере такое, причем несколько раз перезапустится, и все норм становится
Что это может быть такое? На остальных мастерах все норм.
Как я понимаю, что-то с сетью, но как это решить я хз

Роман
12.07.2017
05:34:00
В докере я использовал драйвер gelf для логирования и собирал логи при помощи logstash. А как в кубере это делается?

ivan
12.07.2017
05:39:22
fluentd+k8s

Denis
12.07.2017
05:49:45
https://twitter.com/aaronbbrown777/status/884920896422633474
Гитхаб перевел основной сайт и гист на куб,на очереди API

Роман
12.07.2017
06:44:13

ivan
12.07.2017
06:45:11
ну не совсем, efk+helm

Роман
12.07.2017
07:47:31
А как в кубере передавать такие настройки, как в docker-compose:
sysctls:
- net.core.somaxconn=65535

Alisa
12.07.2017
10:13:44
#вакансия #удаленка
требования:
знание kubernetes, читать логи самому, деплоить распределенку, деплоить авто-апдейт с докерхаба, ELK - logstash - kibana
Java стек - scala, akka. Поддержка deb репозиториев приветствуется
https://changedynamix.io/
вилка 20-30$/h в зависимости от опыта
нагрузка: от 20h/week

Andrey
12.07.2017
10:15:41
о, я то же самое делаю но еще и основные обязанности исполняю :) шутка
господа-дженкинсоводы, а кто как борется с тем что ваш CI это single point of failure в кластере?

Dmitry
12.07.2017
10:19:54
ну.. если мастер-под упадет, то он запустится еще раз.