
Bro
04.06.2017
20:13:17
блин а как мне мои EBS волумы юзать. если например 2 воркера. как поды будут подхватывать волум?

Paul
04.06.2017
20:33:58
зачем он?
а затем, что мы не используем AWS. А Ceph самый вменяемый из того, что есть в железе

Bro
04.06.2017
20:38:12
https://coreos.com/kubernetes/docs/latest/kubernetes-on-aws.html
что бы заюзать для деплоя?

Google

Bro
04.06.2017
20:39:31
kopt или core-os?

Let Eat
05.06.2017
05:55:10

Bro
05.06.2017
09:15:48
kube-aws это вроде и есть core-os
фух ну вроде чутка разобрался уже чето задеплоил.
наверное все же kube-aws заюзаю, потом. если локально все нормально будет работать.
https://github.com/kubernetes/kubernetes/issues/3595
фигово блин
Mlocking
This is a limitation in kubernetes right now. There is no way to raise the limits of lockable memory, so that these memory areas won't be swapped. This would degrade performance heaviliy.
это про эластик пишут

Andrey
05.06.2017
09:20:51
StatefulSet.apps "elevated-hamster-mongodb-replicaset" is invalid: spec: Forbidden: updates to statefulset spec for fields other than 'replicas' and 'containers' are forbidden
что можно придумать если я хочу affinity без даунтайма привязать к подам?

Bro
05.06.2017
09:21:47
о у меня тоже сегодня был эливэйтед кто-то

Andrey
05.06.2017
09:22:16
хе хе, бесмысленное и беспощадное дефолтное наименование helm :)
я пока не понял как это глупо - успел в прод монгу запустить

Google

Bro
05.06.2017
09:22:47
жесть
я пока только собираюсь
у меня тоже монга
не пойму хайп с ulimit а разве нельзя на хосте поднять его?
если нужно

Arslanbekov
05.06.2017
09:29:12
Подскажите пожалуйста,
имеется нода (cpu: "40"), в k8s 1.6.4 судя по графикам limit CPU прыгает.
Я правильно понимаю, что лимиты это динамическая единица?
и зависит она напрямую от реквестов?

Bro
05.06.2017
10:57:16
как понять прыгает?
нода "40"? 40 ядер чтоли?

Andrey
05.06.2017
12:55:56
кто-нибудь игрался с chaos monkey в своих кластерах?
вроде не пятница еще, но у меня появилось желание на проде запустить потестить :)

Ivan
05.06.2017
14:52:39
Чатик, у кого нить крон джобы в кубике работают?

Andrey
05.06.2017
14:57:13
а они не в альфе еще?

Ivan
05.06.2017
14:59:23
в альфе судя по версии апи, но малоли есть такие

Arslanbekov
05.06.2017
15:32:41
нода "40"? 40 ядер чтоли?
ага, 40 ядер, при kubectl get node/nodename -o yaml (cpu: “40”).
скачет - по мониторингу, то есть утром limit был 10millicores, сейчас 13, вчера 9. и тд

Vitaliy
05.06.2017
17:08:28
у нас CronJob работают. Правда есть отдельный CronJob, который удаляет выполненные Job и их Pod, т.к. 1.5 ещё :)

Andrey
05.06.2017
19:05:44
в общем еще полгода и вообще конфетка из кубера будет )
минимум

Let Eat
05.06.2017
19:44:49

Google

Basil_Snowman
06.06.2017
03:18:17
и что бы это значило..

Fike
06.06.2017
05:43:34
что ребята владеют настолько сраным пабликом, что к ним даже народ сам не идет

Alisa
06.06.2017
05:43:41
spam???

Basil_Snowman
06.06.2017
05:47:06
ну и кикнуть их

Lupsick
06.06.2017
12:38:34
кто-нибудь собирал kubernetes-кластер из docker-compose?

Anton
06.06.2017
12:44:47
с docker stack deploy?
https://github.com/Mirantis/kubeadm-dind-cluster
на хабре тут статья была вчера

Let Eat
06.06.2017
14:46:08
Кто StatefulSet обновлять хотел? Похоже в 1.7 будет из горобки https://github.com/kubernetes/kubernetes/pull/46669


Mikhail
06.06.2017
15:54:01
Подскажите пожалуйста, никак не могу понять, ЧЯДН.
Пытаюсь поднять кластер etcd, запуски с такими параметрами:
ExecStart=/usr/bin/etcd --name etcd-master-01 \
--initial-advertise-peer-urls https://10.19.0.20:2380 \
--advertise-client-urls http://10.19.0.20:2379 \
--listen-peer-urls http://10.19.0.20:2380 \
--listen-client-urls http://10.19.0.20:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://10.19.0.20:2379 \
--data-dir=/var/etcd/data \
--initial-cluster-token piw-cluster-1 \
--initial-cluster etcd-master-01=http://10.19.0.20:2380,etcd-master-02=http://10.19.0.21:2380,etcd-master-03=http://10.19.0.22:2380 \
--initial-cluster-state new
Соответственно на каждой из нод IP и имя изменяется.
Но в кластер оно вс еравно не собирается, каждый хост создает свой кластер.
etcdctl member list
8e9e05c52164694d: name=etcd-master-01 peerURLs=http://localhost:2380 clientURLs=http://10.19.0.20:2379 isLeader=true
Пождскажите, люди добрые, уже голову сломал, не пойму что не так.
П.С. делал по инструкции coreos, только ставлю на debian.


Let Eat
06.06.2017
15:56:08
а про других что-нибудь пишет в логах?


Mikhail
06.06.2017
15:57:43
тоже самое что и на первом, что успешно запустился
● etcd3.service - etcd3 server
Loaded: loaded (/etc/systemd/system/etcd3.service; enabled)
Active: active (running) since Tue 2017-06-06 18:39:46 MSK; 2s ago
Main PID: 30430 (etcd)
CGroup: /system.slice/etcd3.service
└─30430 /usr/bin/etcd --name etcd-master-03
Jun 06 18:39:46 s3199 etcd[30430]: 8e9e05c52164694d received MsgVoteResp from 8e9e05c52164694d at term 2
Jun 06 18:39:46 s3199 etcd[30430]: 8e9e05c52164694d became leader at term 2
Jun 06 18:39:46 s3199 etcd[30430]: raft.node: 8e9e05c52164694d elected leader 8e9e05c52164694d at term 2
Jun 06 18:39:46 s3199 etcd[30430]: published {Name:etcd-master-03 ClientURLs:[http://localhost:2379]} to cluster cdf818194e3a8c32
Jun 06 18:39:46 s3199 etcd[30430]: forgot to set Type=notify in systemd service file?
Jun 06 18:39:46 s3199 etcd[30430]: setting up the initial cluster version to 3.1
Jun 06 18:39:46 s3199 etcd[30430]: ready to serve client requests
Jun 06 18:39:46 s3199 etcd[30430]: serving insecure client requests on 127.0.0.1:2379, this is strongly discouraged!
Jun 06 18:39:46 s3199 etcd[30430]: set the initial cluster version to 3.1
Jun 06 18:39:46 s3199 etcd[30430]: enabled capabilities for version 3.1


Mikhail
06.06.2017
15:58:18
member list соответственно показывает сам себя и что он кластер. Т.е. по сути у меня сейчас 3 кластера по 1 ноде x_x

Admin
ERROR: S client not available

Ivan
06.06.2017
16:30:10
у тебя тут https :
—initial-advertise-peer-urls https://10.19.0.20:2380
а тут http:
—initial-cluster
. Попробуй покрутить. Могу конечно ошибаться=)

Mikhail
06.06.2017
16:49:25
Попробую, спасибо)

Denis
07.06.2017
11:46:30
Привет! А есть какой нибудь канал с вакансиями Ops?

Artem
07.06.2017
11:47:01
linkedin?)

Denis
07.06.2017
11:47:52
в телеге )

Google

Arslanbekov
07.06.2017
11:51:00
Есть @devops_jobs

Andrey
07.06.2017
11:58:13
суть: хочу запустить кластер из rabbitmq
создал petset + service - все ок, кластер собирается:
https://bitbucket.org/fulldivevr/kubernetes-charts/src/363bdf469f080a8c84b2f4e9ef5f159602806cb5/rabbitmq/samples/?at=master
упаковываю этот же код в helm чарт - кластер не собирается:
https://bitbucket.org/fulldivevr/kubernetes-charts/src/363bdf469f080a8c84b2f4e9ef5f159602806cb5/rabbitmq/?at=master
друзья, если у кого есть время посмотрите плиз со стороны, может заметите где какую опцию упустил? че-то глаз замылился

Sergej
07.06.2017
12:01:15

Let Eat
07.06.2017
12:07:40


Andrey
07.06.2017
12:21:12
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: List of registered nodes retrieved from the backend: ['rabbit@10.104.0.26',
'rabbit@10.104.2.25',
'rabbit@10.104.5.93']
=ERROR REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: No nodes to choose the preferred from!
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: Picked node as the preferred choice for joining: undefined
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: Running step maybe_cluster
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: We are the first node in the cluster, starting up unconditionally.
все, понял в чем проблема - сервис не тот прописывал в плагине rabbitmq-autocluster (если что)

Denis
07.06.2017
12:53:38

Let Eat
07.06.2017
13:50:23

Andrey
07.06.2017
13:51:46
сохранить в yaml, удалить стейтфулсет с —cascade=false, поправить, зааплаить Ж)

Let Eat
07.06.2017
13:53:42
интересно, что потом? )

Andrey
07.06.2017
13:55:25
перезапустит поды

Let Eat
07.06.2017
13:57:38
там же controller reference или что-то такое было, новый стейтфулсет подберет поды?

Andrey
07.06.2017
13:59:24
насколько я понял из документации - должен (поправьте если ошибаюсь): https://kubernetes.io/docs/tutorials/stateful-application/basic-stateful-set/#non-cascading-delete

Let Eat
07.06.2017
14:09:39

Alisa
07.06.2017
14:36:50
как вы обновляете поды в вашем кластере? какой самый удобный способ делать это из CD? через частный helm репозиторий?

Let Eat
07.06.2017
14:40:10
смешались в кучу люди кони