@kubernetes_ru

Страница 181 из 958
Bro
04.06.2017
20:13:17
блин а как мне мои EBS волумы юзать. если например 2 воркера. как поды будут подхватывать волум?

Paul
04.06.2017
20:33:58
зачем он?
а затем, что мы не используем AWS. А Ceph самый вменяемый из того, что есть в железе

Bro
04.06.2017
20:38:12
https://coreos.com/kubernetes/docs/latest/kubernetes-on-aws.html

что бы заюзать для деплоя?

Google
Bro
04.06.2017
20:39:31
kopt или core-os?

Let Eat
05.06.2017
05:55:10
Bro
05.06.2017
09:15:48
kube-aws это вроде и есть core-os

фух ну вроде чутка разобрался уже чето задеплоил.

наверное все же kube-aws заюзаю, потом. если локально все нормально будет работать.

https://github.com/kubernetes/kubernetes/issues/3595

фигово блин

Mlocking This is a limitation in kubernetes right now. There is no way to raise the limits of lockable memory, so that these memory areas won't be swapped. This would degrade performance heaviliy.

это про эластик пишут

Andrey
05.06.2017
09:20:51
StatefulSet.apps "elevated-hamster-mongodb-replicaset" is invalid: spec: Forbidden: updates to statefulset spec for fields other than 'replicas' and 'containers' are forbidden что можно придумать если я хочу affinity без даунтайма привязать к подам?

Bro
05.06.2017
09:21:47
о у меня тоже сегодня был эливэйтед кто-то

Andrey
05.06.2017
09:22:16
хе хе, бесмысленное и беспощадное дефолтное наименование helm :)

я пока не понял как это глупо - успел в прод монгу запустить

Google
Bro
05.06.2017
09:22:47
жесть

я пока только собираюсь

у меня тоже монга

не пойму хайп с ulimit а разве нельзя на хосте поднять его?

если нужно

Arslanbekov
05.06.2017
09:29:12
Подскажите пожалуйста, имеется нода (cpu: "40"), в k8s 1.6.4 судя по графикам limit CPU прыгает. Я правильно понимаю, что лимиты это динамическая единица?

и зависит она напрямую от реквестов?

Bro
05.06.2017
10:57:16
как понять прыгает?

нода "40"? 40 ядер чтоли?

Andrey
05.06.2017
12:55:56
кто-нибудь игрался с chaos monkey в своих кластерах?

вроде не пятница еще, но у меня появилось желание на проде запустить потестить :)

Ivan
05.06.2017
14:52:39
Чатик, у кого нить крон джобы в кубике работают?

Andrey
05.06.2017
14:57:13
а они не в альфе еще?

Ivan
05.06.2017
14:59:23
в альфе судя по версии апи, но малоли есть такие

а они не в альфе еще?
погуглил, обещают добавить в бету в 1.8 =( грусть

Arslanbekov
05.06.2017
15:32:41
нода "40"? 40 ядер чтоли?
ага, 40 ядер, при kubectl get node/nodename -o yaml (cpu: “40”). скачет - по мониторингу, то есть утром limit был 10millicores, сейчас 13, вчера 9. и тд

Vitaliy
05.06.2017
17:08:28
у нас CronJob работают. Правда есть отдельный CronJob, который удаляет выполненные Job и их Pod, т.к. 1.5 ещё :)

Andrey
05.06.2017
19:05:44
в общем еще полгода и вообще конфетка из кубера будет )

минимум

Let Eat
05.06.2017
19:44:49
в общем еще полгода и вообще конфетка из кубера будет )
да давно уже так, вот только всплывает постоянно что-нибудь :)

Google
Basil_Snowman
06.06.2017
03:18:17
и что бы это значило..

Fike
06.06.2017
05:43:34
что ребята владеют настолько сраным пабликом, что к ним даже народ сам не идет

Alisa
06.06.2017
05:43:41
spam???

Basil_Snowman
06.06.2017
05:47:06
ну и кикнуть их

Lupsick
06.06.2017
12:38:34
кто-нибудь собирал kubernetes-кластер из docker-compose?

Anton
06.06.2017
12:44:47
с docker stack deploy?

https://github.com/Mirantis/kubeadm-dind-cluster

на хабре тут статья была вчера

Let Eat
06.06.2017
14:46:08
Кто StatefulSet обновлять хотел? Похоже в 1.7 будет из горобки https://github.com/kubernetes/kubernetes/pull/46669

Mikhail
06.06.2017
15:54:01
Подскажите пожалуйста, никак не могу понять, ЧЯДН. Пытаюсь поднять кластер etcd, запуски с такими параметрами: ExecStart=/usr/bin/etcd --name etcd-master-01 \ --initial-advertise-peer-urls https://10.19.0.20:2380 \ --advertise-client-urls http://10.19.0.20:2379 \ --listen-peer-urls http://10.19.0.20:2380 \ --listen-client-urls http://10.19.0.20:2379,http://127.0.0.1:2379 \ --advertise-client-urls http://10.19.0.20:2379 \ --data-dir=/var/etcd/data \ --initial-cluster-token piw-cluster-1 \ --initial-cluster etcd-master-01=http://10.19.0.20:2380,etcd-master-02=http://10.19.0.21:2380,etcd-master-03=http://10.19.0.22:2380 \ --initial-cluster-state new Соответственно на каждой из нод IP и имя изменяется. Но в кластер оно вс еравно не собирается, каждый хост создает свой кластер. etcdctl member list 8e9e05c52164694d: name=etcd-master-01 peerURLs=http://localhost:2380 clientURLs=http://10.19.0.20:2379 isLeader=true Пождскажите, люди добрые, уже голову сломал, не пойму что не так. П.С. делал по инструкции coreos, только ставлю на debian.

Let Eat
06.06.2017
15:56:08
а про других что-нибудь пишет в логах?

Mikhail
06.06.2017
15:57:43
тоже самое что и на первом, что успешно запустился ● etcd3.service - etcd3 server Loaded: loaded (/etc/systemd/system/etcd3.service; enabled) Active: active (running) since Tue 2017-06-06 18:39:46 MSK; 2s ago Main PID: 30430 (etcd) CGroup: /system.slice/etcd3.service └─30430 /usr/bin/etcd --name etcd-master-03 Jun 06 18:39:46 s3199 etcd[30430]: 8e9e05c52164694d received MsgVoteResp from 8e9e05c52164694d at term 2 Jun 06 18:39:46 s3199 etcd[30430]: 8e9e05c52164694d became leader at term 2 Jun 06 18:39:46 s3199 etcd[30430]: raft.node: 8e9e05c52164694d elected leader 8e9e05c52164694d at term 2 Jun 06 18:39:46 s3199 etcd[30430]: published {Name:etcd-master-03 ClientURLs:[http://localhost:2379]} to cluster cdf818194e3a8c32 Jun 06 18:39:46 s3199 etcd[30430]: forgot to set Type=notify in systemd service file? Jun 06 18:39:46 s3199 etcd[30430]: setting up the initial cluster version to 3.1 Jun 06 18:39:46 s3199 etcd[30430]: ready to serve client requests Jun 06 18:39:46 s3199 etcd[30430]: serving insecure client requests on 127.0.0.1:2379, this is strongly discouraged! Jun 06 18:39:46 s3199 etcd[30430]: set the initial cluster version to 3.1 Jun 06 18:39:46 s3199 etcd[30430]: enabled capabilities for version 3.1

Mikhail
06.06.2017
15:58:18
member list соответственно показывает сам себя и что он кластер. Т.е. по сути у меня сейчас 3 кластера по 1 ноде x_x

Admin
ERROR: S client not available

Ivan
06.06.2017
16:30:10
у тебя тут https : —initial-advertise-peer-urls https://10.19.0.20:2380 а тут http: —initial-cluster . Попробуй покрутить. Могу конечно ошибаться=)

Mikhail
06.06.2017
16:49:25
Попробую, спасибо)

Denis
07.06.2017
11:46:30
Привет! А есть какой нибудь канал с вакансиями Ops?

Artem
07.06.2017
11:47:01
linkedin?)

Denis
07.06.2017
11:47:52
в телеге )

Google
Arslanbekov
07.06.2017
11:51:00
Есть @devops_jobs

Andrey
07.06.2017
11:58:13
суть: хочу запустить кластер из rabbitmq создал petset + service - все ок, кластер собирается: https://bitbucket.org/fulldivevr/kubernetes-charts/src/363bdf469f080a8c84b2f4e9ef5f159602806cb5/rabbitmq/samples/?at=master упаковываю этот же код в helm чарт - кластер не собирается: https://bitbucket.org/fulldivevr/kubernetes-charts/src/363bdf469f080a8c84b2f4e9ef5f159602806cb5/rabbitmq/?at=master друзья, если у кого есть время посмотрите плиз со стороны, может заметите где какую опцию упустил? че-то глаз замылился

Sergej
07.06.2017
12:01:15
heapster/influxdb/grafana тупо не ставятся как аддон
А что за проблема? Там конфигурация просто поправить под нужный url

Andrey
07.06.2017
12:21:12
А что за проблема? Там конфигурация просто поправить под нужный url
я через --debug --dry-run смотрел, разницы не заметил... понимаю что она должна быть, просто мозги ее видимо пропускают :) https://pastebin.com/p79n629X

=INFO REPORT==== 7-Jun-2017::12:18:40 === autocluster: List of registered nodes retrieved from the backend: ['rabbit@10.104.0.26', 'rabbit@10.104.2.25', 'rabbit@10.104.5.93'] =ERROR REPORT==== 7-Jun-2017::12:18:40 === autocluster: No nodes to choose the preferred from! =INFO REPORT==== 7-Jun-2017::12:18:40 === autocluster: Picked node as the preferred choice for joining: undefined =INFO REPORT==== 7-Jun-2017::12:18:40 === autocluster: Running step maybe_cluster =INFO REPORT==== 7-Jun-2017::12:18:40 === autocluster: We are the first node in the cluster, starting up unconditionally.

все, понял в чем проблема - сервис не тот прописывал в плагине rabbitmq-autocluster (если что)

Denis
07.06.2017
12:53:38
Есть @devops_jobs
Спасибо!

Let Eat
07.06.2017
13:50:23
все, понял в чем проблема - сервис не тот прописывал в плагине rabbitmq-autocluster (если что)
statefulset обновлять нельзя, как ими вообще пользоваться можно :)

Andrey
07.06.2017
13:51:46
сохранить в yaml, удалить стейтфулсет с —cascade=false, поправить, зааплаить Ж)

Let Eat
07.06.2017
13:53:42
интересно, что потом? )

Andrey
07.06.2017
13:55:25
перезапустит поды

Let Eat
07.06.2017
13:57:38
там же controller reference или что-то такое было, новый стейтфулсет подберет поды?

Andrey
07.06.2017
13:59:24
насколько я понял из документации - должен (поправьте если ошибаюсь): https://kubernetes.io/docs/tutorials/stateful-application/basic-stateful-set/#non-cascading-delete

Alisa
07.06.2017
14:36:50
как вы обновляете поды в вашем кластере? какой самый удобный способ делать это из CD? через частный helm репозиторий?

Let Eat
07.06.2017
14:40:10
смешались в кучу люди кони

Страница 181 из 958