Bro
хм так может и на авс задеплоить тем что coreos предлагают
Bro
minukube какой-то ущербный кроме как hello world нихрена как следует не работает
Bro
лоад балансера нет, и если он прописан просто сервис не стартует поды
Bro
он еще маунтит на маке всю папку /Users
Bro
https://github.com/kubernetes/minikube/issues/1500
Bro
прям гет взял 1500
Bro
so now it appears that /Users was mounted and sudo rm -rf /Users ran against my host /Users (oops 💣 )
Bro
блеск
Logan
а миникуб классная штука я смотрю
Logan
коллеги, а тут есть кроме меня те, кто пользуются цефом?
Bro
зачем он?
Bro
блин а как мне мои EBS волумы юзать. если например 2 воркера. как поды будут подхватывать волум?
Logan
зачем он?
а затем, что мы не используем AWS. А Ceph самый вменяемый из того, что есть в железе
Bro
https://coreos.com/kubernetes/docs/latest/kubernetes-on-aws.html
Bro
что бы заюзать для деплоя?
Bro
kopt или core-os?
G72K
Bro
kube-aws это вроде и есть core-os
Bro
фух ну вроде чутка разобрался уже чето задеплоил.
Bro
наверное все же kube-aws заюзаю, потом. если локально все нормально будет работать.
Bro
https://github.com/kubernetes/kubernetes/issues/3595
Bro
фигово блин
Bro
Mlocking
This is a limitation in kubernetes right now. There is no way to raise the limits of lockable memory, so that these memory areas won't be swapped. This would degrade performance heaviliy.
Bro
это про эластик пишут
Anonymous
StatefulSet.apps "elevated-hamster-mongodb-replicaset" is invalid: spec: Forbidden: updates to statefulset spec for fields other than 'replicas' and 'containers' are forbidden
что можно придумать если я хочу affinity без даунтайма привязать к подам?
Bro
о у меня тоже сегодня был эливэйтед кто-то
Anonymous
хе хе, бесмысленное и беспощадное дефолтное наименование helm :)
Anonymous
я пока не понял как это глупо - успел в прод монгу запустить
Bro
жесть
Bro
я пока только собираюсь
Bro
у меня тоже монга
Bro
не пойму хайп с ulimit а разве нельзя на хосте поднять его?
Bro
если нужно
Denis
Подскажите пожалуйста,
имеется нода (cpu: "40"), в k8s 1.6.4 судя по графикам limit CPU прыгает.
Я правильно понимаю, что лимиты это динамическая единица?
Denis
и зависит она напрямую от реквестов?
Bro
как понять прыгает?
Bro
нода "40"? 40 ядер чтоли?
Anonymous
кто-нибудь игрался с chaos monkey в своих кластерах?
Anonymous
вроде не пятница еще, но у меня появилось желание на проде запустить потестить :)
Ivan
Чатик, у кого нить крон джобы в кубике работают?
Anonymous
а они не в альфе еще?
Ivan
в альфе судя по версии апи, но малоли есть такие
Denis
нода "40"? 40 ядер чтоли?
ага, 40 ядер, при kubectl get node/nodename -o yaml (cpu: “40”).
скачет - по мониторингу, то есть утром limit был 10millicores, сейчас 13, вчера 9. и тд
Vitalii
у нас CronJob работают. Правда есть отдельный CronJob, который удаляет выполненные Job и их Pod, т.к. 1.5 ещё :)
Anonymous
в общем еще полгода и вообще конфетка из кубера будет )
Anonymous
минимум
Anonymous
и что бы это значило..
Etki
что ребята владеют настолько сраным пабликом, что к ним даже народ сам не идет
Anonymous
spam👆👆👆
Anonymous
ну и кикнуть их
Lupsik Pupsik
кто-нибудь собирал kubernetes-кластер из docker-compose?
Anton
с docker stack deploy?
Anton
https://github.com/Mirantis/kubeadm-dind-cluster
Anton
на хабре тут статья была вчера
G72K
Кто StatefulSet обновлять хотел? Похоже в 1.7 будет из горобки https://github.com/kubernetes/kubernetes/pull/46669
Knyage
Подскажите пожалуйста, никак не могу понять, ЧЯДН.
Пытаюсь поднять кластер etcd, запуски с такими параметрами:
ExecStart=/usr/bin/etcd --name etcd-master-01 \
--initial-advertise-peer-urls https://10.19.0.20:2380 \
--advertise-client-urls http://10.19.0.20:2379 \
--listen-peer-urls http://10.19.0.20:2380 \
--listen-client-urls http://10.19.0.20:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://10.19.0.20:2379 \
--data-dir=/var/etcd/data \
--initial-cluster-token piw-cluster-1 \
--initial-cluster etcd-master-01=http://10.19.0.20:2380,etcd-master-02=http://10.19.0.21:2380,etcd-master-03=http://10.19.0.22:2380 \
--initial-cluster-state new
Соответственно на каждой из нод IP и имя изменяется.
Но в кластер оно вс еравно не собирается, каждый хост создает свой кластер.
etcdctl member list
8e9e05c52164694d: name=etcd-master-01 peerURLs=http://localhost:2380 clientURLs=http://10.19.0.20:2379 isLeader=true
Пождскажите, люди добрые, уже голову сломал, не пойму что не так.
П.С. делал по инструкции coreos, только ставлю на debian.
G72K
а про других что-нибудь пишет в логах?
Knyage
member list соответственно показывает сам себя и что он кластер. Т.е. по сути у меня сейчас 3 кластера по 1 ноде x_x
Ivan
у тебя тут https :
—initial-advertise-peer-urls https://10.19.0.20:2380
а тут http:
—initial-cluster
. Попробуй покрутить. Могу конечно ошибаться=)
Knyage
Knyage
Попробую, спасибо)
Knyage
Denis
Привет! А есть какой нибудь канал с вакансиями Ops?
Artem
linkedin?)
Denis
в телеге )
Denis
Есть @devops_jobs
Anonymous
суть: хочу запустить кластер из rabbitmq
создал petset + service - все ок, кластер собирается:
https://bitbucket.org/fulldivevr/kubernetes-charts/src/363bdf469f080a8c84b2f4e9ef5f159602806cb5/rabbitmq/samples/?at=master
упаковываю этот же код в helm чарт - кластер не собирается:
https://bitbucket.org/fulldivevr/kubernetes-charts/src/363bdf469f080a8c84b2f4e9ef5f159602806cb5/rabbitmq/?at=master
друзья, если у кого есть время посмотрите плиз со стороны, может заметите где какую опцию упустил? че-то глаз замылился
G72K
Anonymous
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: List of registered nodes retrieved from the backend: ['rabbit@10.104.0.26',
'rabbit@10.104.2.25',
'rabbit@10.104.5.93']
=ERROR REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: No nodes to choose the preferred from!
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: Picked node as the preferred choice for joining: undefined
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: Running step maybe_cluster
=INFO REPORT==== 7-Jun-2017::12:18:40 ===
autocluster: We are the first node in the cluster, starting up unconditionally.
Anonymous
все, понял в чем проблема - сервис не тот прописывал в плагине rabbitmq-autocluster (если что)
Denis
G72K
Anonymous
сохранить в yaml, удалить стейтфулсет с —cascade=false, поправить, зааплаить Ж)
G72K
интересно, что потом? )
Anonymous
перезапустит поды