
Dmitry
12.02.2018
09:53:19
Скорее всего в таком кластере ipvs будет предпочтительнее iptables

M
12.02.2018
09:53:45

Dmitry
12.02.2018
09:54:45
О. 40 000 нельзя, но можно попытаться собрать из восьми кластеров по 5000 federation. ;)

Anton
12.02.2018
09:54:56
Kubernetes The hard way
https://github.com/kinvolk/kubernetes-the-hard-way-vagrant — вот тут еще можно посмотреть как на вагранте hard way (на случай, если нет возможности с gce связываться)

Google

M
12.02.2018
09:55:30
блин какие вы хорошие тут , спасибо

Andor
12.02.2018
10:02:11

Mikhail
12.02.2018
10:02:29

Andor
12.02.2018
10:02:45
именно поэтому я не теоретизирую

Mikhail
12.02.2018
10:03:06
так - просто ворчишь )

Andor
12.02.2018
10:03:23
жду когда 18.04 выпустят

Anton
12.02.2018
10:04:33
макось — лучшее из говен!

Andor
12.02.2018
10:05:58
ну если ты готов мириться с наркоманскими раскладками клавиатуры и дебильным управлением окнами - то возможно
сорри за оффтоп

Anton
12.02.2018
10:07:12
C этим лучше в @it_holywars.

Evgenii
12.02.2018
10:15:53
Скажите, а насколько фэншуйно etcd-кластер на хост-нодах k8s использовать под другие цели? Делает так кто?

Mikhail
12.02.2018
10:17:05

Google

Denis
12.02.2018
10:18:06
Мне нравится рассматривать control plane как единую систему и etcd ее часть. Так что ИМХО не по феншую

Dmitry
12.02.2018
10:19:27

Denis
12.02.2018
10:19:52
Но я думаю вопрос в использовании etcd напрямую

Evgenii
12.02.2018
10:20:07
да

Fike
12.02.2018
10:36:58
я бы не стал просто по той причине, что если вы как-то из приложения завалите etcd, вы завалите и кубер тоже

Anton
12.02.2018
10:37:47
Andrey, зря годный совет по СУБД удалил. ?

Andrey
12.02.2018
10:38:22
ну или кубер завалит приложение, потому что у него рутовый доступ и никто не гарантирует, что оно не затрёт ваши данные

Let Eat
12.02.2018
10:39:58

Andrey
12.02.2018
10:40:49
> можно разделять в теории
в документации k8s описано, к каким ключам ему нужен доступ?

Let Eat
12.02.2018
10:41:11
Флаг был у apiserver

Andrey
12.02.2018
10:42:01
а. ну тогда нет проблем. Кроме изоляции ресурсов

Let Eat
12.02.2018
10:42:34
Можно потом в etcd при помощи user, role, grants ограничить доступ к префиксу. Но это если времени дофига и заняться нечем

Denis
12.02.2018
10:42:42

Daniyar
12.02.2018
10:47:37
Доброго дня, коллеги! У меня задачка запустить в gitlab ci два связанных контейнера, понимаю что буду использовать docker-compose, но есть НО, сервис jboss у второго не должен быть стартанутым и запустить его должен первый при проведении integration testов, вот надо понять как это сварить

Maksim
12.02.2018
10:49:16
ммм мне видится что первый контейнер должен запускать второй...

Mikhail
12.02.2018
10:50:00
The kubelet uses readiness probes to know when a Container is ready to start accepting traffic. A Pod is considered ready when all of its Containers are ready.

Vadim
12.02.2018
10:56:03
^ this, потом через https://kubernetes.io/docs/concepts/containers/container-lifecycle-hooks/#container-hooks в PostStart хуке запускать второй контейнер

Google

Pasha
12.02.2018
12:59:11
подскажите пожалуйста, я могу в кубеспрее передать ip range, чтобы потом кубернетес использовал его для выставления сервисов наружу?

Алексей
12.02.2018
12:59:46
нет

Anton
12.02.2018
12:59:47
раскройте вопрос пожалуйста

Алексей
12.02.2018
12:59:55
сорри,
промахнулся

Pasha
12.02.2018
13:00:47
как мне передать в кубеспрей рейнж адресов из которых брать external_ip для деплойментов?

Айбелив
12.02.2018
13:01:30
ну это уже проблемы не кубернетеса, имхо

Anton
12.02.2018
13:01:43
так эти адреса назначить "снаружи" должны на машину

Pasha
12.02.2018
13:02:36
эти адреса надо повесить на какие-то интерфейсы мастера кубернетеса?

Anton
12.02.2018
13:03:03
нод

Pasha
12.02.2018
13:04:23
на все что ли? о_О

Anton
12.02.2018
13:10:08
Ну как же это будет работать

Denis
12.02.2018
13:11:24
есть кто нибудь на 1.9.2 кто может poweroff сделать для одной из нод etcd? Мы тут наблюдаем интересное поведение - если сделать poweroff любой ноде с etcd которая была активна на момент старта apiserver - на всех apiserver начинают сыпаться ошибки. При этом если просто выключить через systemctl то все окей. Непонятно это особенности нашей инфры или же мы что-то не понимаем. Очень похоже на https://github.com/kubernetes/kubernetes/issues/6559, но это 2015 год
Помогает только рестарт apiserver

kvaps
12.02.2018
15:08:50
Кто нибудь знает как ConfigMap с специфичным UID и GID смонтировать?

P.
12.02.2018
15:22:45
Многие говорят что де базу нельзя держать в кубере
Допустим, есть свой кубер на выделенных серверах
Понятно, что можно поставить базу не через кубер, но это же значит что придется каким-то другим инструментом для деплоя/конфигурации пользоваться вроде солта или энсибла, разворачивать итд, по-моему это лишний оверхед, от которого лучше бы избавиться
У меня возникла идея прибить контейнер к одной конкретной ноде через nodeSelector и использовать локальной вольюм для базы, монтируя его через hostPath
Если нода пропадет, база будет недоступна, но тут точно такая же ситуация как если бы база была настроена не в кубере, то есть нужно делать фейловер там и там

Denis
12.02.2018
15:25:05
Да нормальное решение
многие пихают базы в куб

Google

Maksim
12.02.2018
15:25:52
у стандартных баз есть одна осоенность, они не разу пишут на диск. Так что неожиданная смерть пода может губительно сказать на целостности данных

Denis
12.02.2018
15:26:32
Только наверное лучше это сделать через persistent volume и statefulset как мне кажется
ну то есть сделать так что единствнное место для пода из стейтфулсета будет там где прибит гвоздями PV

Maksim
12.02.2018
15:28:32
stateful сет приимуществ не даст. так что его использование бессмысленно
и можно делать норм pvc и pv через стандартнуб систему sds

Denis
12.02.2018
15:30:30
А кто даст гарантии что только один истанс запущен пода с этим PV ?
Или куб не даст использовать в двух подах?

Maksim
12.02.2018
15:31:38
Завист от прав
ReadWriteOnce объявляешь и только один под

kvaps
12.02.2018
15:33:01

Maksim
12.02.2018
15:33:21
Для баз банных то?

kvaps
12.02.2018
15:33:27
Стабильный network identifier и гарантия только одного пода

Maksim
12.02.2018
15:35:16
если нет желания собирать отказоустйочивый кластер с standby серверами и скриптами перевыбора мастера особого смысла запихивать базу в statefulset нету

kvaps
12.02.2018
15:35:28
кроме того если все сделать правильно, то можно будет grow'ить базу через kubectl scale --replicas=X
и все последующие реплики будут настраиваться на предыдущие

Denis
12.02.2018
15:36:23
https://patroni.readthedocs.io/en/latest/

Fike
12.02.2018
16:08:20

Bogdan (SirEdvin)
12.02.2018
16:15:09
Ну, такое есть. Как минимум, в жесткую файловую систему не сразу попадает информация) Иногда в промежуточные логи, которые потом (после остановки и перезапуска базы) не будут читатся (не совсем классический пример, но привет Кассандра)

Fike
12.02.2018
16:16:30
вы сейчас про кэш в дешевых хардах или что
потому что ни одно разумное хранилище не отдаст вам подтверждение коммита без фсинка wal