@kubernetes_ru

Страница 421 из 958
Dmitry
12.02.2018
09:53:19
Скорее всего в таком кластере ipvs будет предпочтительнее iptables

M
12.02.2018
09:53:45
Dmitry
12.02.2018
09:54:45
О. 40 000 нельзя, но можно попытаться собрать из восьми кластеров по 5000 federation. ;)

Anton
12.02.2018
09:54:56
Kubernetes The hard way
https://github.com/kinvolk/kubernetes-the-hard-way-vagrant — вот тут еще можно посмотреть как на вагранте hard way (на случай, если нет возможности с gce связываться)

Google
M
12.02.2018
09:55:30
блин какие вы хорошие тут , спасибо

Andor
12.02.2018
10:02:11
как вычислить воинствующего линухоеда?
он сам тебе об этом скажет, потому что макось говно :)

Mikhail
12.02.2018
10:02:29
Andor
12.02.2018
10:02:45
именно поэтому я не теоретизирую

Mikhail
12.02.2018
10:03:06
именно поэтому я не теоретизирую
не, была бы говно - слез бы ?

так - просто ворчишь )

Andor
12.02.2018
10:03:23
жду когда 18.04 выпустят

Anton
12.02.2018
10:04:33
макось — лучшее из говен!

Andor
12.02.2018
10:05:58
ну если ты готов мириться с наркоманскими раскладками клавиатуры и дебильным управлением окнами - то возможно

сорри за оффтоп

Anton
12.02.2018
10:07:12
C этим лучше в @it_holywars.

Evgenii
12.02.2018
10:15:53
Скажите, а насколько фэншуйно etcd-кластер на хост-нодах k8s использовать под другие цели? Делает так кто?

Google
Denis
12.02.2018
10:18:06
Мне нравится рассматривать control plane как единую систему и etcd ее часть. Так что ИМХО не по феншую

Denis
12.02.2018
10:19:52
Но я думаю вопрос в использовании etcd напрямую

Evgenii
12.02.2018
10:20:07
да

Fike
12.02.2018
10:36:58
я бы не стал просто по той причине, что если вы как-то из приложения завалите etcd, вы завалите и кубер тоже

Anton
12.02.2018
10:37:47
Andrey, зря годный совет по СУБД удалил. ?

Andrey
12.02.2018
10:38:22
ну или кубер завалит приложение, потому что у него рутовый доступ и никто не гарантирует, что оно не затрёт ваши данные

Andrey, зря годный совет по СУБД удалил. ?
не, я понял, такое ноу-хау надо патентовать

Let Eat
12.02.2018
10:39:58
ну или кубер завалит приложение, потому что у него рутовый доступ и никто не гарантирует, что оно не затрёт ваши данные
Ну так то доступ можно разделять в теории, но никто на практике так не делает. Ну а вообще сратт в общий горшог негигиенично и етсд надо разделять. Вообще все надо разделять, шинковать и огораживать

Andrey
12.02.2018
10:40:49
> можно разделять в теории в документации k8s описано, к каким ключам ему нужен доступ?

Andrey
12.02.2018
10:42:01
а. ну тогда нет проблем. Кроме изоляции ресурсов

Let Eat
12.02.2018
10:42:34
Можно потом в etcd при помощи user, role, grants ограничить доступ к префиксу. Но это если времени дофига и заняться нечем

Denis
12.02.2018
10:42:42
Daniyar
12.02.2018
10:47:37
Доброго дня, коллеги! У меня задачка запустить в gitlab ci два связанных контейнера, понимаю что буду использовать docker-compose, но есть НО, сервис jboss у второго не должен быть стартанутым и запустить его должен первый при проведении integration testов, вот надо понять как это сварить

Maksim
12.02.2018
10:49:16
ммм мне видится что первый контейнер должен запускать второй...

Mikhail
12.02.2018
10:50:00
The kubelet uses readiness probes to know when a Container is ready to start accepting traffic. A Pod is considered ready when all of its Containers are ready.

Vadim
12.02.2018
10:56:03
^ this, потом через https://kubernetes.io/docs/concepts/containers/container-lifecycle-hooks/#container-hooks в PostStart хуке запускать второй контейнер

Google
Pasha
12.02.2018
12:59:11
подскажите пожалуйста, я могу в кубеспрее передать ip range, чтобы потом кубернетес использовал его для выставления сервисов наружу?

Алексей
12.02.2018
12:59:46
нет

Anton
12.02.2018
12:59:47
раскройте вопрос пожалуйста

Алексей
12.02.2018
12:59:55
сорри,

промахнулся

Pasha
12.02.2018
13:00:47
раскройте вопрос пожалуйста
когда делаю expose деплойменту ему назначается external_ip

как мне передать в кубеспрей рейнж адресов из которых брать external_ip для деплойментов?

Айбелив
12.02.2018
13:01:30
ну это уже проблемы не кубернетеса, имхо

Anton
12.02.2018
13:01:43
так эти адреса назначить "снаружи" должны на машину

Pasha
12.02.2018
13:02:36
эти адреса надо повесить на какие-то интерфейсы мастера кубернетеса?

Anton
12.02.2018
13:03:03
нод

Pasha
12.02.2018
13:04:23
на все что ли? о_О

Anton
12.02.2018
13:10:08
Ну как же это будет работать

Denis
12.02.2018
13:11:24
есть кто нибудь на 1.9.2 кто может poweroff сделать для одной из нод etcd? Мы тут наблюдаем интересное поведение - если сделать poweroff любой ноде с etcd которая была активна на момент старта apiserver - на всех apiserver начинают сыпаться ошибки. При этом если просто выключить через systemctl то все окей. Непонятно это особенности нашей инфры или же мы что-то не понимаем. Очень похоже на https://github.com/kubernetes/kubernetes/issues/6559, но это 2015 год

Помогает только рестарт apiserver

kvaps
12.02.2018
15:08:50
Кто нибудь знает как ConfigMap с специфичным UID и GID смонтировать?

P.
12.02.2018
15:22:45
Многие говорят что де базу нельзя держать в кубере Допустим, есть свой кубер на выделенных серверах Понятно, что можно поставить базу не через кубер, но это же значит что придется каким-то другим инструментом для деплоя/конфигурации пользоваться вроде солта или энсибла, разворачивать итд, по-моему это лишний оверхед, от которого лучше бы избавиться У меня возникла идея прибить контейнер к одной конкретной ноде через nodeSelector и использовать локальной вольюм для базы, монтируя его через hostPath

Если нода пропадет, база будет недоступна, но тут точно такая же ситуация как если бы база была настроена не в кубере, то есть нужно делать фейловер там и там

Denis
12.02.2018
15:25:05
Да нормальное решение

многие пихают базы в куб

Google
Maksim
12.02.2018
15:25:52
у стандартных баз есть одна осоенность, они не разу пишут на диск. Так что неожиданная смерть пода может губительно сказать на целостности данных

Denis
12.02.2018
15:26:32
Только наверное лучше это сделать через persistent volume и statefulset как мне кажется

ну то есть сделать так что единствнное место для пода из стейтфулсета будет там где прибит гвоздями PV

Maksim
12.02.2018
15:28:32
stateful сет приимуществ не даст. так что его использование бессмысленно

и можно делать норм pvc и pv через стандартнуб систему sds

Denis
12.02.2018
15:30:30
А кто даст гарантии что только один истанс запущен пода с этим PV ?

Или куб не даст использовать в двух подах?

Maksim
12.02.2018
15:31:38
Завист от прав

ReadWriteOnce объявляешь и только один под

kvaps
12.02.2018
15:33:01
stateful сет приимуществ не даст. так что его использование бессмысленно
Это еще почему? Как раз для этого их и придумали

Maksim
12.02.2018
15:33:21
Для баз банных то?

kvaps
12.02.2018
15:33:27
Стабильный network identifier и гарантия только одного пода

Maksim
12.02.2018
15:35:16
если нет желания собирать отказоустйочивый кластер с standby серверами и скриптами перевыбора мастера особого смысла запихивать базу в statefulset нету

kvaps
12.02.2018
15:35:28
кроме того если все сделать правильно, то можно будет grow'ить базу через kubectl scale --replicas=X

и все последующие реплики будут настраиваться на предыдущие

Denis
12.02.2018
15:36:23
https://patroni.readthedocs.io/en/latest/

Bogdan (SirEdvin)
12.02.2018
16:15:09
Ну, такое есть. Как минимум, в жесткую файловую систему не сразу попадает информация) Иногда в промежуточные логи, которые потом (после остановки и перезапуска базы) не будут читатся (не совсем классический пример, но привет Кассандра)

Fike
12.02.2018
16:16:30
вы сейчас про кэш в дешевых хардах или что

потому что ни одно разумное хранилище не отдаст вам подтверждение коммита без фсинка wal

Страница 421 из 958