@kubernetes_ru

Страница 297 из 958
Kvendingoldo
17.10.2017
13:56:16
Господа, а nginx правильнее разворачивать через Deployment или же StatefulSet?

Anton
17.10.2017
13:57:56
зачем ему состояние?

Kvendingoldo
17.10.2017
14:00:00
я пока еще не придумал)

из-за этого и спросил

Google
Anton
17.10.2017
14:01:21
я уже придумал что можно сложное приложение напилить на его основе. но подумал может еще какие есть варинты

Maksim
17.10.2017
14:15:34
StateFull нужен кластерным приложениям с dns descovery методами, для постоянного кластера

Например кассандре или Зукиперу

Алексей
17.10.2017
14:25:53
или редису

Oleg
17.10.2017
14:38:41
Кто пользовал Telepresence?

Кто знает кого-нибудь кто пользовал Telepresence? )

Lev
17.10.2017
14:48:33
Кто знает кого-нибудь из тех ребят, которые знают парней, которые знаю тех, кто использовал Telepresence? ?parter_id=12564&no_cache=1

Mikhail
17.10.2017
15:52:36
Скажите, как мне рассовать существующие поды по новым машинам? Было 3 старых, стало 17. Мне надо теперь их равномерно размазать. Что-то хорошее и светлое в голову не приходит, только ручная работа.

Типа расширить репликасет, отменить шедулинг на старые и грохнуть старые поды

Maksim
17.10.2017
15:57:15
мм скажи delete pod —all —all-namespaces и шедулер пересоздаст поды на всех 17 нодах

-)

ну это к глобальному

ну а можно не парится,в процессе эксплуатации (апдейтов и т.п.) поды сами расползутся

Google
Mikhail
17.10.2017
15:59:27
У меня там прод крутится, октитесь:)

Ну дело в том что тесно им там

Maksim
17.10.2017
15:59:57
где там?

Mikhail
17.10.2017
16:00:09
На 3 нодах

Maksim
17.10.2017
16:00:17
ну а ни каких других способов то и нет...

Mikhail
17.10.2017
16:00:23
Надо размазать по 17

Maksim
17.10.2017
16:00:25
говорить delete поду

и шедулер запускает его на наиболее свободной ноде

Mikhail
17.10.2017
16:01:22
Ок, попробую так. Возможно просто делит одного пода поможет

Maksim
17.10.2017
16:01:59
если удалит один под, только удалённый под и запустится на одной из новых нод

старые останутся на своих местах

Mikhail
17.10.2017
16:07:56
Ну да, но хотелось удобств :)

Maksim
17.10.2017
16:14:55
ну нет livemigration механизма для контейнеров в принцепе

так что мигрировать под может только через свою смерть

Логично что Кубер не должен убивать Под просто потому что

Oleg
17.10.2017
16:18:12
Можно кластер на одну железку поставить?

Maksim
17.10.2017
16:23:41
а какой же это тогда кластер?)

Oleg
17.10.2017
16:25:11
Куберовый

Maksim
17.10.2017
16:25:21
мм нет)

ну всякие там мастер компоненты и кубелет запустить на одной машине можно

Google
Vik
17.10.2017
16:26:12
Всем Дратути. Гоняет ли тут кто кафку пол кубером?

Витя Гамов, подкаст Разбор Полетов, SA в Confluent

Mikhail
17.10.2017
16:31:53
Логично что Кубер не должен убивать Под просто потому что
Я не про лайв миргейшен. Меня устроит через смерть пода. Ну и да, я это могу реализовать сам, думал вдруг уже есть, чего зря писать.

Oleg
17.10.2017
18:14:25
ну всякие там мастер компоненты и кубелет запустить на одной машине можно
ну то есть можно на одной железке запустить etcd, kube-master и kube-node?

Oleg
17.10.2017
18:15:13
супер, спс

s3rj1k
17.10.2017
19:51:13
https://techcrunch.com/2017/10/17/docker-gives-into-invevitable-and-offers-native-kubernetes-support/?ncid=rss

s3rj1k
17.10.2017
19:52:52
как раз CRI-O зарелизился
а как оно лучше по сравнению с обычным подходом?

Paul
17.10.2017
19:53:43
как минимум в нем нет такого впечатляющего количества глюков. Судя по историям тех, кто внедрил докер в прод – попытка обновления докера напоминает ремонт самолета в полете. Одно починил – другое отвалилось

как там оверлей2, тар починили в нем?

Oleg
17.10.2017
20:10:50
поставил через kubespray кластер на одну железку. Это нормально что ядра что-то молотят по дефолту?



bebebe
17.10.2017
20:14:09
ну после плейбуки еще некоторое время требуется на шедулинг и запуск подов

Oleg
17.10.2017
20:25:15
по-ходу это нормальное состояние

не, не нормальное. проблема с днс была



вот нормальное

Google
Ivan
18.10.2017
07:01:09
Скажите, как мне рассовать существующие поды по новым машинам? Было 3 старых, стало 17. Мне надо теперь их равномерно размазать. Что-то хорошее и светлое в голову не приходит, только ручная работа.
а если перевести старые ноды в режим обслуживания? не переедут ли все инстансы с них на новые ноды? а если нет - то увеличить кол-во реплик - новые должны создаться на новых нодах. затем уменьшить кол-во реплик - по идее лишние должны удалиться со старых нод (т.к. они в режиме обслуживания). а вообще интересно)) если не трудно, отпишитесь о результате экспериментов)))

Ivan
18.10.2017
07:17:09
а расскажите мне пожалуйста в двух словах такую вещь... вот я хочу запилить мастер-компоненты кубернета в сам кубернет, чтобы при падении ноды, на которой они находились, они сами средствами кубера поднялись на другой ноде. но, я так подозреваю, что если упадёт нода с апи-сервером, то некому будет дать команду на деплой самого апи-сервера на другой ноде... я правильно понимаю?

Nick
18.10.2017
07:18:50
Правильно

Владимир Калинин
18.10.2017
07:18:56
А на свежей установке:

kubectl describe storageclass default Error from server (NotFound): storageclasses.storage.k8s.io "default" not found это нормально?

Ivan
18.10.2017
07:21:04
В общем лучше сделать 3 мастера сразу. Падение мастера не такой уж и страх
а что нужно продублировать? апи-сервера достаточно будет? или шедулер и контроллер-менеджер тоже лучше сделать в нескольких экземплярах?

Nick
18.10.2017
07:25:02
держи https://kubernetes.io/docs/admin/high-availability/

Ivan
18.10.2017
07:26:00
Спасибо!

vladget
18.10.2017
09:24:34
делаю нагрузоное, микросервисы, синхронный REST http: TLS handshake error from 172.20.3.3:31861: EOF Error syncing deployment stage/my-microservice: Operation cannot be fulfilled on deployments.extensions "my-microservice": the object has been modified; please apply your changes to the latest version and try again Сталкивались? Перегрузка по сети?
там 100500 TIME_WAIT от микросервисного общение и все начинается сыпаться, ставлю на нодах net.ipv4.tcp_max_tw_buckets=2000000,net.ipv4.tcp_tw_reuse=1,net.ipv4.tcp_fin_timeout=10, не помогает... а kops не дает поставить experimental-allowed-unsafe-sysctls для kubelet есть идеи?

Anton
18.10.2017
10:18:45
можно еще net.ipv4.ip_local_port_range увеличить. но может на keepalive переходить?

Nomadic
18.10.2017
12:00:26
Есть php сервис, для нормальной работы которого нужен хорошо разогретый memcache который крутится в том же поде. Надо перед тем как пускать на него трафик запустить php-скрипт который заполнит кеш, а потом уже отвечать на запросы Как это лучше в кубере сделать? initContainer не подходит так как мемкеш еще не будет запущен, отдельный контейнер в поде для разогрева кеша как по мне уже слишком, да и не нужен он после разогрева...

Nomadic
18.10.2017
12:02:37
и как ее запускать при каждом старте контейнера? и не обязательно при деплое

Magistr
18.10.2017
12:04:42
и как ее запускать при каждом старте контейнера? и не обязательно при деплое
хз, как вариант повесить хелсчек и как скрипт отработает отдать ок

Nomadic
18.10.2017
12:06:31
я и думал readinessProbe повесить на приложение которое отдаст 200 как только мемкеш будет запущен вопрос как инициировать запуск срипта отдельно от приложения

Magistr
18.10.2017
12:07:55
супервизором ?

Google
Nomadic
18.10.2017
12:08:15
не dockerway-но ?

Fike
18.10.2017
12:08:32
сделать entrypoint, который сначала запустит скрипт, а по его выходу запустит само приложение?

Fike
18.10.2017
12:09:33
разве?

Nomadic
18.10.2017
12:09:33
кроме того надо отслеживать сигналы, корректно завершать дочерние процессы...

Fike
18.10.2017
12:09:46
exec просто в конце скрипта и всё

он вытеснит текущий процесс тем, что ему будет передано

Alexander
18.10.2017
12:10:17
https://kubernetes.io/docs/tasks/configure-pod-container/configure-liveness-readiness-probes/

прогревай экзеком

Fike
18.10.2017
12:10:50
насколько помню, официальные образы sql бд так и работают, сначала инициализируют окружение, потом через exec запускают сам процесс

Nomadic
18.10.2017
12:12:26
прогревай экзеком
так проба запускается периодически, а прогрев может быть до нескольких минут

Anton
18.10.2017
12:13:37
в прогреве можно сделать проверку, грелось уже или нет =))

Fike
18.10.2017
12:13:55
если честно, не вижу большой разницы из-за временных рамок

порядок действий должен остаться тем же

Nomadic
18.10.2017
12:14:15
в прогреве можно сделать проверку, грелось уже или нет =))
такие мысли уже были, но както костыльно :)

Alexander
18.10.2017
12:14:39
та хоть файл-флажок и проверка башем

Nomadic
18.10.2017
12:15:28
я надеялся на что у кубера есть какието дополнительные возможности, но придется таки костыли скриптовать ?

Anton
18.10.2017
12:16:38
job же предложен был

а probe пускай опирается на прогретость кэша

Страница 297 из 958