@kubernetes_ru

Страница 528 из 958
Sergey
20.04.2018
11:28:04
для меня в моей практике - считаю, что кубер по крайней мере должен быть в трех ДЦ, чтобы еще и под CDN

Алексей
20.04.2018
11:28:15
зависимость от докера либо есть либо нет в любом варианте

Andor
20.04.2018
11:28:18
можно просто демоны запускать

Google
Айбелив
20.04.2018
11:28:32
Алексей
20.04.2018
11:28:43
есть еще rkt

Sergey
20.04.2018
11:28:51
а есть вариант запускать на машине etcd и кубелет без докера?
kubernetes это оркестрация контейнеров, зачем вам система без контейнеров

Andor
20.04.2018
11:28:53
затем что докер - исторически не самый надёжный продукт

djaarf
20.04.2018
11:28:54
а есть вариант запускать на машине etcd и кубелет без докера?
не понял вопрос, я про то что например рестарт докера рестартанет все контейнеры…

Ihor
20.04.2018
11:28:56
cri-o жи - будущее

djaarf
20.04.2018
11:28:57
как пример

Ihor
20.04.2018
11:29:02
точнее, уже настоящее)

в докере включается live restore и жизнь становится легче

Алексей
20.04.2018
11:29:32
“ рестарт докера рестартанет все контейнеры” зависит от настроек

Andor
20.04.2018
11:29:50
зависит от версии докера ещё

появилось в 1.13

Ihor
20.04.2018
11:31:29
ну и отмирание кублета не убьет ни под, ни контейнер, тем более, в systemd вы же включаете авто-подъем сервиса

Google
Alex Milushev
20.04.2018
11:33:17
и еще вопрос, кто тестил cri-containerd с кубером?

Andor
20.04.2018
11:33:19
ага, а ещё включаем автозамену блоков питания в серверах при фейле

не говоря уж про диски

да и сетевые карты иногда чудят

Алексей
20.04.2018
11:33:50
чет я про настоящее cri-o не уверен Support for network based file system images (NFS, Gluster, Cefs) is on the development roadmap

что под volumes использовать?

или я что то упустил?

Alex Milushev
20.04.2018
11:36:18
то есть лучше просто не выйобываться и взять обычный докер, правильно?

какую версию докера лучше всего использовать для куба 1.10.1 не подскажете?

Andor
20.04.2018
11:37:45
лично я рекомендую не старее 1.13

Vadim
20.04.2018
11:41:33
чет я про настоящее cri-o не уверен Support for network based file system images (NFS, Gluster, Cefs) is on the development roadmap
это поддержка удаленного хранилища имеджей - это и правда не реализовано. PV будут работать как обычно

Алексей
20.04.2018
11:45:42
Приветствую! Есть люди, кто запускал ceph хранилище внутри kubernetes? Напишите, пожалуйста, в лс

Алексей
20.04.2018
11:47:07
Не слышал о таком Я пытался использовать их helm чарты http://docs.ceph.com/docs/master/start/kube-helm/ Спасибо, сейчас почитаю

Алексей
20.04.2018
11:55:56
Vadim
20.04.2018
11:56:19
Алексей
20.04.2018
11:56:42
Эт понятно Просто уточняю

Fike
20.04.2018
11:57:05
Вот-вот. Рассказывайте. А то как буд-то в лужу перднули...
вот это понимаю профессиональная дискуссия

Google
Fike
20.04.2018
11:57:31
а что там есть? расскажите? т.е. просто фигачим в ноду изменения а дальше она реплицирует на все остальные? а что если одновременно на один ключ на две разных ноды запрос придет? как консистентностью быть?
Ключ не может прийти с двумя значениями одновременно, потому что мастер в данном терме только один. И он последовательно обработает оба запроса.

Let Eat
20.04.2018
11:58:42
при смерти кубелета мастера, умирает и etcd рядом
Присмерти kubelet контейнеры запущенные им остаются работать

Slach
20.04.2018
12:01:44
Ключ не может прийти с двумя значениями одновременно, потому что мастер в данном терме только один. И он последовательно обработает оба запроса.
я все таки не поняю, я сейчас про tcp уровень так, вот я инициализирую etcd клиента передаю ему на вход 3 ноды etcd он при иниицализации их все опросит и узнает какой мастер? а дальше будет "слать на него"?

Let Eat
20.04.2018
12:04:44
для меня в моей практике - считаю, что кубер по крайней мере должен быть в трех ДЦ, чтобы еще и под CDN
Обновления идут через лидера etcd, а он один.я так не запускал, но мне кажется аписерверу не очень понравится если он далеко. Да и самому кластеру etcd может быть сложно жить с пингами до других серверов кластера по 50-200мс да еще и нестабильными - частые перевыборы, таймауты еще какая нибудь хрень точно повылазит

Fike
20.04.2018
12:05:56
Они все начнут в состоянии candidate, спустя какое-то время у одного произойдет election timeout, после которого он начнет голосование за лидера в term 1, оставив голос за самого себя и попросив у соседей. На первой же или какой-нибудь там итерации кто-нибудь изберется, после чего начнет слать команду appendEntries всем фолловерам. Фолловеры за счет этого знают, кто сейчас мастер и куда роутить приходящий запрос.

Konstantin
20.04.2018
12:07:54
Приветствую, кто нибудь юзал Rancher 2.0 для создания и управления кластерами k8s в проде?

Let Eat
20.04.2018
12:09:41
Banschikov
20.04.2018
12:13:02
Подскажите а поды могут общатся друг с другом по ClusterIP?

Konstantin
20.04.2018
12:13:50
Если это не соцопрос, то лучше сразу вопрос писать :)
?? к делу: хочется узнать столкнулись ли с какими то проблемами, потому что в режиме 'чисто заценить' штука кажется удобной. Но вот различные его прослойки в виде cattle как то не внушают доверия. Документация очень бедная, если говорить о 2.0 версии. Вот и хочется мини отзыв о возможных граблях, первые из которых его настройка с SSL

Dmytro
20.04.2018
12:14:15
etcd очень чувствителен к латенси - думаю что в разные ДЦ не разнести ноды одного кластера

Подскажите а поды могут общатся друг с другом по ClusterIP?
хмм ClusterIP это тип сервиса, причем тут общение подов?

Konstantin
20.04.2018
12:15:39
Подскажите а поды могут общатся друг с другом по ClusterIP?
Вам в сторону ENV переменных и внутреннего DNS

Banschikov
20.04.2018
12:16:07
Valentin
20.04.2018
12:16:18
Подскажите а поды могут общатся друг с другом по ClusterIP?
это уже общение “через сервис” получается

Banschikov
20.04.2018
12:17:09
это уже общение “через сервис” получается
собственно да. Про это и имел в виду.

Dmytro
20.04.2018
12:18:01
просто за одним сервисом может сидеть несколько реплик одного пода - поэтому это не общение подов

Google
Banschikov
20.04.2018
12:19:02
просто за одним сервисом может сидеть несколько реплик одного пода - поэтому это не общение подов
Да не правильно выразился. Интересно стало могут ли сервисы общатся друг с другом

Konstantin
20.04.2018
12:22:21
Да не правильно выразился. Интересно стало могут ли сервисы общатся друг с другом
Общение сервисов, если речь идёт о ресурсе Service - не есть общение подов

Konstantin
20.04.2018
12:23:16
?

Dmytro
20.04.2018
12:29:20
сервисы не могут общаться между собой, это записи в iptables. Может вы лучше расскажите свою задачу а мы попробуем подсказать?

Sergey
20.04.2018
12:31:08
kubedns вообще все должен решать

Banschikov
20.04.2018
12:35:28
сервисы не могут общаться между собой, это записи в iptables. Может вы лучше расскажите свою задачу а мы попробуем подсказать?
Я вообще интересуюсь ради интереса и познания мира кубера. просто 4-й день только изучаю

Valentin
20.04.2018
12:38:11
человек не может ходить - это трение между обувью и объектами на земной поверхности

Sergey
20.04.2018
12:38:23
а вы как себе представляете микросервисы которые сами между собой не контачат?

Dmytro
20.04.2018
12:38:36
хмм ну ок, сервисы могут общаться также как и две днс записи

мы про сервисы в кубе или какие-то абстрактные?

Konstantin
20.04.2018
12:39:33
Сервисы в кубе как минимум могут общаться через ingress

Valentin
20.04.2018
12:40:25
они могут и без ингреса )

ингрес для внешних пользователей

Fike
20.04.2018
12:40:51
Вы серьезно?
сервис в контексте кубера - это просто абстракция, которая действительно существует только в виде записей в iptables, которые и пробрасывают магическим образом коннекты к не совсем реальным адресом до реальных подов. Таким образом сами по себе сервисы действительно не могу общаться, стоящие за ними поды - могут.

Konstantin
20.04.2018
12:42:25
Да кто ж спорит?

Valentin
20.04.2018
12:42:32
это тоже самое, что “в гите нет веток”.

Konstantin
20.04.2018
12:43:17
Google
Valentin
20.04.2018
12:43:29
технически веток нет, но все подразумевают, что есть

Env, dns?
нуда, через внутренний днс-сервис

точнее, “получая маршруты из внутреннего днс-сервиса”

Dmytro
20.04.2018
12:46:18
думаю, что выбрана неверная аналогия. Аналогия сервисов это домены, никто же не говорит что домены общаются

Dmytro
20.04.2018
12:46:37
общаются сервера куда указывают домены

Sergey
20.04.2018
12:47:02
Alexander
20.04.2018
12:49:11
Првет! Кто нибудь юзает Crunchy PostgreSQL for Kubernetes ?

Alex Milushev
20.04.2018
13:09:43
есть вопрос, а можно порт статик пода забиндить на определенный ip на хосте?

точнее на локалхост мне надо

Sergey
20.04.2018
16:02:54
гайз, я хочу странного. мне нужен автоматический способ понимать, что current state == desired state для некоторого множества кубернетесовых артефактов - деплойментов, сервисов, ингрессов и т.п. покажите, куда копать, пожалуйста.

66271
20.04.2018
16:04:37
по стетйам ansible хорошо) описал стейт и в крон его

Alex Milushev
20.04.2018
16:08:04
у меня docker не может спулить имаджи для etcd и flannel с quay.io, у вас все ок?

Maksim
20.04.2018
16:09:22
Прикрыли много ркн

Sergey
20.04.2018
16:12:04
bebebe
20.04.2018
16:12:13
поясните вашу проблематику

Sergey
20.04.2018
16:12:58
ты разворачиваешь тестовый стенд со всей инфраструктурой в k8s. развёртывание занимает существенное время, причем сложнопредсказываемое. потом надо стартовать интеграционные тесты. нужно определять момент, когда "всё закончилось, можно стартовать тесты".

я могу делать это на ручном приводе для всех подов, засовывая в них чеки, но это немножко некрасивый путь.

bebebe
20.04.2018
16:14:10
я могу делать это на ручном приводе для всех подов, засовывая в них чеки, но это немножко некрасивый путь.
ээ, а нельзя опираться на readiness check который отдает каждый под и просто дожидаться RUNNING?

Страница 528 из 958