@kubernetes_ru

Страница 400 из 958
Let Eat
24.01.2018
16:01:03
нет, важна консистентность в кластере
Важно чтобы купив билет на самолет ты пришел и там было твое место )) а не так, что транщакцию клиенту подтвердили а потом потеряли

Sergey
24.01.2018
16:01:25
потому что если у вас разошлись истории, вы рискуете столкнуться с тем, что транзакция применится на половине кластера
транзакция не может примениться на половине кластера, если реализовать этот алгоритм нормально.

Let Eat
24.01.2018
16:02:17
потому что если у вас разошлись истории, вы рискуете столкнуться с тем, что транзакция применится на половине кластера
Всегда следующий мастер выбирать из неупавших, любого с максимальным щетчиком транзакций

Fike
24.01.2018
16:02:20
Ну строго говоря в распределенной системе обязательно есть момент, когда транзакция применилась на определенной части кластера, потому что там невозможна атомарность

Google
Fike
24.01.2018
16:02:32
Если тольк омы не гоним все через одного мастера

Sergey
24.01.2018
16:02:37
мы же уже сталкивались на обсуждении рафта
я не помню. но щас эта дискуссия напоминает "Возьмём поезд, разгоним его до двух скоростей света. Следовательно скорость света не является предельной. Вуаля, теория относительности опровергнута!"

Let Eat
24.01.2018
16:02:51
Fike
24.01.2018
16:04:16
Он не знает, что такое конфликт )

я не помню. но щас эта дискуссия напоминает "Возьмём поезд, разгоним его до двух скоростей света. Следовательно скорость света не является предельной. Вуаля, теория относительности опровергнута!"
Скорее, что 2pc/3pc никоим образом не гарантируют сами по себе синхронизированность данных в кластере, что для ACID недопустимо. И что при любой галере или аналогичном решении система меняет свои гарантии и нужно быть готовым, что при моргании сетки могут быть очень забавные результаты.

Sergey
24.01.2018
16:09:44
ок, я не буду дальше спорить.

(как галера себя ведет кстати - я хз, когда я ее пробовал, она была скорее сломана)

Andrey
24.01.2018
19:20:51
при условии ограниченности ресурсов и постановки безопасности на задний план - насколько плохим решением будет поднять мастера на датанодах?

Let Eat
24.01.2018
19:23:01
А,стабильность?

Andrey
24.01.2018
19:23:59
что значит “стабильность” в контексте кубера?

sherzod
24.01.2018
19:25:50
руками перезапускать не придётся))

Google
Sergey
24.01.2018
19:26:41
что значит “стабильность” в контексте кубера?
это "иногда не падает в самом начале"

Andrey
24.01.2018
19:28:15
ну то есть по сути вопрос сводится к тому что "если ноды будут загружены по цпу/памяти то мастера начнут лажать"? или расшифруйте что имеете ввиду

sbog
24.01.2018
19:39:07
ну то есть по сути вопрос сводится к тому что "если ноды будут загружены по цпу/памяти то мастера начнут лажать"? или расшифруйте что имеете ввиду
Сможешь при большой нагрузке получить недоступность API. А при очень большой и etcd в кластере сможешь получить failure этого кластера из-за каких-нибудь косвенных причин, например часы немного разойдутся. В общем, удовольствие будет сильно ниже среднего.

Andrey
24.01.2018
19:39:27
понятно, спасибо

sbog
24.01.2018
19:40:30
Это опять же, можно поправить с другой стороны, ограничив потребление ресурсов ворклоадами, но кмк оно того не стоит, проще мастерам выделить ноды, потом просто и разгребать проблемы удобнее в случае чего.

Paul
24.01.2018
22:34:02
вы так шустро прибили, я даже в антиспам-группу отправить не успел, только зарепортить

Anton
24.01.2018
22:34:54
Просто я - самый лучший антиспам-бот. Предположительно даже умный. ?

namanalogovnetu
25.01.2018
07:01:58
Всем привет! Я только начал знакомство с kube. Сам FullStack/DevOps ruby/rails. У меня вопрос: могу ли я на текущей своей VMWare ESXi создать 3 машины и поднять на них минмальный кластер ?

Помоему у меня ругалось на VX/T

terry
25.01.2018
07:14:56
вопрос в том, как оно будет выходить за пределы VMvare

у меня например для теста поднято 1 мастер и 2 ноды на kvm под Proxmox

namanalogovnetu
25.01.2018
08:03:01
хм...

Vladislav
25.01.2018
08:09:15
Помниться я когда брал VDS c VMware ESXi, то хостер выделял нам отдельные IP для вирт. машин имеющих соединение с vSwitch c хостовой сетевой картой. Обычно эти виртуалки я делал в роли proxy.

Если же запускать это хозяйство на серверах в локалной сети предприятия, то прокси не надо, можно сразу на эти машины docker лепить и k8s

namanalogovnetu
25.01.2018
08:18:03
ок спс

Ivan
25.01.2018
08:35:10
Всем привет! Друзья, кто нибудь сталкивался с таким? Нормальный ямлик, задеплоился.. а удаляться не хочет ))) kubectl delete -f k8s/addons/cephtool.yml panic: runtime error: invalid memory address or nil pointer dereference [signal SIGSEGV: segmentation violation code=0x1 addr=0x20 pc=0x627f44] goroutine 1 [running]: panic(0x1bcc980, 0xc4200100d0) /usr/local/go/src/runtime/panic.go:500 +0x1a1... https://gist.github.com/beatlejuse/37a6b9bc6c02fb7ff02e641dc718c738

Ха! Нашёл багу в кубе 1.8 )) Чтобы StatefulSet деплоился, надо чтобы apiVersion было = apps/v1 А чтобы он удалялся , надо чтобы apiVersion было = apps/v1beta2 и никак иначе)) если ямлик деплоится - то он не удаляется, а если удаляется - то не деплоится )))

66271
25.01.2018
09:06:55
видимо сделано специально что бы statefulset никто не пользовал и все сидели на PVC =)

Let Eat
25.01.2018
09:18:39
А ничего что apps/v1 оно в 1.9? :)

Google
Ihor
25.01.2018
09:21:49
клиент/сервер мисматч версии?

или, возможно, включение какой-то альфа штуки все ломает

Maksim
25.01.2018
09:29:15
66271
25.01.2018
09:30:27
какая разница)

стейт он и в африке стейт

Let Eat
25.01.2018
09:34:03
В v1 меняли правила удаления. То что раньше эмулировалось kubectl сейчас происходит на стороне сервера. Но это в v1 и в 1.9

Maksim
25.01.2018
13:32:06
какая разница)
Большая....

Dmitry
25.01.2018
13:53:24
Коллеги, а кто нибудь пулит образы из глобального гитлаба? может кто втречался с ошибками вида: Failed to pull image "registry.gitlab.com/projectx/deploy/django_web:latest": rpc error: code = Unknown desc = Error response from daemon: Get https://registry.gitlab.com/v2/projectx/deploy/django_web/manifests/latest: denied: access forbiddenили Jan 25 13:47:38 lab1 dockerd[23899]: time="2018-01-25T13:47:38.444623337Z" level=debug msg="Trying to pull registry.gitlab.com/projectx/deploy/django_web from https://registry.gitlab.com v2" Jan 25 13:47:39 lab1 dockerd[23899]: time="2018-01-25T13:47:39.472449465Z" level=error msg="Attempting next endpoint for pull after error: Get https://registry.gitlab.com/v2/projectx/deploy/django_web/manifests/latest: denied: access forbidden" Jan 25 13:47:42 lab1 kubelet[31489]: E0125 13:47:42.213614 31489 pod_workers.go:186] Error syncing pod 4d2c808c-01d6-11e8-bd9f-525400e2c3e2 ("test_default(4d2c808c-01d6-11e8-bd9f-525400e2c3e2)"), skipping: failed to "StartContainer" for "django-db" with ImagePullBackOff: "Back-off pulling image \"registry.gitlab.com/projectx/deploy/django_web:latest\""при этом секрет типа kubernetes.io/dockercfg создан и на каждой ноде присутсвует .docker/config.json и вручную сам докер при логине к репозиторию успешно подключается. в какую сторону порекомендуете посмотреть для решения ошибки?

66271
25.01.2018
14:07:54
Большая....
ааааа.... понятно

Maksim
25.01.2018
14:08:30
ааааа.... понятно
Не серьезно это совсем разные вещи))))

Коллеги, а кто нибудь пулит образы из глобального гитлаба? может кто втречался с ошибками вида: Failed to pull image "registry.gitlab.com/projectx/deploy/django_web:latest": rpc error: code = Unknown desc = Error response from daemon: Get https://registry.gitlab.com/v2/projectx/deploy/django_web/manifests/latest: denied: access forbiddenили Jan 25 13:47:38 lab1 dockerd[23899]: time="2018-01-25T13:47:38.444623337Z" level=debug msg="Trying to pull registry.gitlab.com/projectx/deploy/django_web from https://registry.gitlab.com v2" Jan 25 13:47:39 lab1 dockerd[23899]: time="2018-01-25T13:47:39.472449465Z" level=error msg="Attempting next endpoint for pull after error: Get https://registry.gitlab.com/v2/projectx/deploy/django_web/manifests/latest: denied: access forbidden" Jan 25 13:47:42 lab1 kubelet[31489]: E0125 13:47:42.213614 31489 pod_workers.go:186] Error syncing pod 4d2c808c-01d6-11e8-bd9f-525400e2c3e2 ("test_default(4d2c808c-01d6-11e8-bd9f-525400e2c3e2)"), skipping: failed to "StartContainer" for "django-db" with ImagePullBackOff: "Back-off pulling image \"registry.gitlab.com/projectx/deploy/django_web:latest\""при этом секрет типа kubernetes.io/dockercfg создан и на каждой ноде присутсвует .docker/config.json и вручную сам докер при логине к репозиторию успешно подключается. в какую сторону порекомендуете посмотреть для решения ошибки?
В сторону пулла из приватрегистри

66271
25.01.2018
14:23:43


Dmitry
25.01.2018
14:29:35
66271
25.01.2018
14:36:43
Не серьезно это совсем разные вещи))))
а почему тогда они называются одинаково ?

Maksim
25.01.2018
14:37:21
а почему тогда они называются одинаково ?
Плин читай доку. Такие аростые вещи объяснять.....

Sergey
25.01.2018
14:37:59
StatefulSet и PersistentVolumeClaim - одинаково?

Maksim
25.01.2018
14:37:59
Они по разному statefull.

StatefulSet и PersistentVolumeClaim - одинаково?
Он считает что да. Там же statefull

Sergey
25.01.2018
14:38:37
откуда, откуда вы, блядь, берете вторую l в слове stateful?

"полный государств"

Google
Maksim
25.01.2018
14:39:30
Игорь
25.01.2018
14:39:34
откуда, откуда вы, блядь, берете вторую l в слове stateful?
Где, где вы теряете запятые?) Слово "блядь" выделяется запятыми!

Fike
25.01.2018
14:39:38
там нет full

Sergey
25.01.2018
14:39:41
Fike
25.01.2018
14:40:05
full - это полный, ful - это такой суффикс, обозначающий принадлежность к префиксу (если грубо)

Sergey
25.01.2018
14:40:23
больше меня бомбит, только когда pool и pull путают

простите

twwlf
25.01.2018
14:40:43
а poll и pull?

66271
25.01.2018
14:40:51
а еще кто-то придумал сокращение k8s - у меня тоже бомбануло когда узнал как расшифровывается)

twwlf
25.01.2018
14:41:11
ну, это довольно стандартный способ сокращений

Maksim
25.01.2018
14:41:26
Вы лучше к разнице между pvc и stateful вернитесь)

66271
25.01.2018
14:41:40
Fike
25.01.2018
14:41:55
вечную битву i18n с l10n еще вспомните

66271
25.01.2018
14:42:32
о бля, так вот что это значило...

twwlf
25.01.2018
14:42:51
доброе утро, да

Алексей
25.01.2018
20:16:03
Коллеги, а кто нибудь пулит образы из глобального гитлаба? может кто втречался с ошибками вида: Failed to pull image "registry.gitlab.com/projectx/deploy/django_web:latest": rpc error: code = Unknown desc = Error response from daemon: Get https://registry.gitlab.com/v2/projectx/deploy/django_web/manifests/latest: denied: access forbiddenили Jan 25 13:47:38 lab1 dockerd[23899]: time="2018-01-25T13:47:38.444623337Z" level=debug msg="Trying to pull registry.gitlab.com/projectx/deploy/django_web from https://registry.gitlab.com v2" Jan 25 13:47:39 lab1 dockerd[23899]: time="2018-01-25T13:47:39.472449465Z" level=error msg="Attempting next endpoint for pull after error: Get https://registry.gitlab.com/v2/projectx/deploy/django_web/manifests/latest: denied: access forbidden" Jan 25 13:47:42 lab1 kubelet[31489]: E0125 13:47:42.213614 31489 pod_workers.go:186] Error syncing pod 4d2c808c-01d6-11e8-bd9f-525400e2c3e2 ("test_default(4d2c808c-01d6-11e8-bd9f-525400e2c3e2)"), skipping: failed to "StartContainer" for "django-db" with ImagePullBackOff: "Back-off pulling image \"registry.gitlab.com/projectx/deploy/django_web:latest\""при этом секрет типа kubernetes.io/dockercfg создан и на каждой ноде присутсвует .docker/config.json и вручную сам докер при логине к репозиторию успешно подключается. в какую сторону порекомендуете посмотреть для решения ошибки?
У них сегодня какие то проблемы похоже. У меня не пуллился образ с тегом latest, а с конкретным тегом версии запуллился

terry
26.01.2018
08:00:47
Supercronic — cron от Aptible, предназначенный для использования в контейнерах https://goo.gl/ZkV6qi GitHub: https://goo.gl/ANN1ta

Google
Роман
26.01.2018
08:38:49
Подскажите по etcd, пожалуйста. Вот, есть у меня участник, помеченный isLeader=true. Как-то можно пометить лидером другого участника? Я хочу поднять etcd-ноду на другом сервере.

Let Eat
26.01.2018
08:48:42
Они ж сами выбирают

Ivan
26.01.2018
08:49:09
Всем привет! Помогите мне пожалуйста найти полное описание синтаксиса deployment yaml

Страница 400 из 958