@kubernetes_ru

Страница 804 из 958
Juriy
04.09.2018
21:49:28
Хелов

подскажите как то можно в GKE PersistentVolumeClaim сделать ReadWriteMany?

или как сделать чтобы реплики деплоймента лили файлы в одно общее место.

?

Google
Stas
04.09.2018
22:09:16
подскажите как то можно в GKE PersistentVolumeClaim сделать ReadWriteMany?
ReadWriteMany: The Volume can be mounted as read-write by many nodes. PersistentVolumes that are backed by Compute Engine persistent disks don't support this access mode.

Juriy
04.09.2018
22:10:12
Stas
04.09.2018
22:12:24
я заставляю разработку переходить на с3. Пока не было ни одного кейса, когда это реально не покрывается объектным хранилищем. Альтернативный вариант сделать nfs шару поверх диска gcpшного и отдать ее как pv.

Stas
04.09.2018
22:16:08
а забыл, еще можно поставить какую-нибудь поделку вроде портвокса или стореджоса, они умею в кубере собирать сами нфс шару и несут соответствуюзий сторедж класс за собой

Andrey
05.09.2018
06:45:58
А кто какие eviction threshold по памяти ставит?

Дефолтное в 100Mi явно маловато будет

Let Eat
05.09.2018
08:03:51
Только то, что его можно обратно забрать по тому же ключу, по которому PUT делали

Vadim
05.09.2018
08:04:20
второй вариант там NFS, так что выбор будет ... интересный

Google
Vadim
05.09.2018
08:04:27
лишь бы не гластер, да

Stas
05.09.2018
08:07:22
read after write стронгли консистент

Let Eat
05.09.2018
08:08:10
Ну там про замену ФС. Атомарные переименования, локи, симлинки/хардлинки. Приложения этим пользуются к сожалению или к счастью.

Andor
05.09.2018
08:08:51
обычно посикс-фс не нужна, зато нужно хранилище для всякого мусора

Let Eat
05.09.2018
08:09:43
https://cloud.google.com/storage/docs/consistency
Это круто. У S3 этого явно прописано не было

Stas
05.09.2018
08:28:57
Artem
05.09.2018
08:30:21
чтобы из гке стораджа, который readwriteonce сделать nfs, который readwritemany без регистрации/смс/цефа и глатсера

Andrey
05.09.2018
09:37:06
Ребят, привет. Подсобите советом. Есть кубер с calico. 2 ноды по app, 1 мастер и 1 ингресс. Есть деплоймент который встает на 2 ноды app. По 1 поду на ноду. Теперь к проблеме. Один из подов на ноде не откликается. Если дергаю curl по IP пода с ноды где он стоит то получаю ответ: curl: (7) Couldn't connect to server В то же самое время пинги до этого IP идут нормально. Куда хоть смотреть? liveness и readyness пробы проходят

Taras
05.09.2018
09:39:42
/leave

Fike
05.09.2018
10:01:33
это вроде нормально для kv
Для eventual consistency. K/V никаких таких ограничений не налагает, и, более того, в силу своей специфики гораздо легче имплементирует более строгую консистенси.

Andrey
05.09.2018
12:12:09
а вдруг.. а curl то по нужному порту делаете?
дада, конечно. Я оставил сейчас 1 ноду. В итоге периодически бывает таймаут. Такое ощущение что таймаут срабатывает только 1 раз. Потом все работает ок. Еще, если дергать под по прямому IP в тот момент пока жду таймаута получаю curl: (7) Couldn't connect to server

Вообще хз даж куда смотреть

Ну т.е. выглядит все как лагающая сеть

Алексей
05.09.2018
12:13:09
Ну т.е. выглядит все как лагающая сеть
а если через сервис ходить?

Andrey
05.09.2018
12:14:35
а если через сервис ходить?
через сервис не пробовал. Только через ингресс и напрямую на под. И вот напрямую на под тоже идет таймаут. т.е. проблема явно в связанности пода с остальной сетью

Google
Andrey
05.09.2018
12:16:59
а разве ingress не на сервис бэкендом идёт.?
дада, все так. Ну я имею в виду не пробовал дергать еще напрямую через сервис руками.

Maksim
05.09.2018
12:18:00
а разве ingress не на сервис бэкендом идёт.?
из сервиса он берет endpoint, а бек унего сами поды

Алексей
05.09.2018
12:18:44
из сервиса он берет endpoint, а бек унего сами поды
регулируется аннотацией же nginx.ingress.kubernetes.io/service-upstream: "true"

Maksim
05.09.2018
12:20:54
Мм Оо раньше не было.

mozgoo
05.09.2018
12:21:05
Ребят, а никто не сталкивался с такой проблемой, что внешние dns-имена резолвятся секунд по 15-ть?

mozgoo
05.09.2018
12:22:51
Сейчас поищу, ок

Спасибо

Никита
05.09.2018
12:40:34
через сервис не пробовал. Только через ингресс и напрямую на под. И вот напрямую на под тоже идет таймаут. т.е. проблема явно в связанности пода с остальной сетью
Под из какой сети айпишник получил? Есть ли маршруты к этой сети на остальных нодах кластера и на ноде, с которой курл запускаешь?

Через calicoctl можно статус нод посмотреть, вдруг напишет чего.

Ну и статус эндпоинтов.

Виталий
05.09.2018
13:34:07
Посоветуйте как лучше к k8s прикрутить ldap

bebebe
05.09.2018
13:35:01
через ldaps://

Artem
05.09.2018
13:35:34
Посоветуйте как лучше к k8s прикрутить ldap
https://github.com/helm/charts/tree/master/stable/dex

Виталий
05.09.2018
13:36:08
Спасибо

Denis
05.09.2018
13:57:22
ребятки куда копать если поды которые поднимаются на воркере не умеють ходить наружу и вообще не знают днс, калико не поднимает для IP пода отдельный Iface для routing_a. Сам калико бежит на ноде и вроде не срет ошибками

Tores
05.09.2018
14:22:50
ткните носом kubectl rollout status -n dev deploy/blablabla выполняется но я например задал неверный тег образа и он кубер честно говорит о том что не может спулить образ, а как долго проидет времени когда об этом узнает rollout status. Или есть параметр за это отвечающий?

Lilia
05.09.2018
15:06:08


Google
Дмитрий
05.09.2018
17:35:53
Можете подсказать, а как в кубере задать вложенные env переменные? То есть не однострочные value, а нечто похожее на вложенный дикт в docker-compose файле

Andor
05.09.2018
17:37:36
а что, env могут быть не строками?

Alexey
05.09.2018
17:37:41
Подскажите, можно ли сделать подкластер в кластере? Смысл что есть кластер, к нему хочется добавить 10 воркеров так, чтобы стартовать там DaemonSet, но чтобы шедуллер по-умолчанию туда не скидывал все подряд.

Alexey
05.09.2018
17:38:19
настраивать селекторы для текущего кластера не хочется*

Grigory
05.09.2018
17:38:48
так просто добавь их с taint'ами

а daemonset запускай с tolerations

Alexey
05.09.2018
17:40:09
так просто добавь их с taint'ами
да, спасибо. упустил

Grigory
05.09.2018
17:41:31
но смотря что ты хочешь сделать

Дмитрий
05.09.2018
17:54:03
Можете подсказать, а как в кубере задать вложенные env переменные? То есть не однострочные value, а нечто похожее на вложенный дикт в docker-compose файле
https://www.prisma.io/docs/reference/prisma-servers-and-dbs/prisma-servers/docker-aira9zama5/ Вот пример докер компоуза где prisma config это дикт с енвами

Fike
05.09.2018
17:54:54
Это строка, в которой ямл

О чем говорит вертикальная черта в начале значения

Дмитрий
05.09.2018
17:55:53
В этой строке я хочу взять с секрета доступ к бд

Andor
05.09.2018
17:55:54
environment: PRISMA_CONFIG: | managementApiSecret: my-server-secret-123 port: 4466PRISMA_CONFIG - имя переменной, значение которой - строка

|

Дмитрий
05.09.2018
17:56:18
А если это будет просто строка, я не уверен, что возьмутся значения с секрета

Andrey
05.09.2018
17:56:34
ребят, а kubespay умеет деплоить только 1.10.4 версию?

Fike
05.09.2018
17:56:38
В этой строке я хочу взять с секрета доступ к бд
придется в приложении распаковывать ямл

Дмитрий
05.09.2018
17:57:17
придется в приложении распаковывать ямл
Каким образом? Если это нужно не для моего апа

Google
Fike
05.09.2018
17:57:50
Yaml.load(env.PRISMA_CONFIG).valueYouWant

Andor
05.09.2018
17:57:52
секреты по использованию идентичны конфигмапам

bebebe
05.09.2018
17:58:31
ребят, а kubespay умеет деплоить только 1.10.4 версию?
почему вы так решили https://github.com/kubernetes-incubator/kubespray/commit/a11e1eba9e071f3042a39c888c2b7f638451f031

Каким образом? Если это нужно не для моего апа
апп случаем не поприетарный? не на джаве случаем? авторы случаем не наши друзья из великой страны Индия?

Дмитрий
05.09.2018
18:03:13
Yaml.load(env.PRISMA_CONFIG).valueYouWant
А где мне это делать то?

Andor
05.09.2018
18:04:30
в приложении

почему ты хочешь передавать структуру в переменной окружения? других вариантов нет?

например через конфиг-файл

bebebe
05.09.2018
18:06:12
ну в теории можно конечно ... env: - name: foobar value: | some crazy shit ...

Fike
05.09.2018
18:07:32
А где мне это делать то?
а кто читает это?

Страница 804 из 958