@kubernetes_ru

Страница 494 из 958
Pavel
26.03.2018
21:24:03
Можете прислать ссылку на issue в github в котором жалуются?

Юрий
27.03.2018
04:39:40
http://blog.kubernetes.io/2018/03/kubernetes-1.10-stabilizing-storage-security-networking.html

No1
27.03.2018
07:50:41
как etcd поживает? не увели у вас инфу?

Anton
27.03.2018
07:51:31
Я уже вбрасывал: https://t.me/kubernetes_ru/48773. Боян.

Google
Alexey
27.03.2018
08:11:57
разве есть кто-то, кто не знает, что етсд по-умолчанию открыт, а авторизация настроена максимум на апи-сервер?

Vasilyev
27.03.2018
08:13:24
а зачем эти знания?

Alexey
27.03.2018
08:16:32
чтоб быть добрее

Maksim
27.03.2018
08:26:21
А смысл держать etcd С доступом во внешнюю сеть. Это же внутренний ресур облака

Anton
27.03.2018
08:27:05
То же самое говорили и о memcached. Однако, глупости людской нет дна.

Vasilyev
27.03.2018
08:34:36
Maksim
27.03.2018
08:35:28
а если облако только с одним внешним интерфейсом?)
А это тут причем? Или у тебя все узлы онли с внешними интерфейсами?

Vasilyev
27.03.2018
08:36:01
(не у меня, но такое к нам приходит почти ежедневно) ну да. и только с внешними!)

тот же ovh. там с vrack серверы только за овер $90

Anton
27.03.2018
08:37:51
а если облако только с одним внешним интерфейсом?)
Так говоришь, как будто это мешает ограничить доступ.

Anton
27.03.2018
08:38:40
как вы сливаете кубконфиги в один файл? или добавляете ещё один контекст в существующий

Vasilyev
27.03.2018
08:38:43
Так говоришь, как будто это мешает ограничить доступ.
не. речь не про ето) А про то, зачем выставлять наружу - для связи с другими нодами.

Google
kvaps
27.03.2018
08:38:46
у них есть torcx,вот пример https://github.com/lorenz/torcx-zfs
Идея класс, но как быть в случае с загрузкой нод по pxe?

Vasilyev
27.03.2018
08:39:17
Anton
27.03.2018
08:39:38
не. речь не про ето) А про то, зачем выставлять наружу - для связи с другими нодами.
Ну ок, однако я по-прежнему не вижу ничего, что мешало бы ограничить доступ только для этих нод.

kvaps
27.03.2018
08:40:08
править загрузочный образ?
по моему это против идеологии CoreOS, разве нет?

Vasilyev
27.03.2018
08:40:53
по моему это против идеологии CoreOS, разве нет?
ну тут либо шашечки, либо ехать)

Anton
27.03.2018
08:41:51
Ну конечно же. Вот только кто об этом задумывается))
Так об этом я уже писал выше. Кстати, у тебя в профиле фамилия и имя местами перепутаны. Исправь, пожалуйста.

kvaps
27.03.2018
08:42:14
ну тут либо шашечки, либо ехать)
На самом деле я так и делаю: Я собираю загрузочный образ debootstrap'ом вместе с pxe/nbd-сервером через Dockerfile.

Вот просто думаю есть ли у coreos решение для этого - похоже что нету.

для впиливания кастомных модулей я имею ввиду

kvaps
27.03.2018
08:46:26
хотя конечно никто не мешает раздербанить стоковый образ и делать с ним что захочу, но не вижу тогда особых преимуществ coreos перед той же убунтой

Vasilyev
27.03.2018
08:53:59
вроде крутая фича. но я ее еще не юзал

Andrey
27.03.2018
09:14:29
а как правильно добавлять новые ноды в кластер развернутый через kubespray?

сделал через scale.yml, но на новых нодах днс отвалился

при этом ни в логах calico, ни в логах kube-dns ничего подозрительного

Anton
27.03.2018
09:16:47
сеть не сконфигурилась знач

подебаж с calicoctl

видят ли соседи новую ноду

Google
Andrey
27.03.2018
09:17:58
спасибо, попробую

Andor
27.03.2018
10:53:37
а есть ли (наверняка есть, но я лучше тут спрошу, чем гуглить) готовая штука чтобы подселить её в под и она будет следить за конфигмапом и посылать -HUP в соседний процесс в том же поде при изменении конфигмапы?

https://github.com/jimmidyson/configmap-reload во нашёл

Kirill
27.03.2018
11:02:36
Всем привет, подскажите как правильно накатывать миграции на бд из кубера. База стоит с наружи. Схема бд в коде, миграции делаются через dll+bash. Сейчас основное смущение вызывает если реплик 6, тт миграция запустится 6 раз.

Andor
27.03.2018
11:04:05
а по уже живущей базе процесс запуска миграций не умеет опеределять надо ли запускать миграции?

Let Eat
27.03.2018
11:52:35
Идея класс, но как быть в случае с загрузкой нод по pxe?
Ignition скачает и положит нужный torcx на этапе initrd

По этому Ignition и мега фича, работает еще до того как сама система стартует, все файлики в нужные места раскладывает

Александр
27.03.2018
13:14:38
Всем привет, подскажите как правильно накатывать миграции на бд из кубера. База стоит с наружи. Схема бд в коде, миграции делаются через dll+bash. Сейчас основное смущение вызывает если реплик 6, тт миграция запустится 6 раз.
kubernetes jobs - echo "Running migrations..." - kubectl delete job vouch-backend-db-migrate --cascade - kubectl create -f .kube/jobs/migrate.yaml -o yaml --dry-run | sed -e "s/:latest/:${CI_BUILD_REF:0:7}/" | kubectl replace --force -f - - until kubectl get pods --show-all --selector=job-name=vouch-backend-db-migrate --output=jsonpath={.items..status.phase} | grep Succeeded; do sleep 5;done - kubectl logs $(kubectl get pods --show-all --selector=job-name=vouch-backend-db-migrate --output=jsonpath={.items..metadata.name}) p.s. это было написано еще когда не было kubectl apply

Kirill
27.03.2018
13:16:14
а по уже живущей базе процесс запуска миграций не умеет опеределять надо ли запускать миграции?
Понимание у базы есть что нужно делать эмиграцию. Но вернется метод update столько раз сколько реплик поднято, но 1 реально обновит, а остальные вхолостую отработают

Andor
27.03.2018
13:17:05
ну при запуске первого пода в репликасете пусть

Andor
27.03.2018
13:17:12
остальным же будет возвращать что ничо не надо делать?

но ваще конечно лучше через джобы, да

Александр
27.03.2018
13:18:02
главное в джобе не забыть restartPolicy: Never

Kirill
27.03.2018
13:19:14
это плохо?
Думаю не очень, дергать миграцию столько раз сколько реплик не очень, если их 100?, с job 1 выходит, более изящно

Fike
27.03.2018
13:20:27
так оно же никакого эффекта не имеет, кроме пары запросов на чтение

Kirill
27.03.2018
13:22:24
так оно же никакого эффекта не имеет, кроме пары запросов на чтение
А на практике у вас работает или это в теории?

Если работает, то действительно

Fike
27.03.2018
13:25:00
что должно быть по-другому на практике?

Google
Anton
27.03.2018
13:48:39
Kirill
27.03.2018
13:49:37
Есть конечно

Он дергат update, если база уже в последней версии, то он отвечает что обновлено, если нет - делает обновление

Anton
27.03.2018
14:17:46
и наверное там локи есть, чтобы одновременно не пошли миграции? =)

Andor
27.03.2018
14:18:52
а зачем они одновременно-то будут, поды же не одновременно запустятся?

mAX
27.03.2018
14:24:58
товарищи, почему-то вот такой шаг в докер файле выполняется, но не кэшируется.. не подскажите в чем может быть проблема? RUN git clone -b $(curl -L https://grpc.io/release) https://github.com/grpc/grpc \ && cd grpc \ && git submodule update --init \ && make && make install

Deep Sea
27.03.2018
14:29:26
подозреваю из-за $(curl -L https://grpc.io/release)

mAX
27.03.2018
14:33:13
да там сразу FROM стоит.. и он у меня закеширован нормально..вроде и сетевые запросы вроде curl/git/wget всегда кэшились..странно

Fike
27.03.2018
14:36:02
Если поставить первой директивой run touch /tmp/poc, он закешируется?

bama^boy
27.03.2018
14:39:36
Доброго дня, кто-то уже гонял AWS EKS (нативный k8s для aws)? Как оно работает?

mAX
27.03.2018
14:44:53
Если поставить первой директивой run touch /tmp/poc, он закешируется?
Step 2/8 : run touch /tmp/poc ---> Using cache да, закешился..буду разбираться

bama^boy
27.03.2018
14:50:36
Step 2/8 : run touch /tmp/poc ---> Using cache да, закешился..буду разбираться
In most cases simply comparing the instruction in the Dockerfile with one of the child images is sufficient.

Т.е. если инструкция не ADD или COPY, то просто проверяется, что она не изменилась и предыдущие слои тоже

Fike
27.03.2018
14:51:31
Step 2/8 : run touch /tmp/poc ---> Using cache да, закешился..буду разбираться
Расскажите, если вдруг найдете причину. Они конечно могли бы не кэшировать слой в случае любой сетевой активности, но это как-то уж слишком + ADD http вполне себе кэшируется, судя по доке

bama^boy
27.03.2018
14:52:16
https://docs.docker.com/develop/develop-images/dockerfile_best-practices/#build-cache

mAX
27.03.2018
14:52:21
команда долго очень выполняется..репозитории там вроде бы не очень тяжелые

Fike
27.03.2018
14:55:39
Аргументов в Dockerfile нет?

mAX
27.03.2018
14:57:05
не, ни переменных, ни аргументов..файлы копирую в образ, но позже этой команды разбил ее на отдельные шаги)буду смотреть когда кеш поломается

Google
mAX
27.03.2018
15:06:07
RUN git clone -b v1.10.0 https://github.com/grpc/grpc вот такое закешилось

Vadim
27.03.2018
15:14:25
товарищи, почему-то вот такой шаг в докер файле выполняется, но не кэшируется.. не подскажите в чем может быть проблема? RUN git clone -b $(curl -L https://grpc.io/release) https://github.com/grpc/grpc \ && cd grpc \ && git submodule update --init \ && make && make install
For example, when processing a RUN apt-get -y update command the files updated in the container are not examined to determine if a cache hit exists. In that case just the command string itself is used to find a match. раз command string у тебя меняется, то и кэша не будет

mAX
27.03.2018
15:17:39
я не менял текст самой команды.. RUN git clone -b $(curl -L https://grpc.io/release) https://github.com/grpc/grpc тоже нормально закешилось

Fike
27.03.2018
15:20:33
For example, when processing a RUN apt-get -y update command the files updated in the container are not examined to determine if a cache hit exists. In that case just the command string itself is used to find a match. раз command string у тебя меняется, то и кэша не будет
команда воспринимается текстом, еще до процессинга шеллом (иначе ее невозможно было бы проверить наличие кэша для нее до ее выполнения)

Vadim
27.03.2018
15:21:24
Deep Sea
27.03.2018
15:22:01
Переменные точно учитываются для кеша

Fike
27.03.2018
15:22:23
Так это все равно не поможет, если часть данных, как здесь, лежит на внешнем серваке - без реального вызова курла не узнать, годен кэш или нет. А если вызывать, то и кэш уже не нужен.

bama^boy
27.03.2018
15:26:28
Vadim
27.03.2018
15:30:45
Так это все равно не поможет, если часть данных, как здесь, лежит на внешнем серваке - без реального вызова курла не узнать, годен кэш или нет. А если вызывать, то и кэш уже не нужен.
hot take: кэш, которых не в курсе о формате данных, вообще не нужен. Лучше бы дали ручками лейер делать, как это сделано в buildah

Fike
27.03.2018
15:34:35
Ох набросились, я же просто про то, как оно работает изнутри. Могу в ответ кольнуть тем, что формат данных там единственный - собственно слой

Andrey
27.03.2018
17:10:34
перед установкой, это альтернатива kickstart

Slava
27.03.2018
17:12:55
Я уже вбрасывал: https://t.me/kubernetes_ru/48773. Боян.
Еще одна причина начать шифровать секреты/configmaps в etcd.

Vasilyev
27.03.2018
17:16:03
Причем, не сказать что это прям мегасложная задача

Страница 494 из 958