@kubernetes_ru

Страница 386 из 958
Mike
16.01.2018
13:29:54
сначала debian 8

теперь 9

Dmitry
16.01.2018
13:30:00
и в чём были проблемы ?

Mike
16.01.2018
13:30:11
на 8 c кубером и докером ваще швах

Google
Mike
16.01.2018
13:30:59
вот скоро возобновим эксперименты с кубером, пока вариантов кроме deb 9 нету

Corleone
16.01.2018
13:31:39
мне тут на днях советовали coreOS и typhoon

https://github.com/poseidon/typhoon

Dmitry
16.01.2018
13:31:56
а на убунте что не так было (вы 16.04 использовали же ?)

Mike
16.01.2018
13:31:58
coreos мне вообще кажется странным

периодическая течка памяти, кернел паники и т.д.

может конечно руки не от туда, но все же

Dmitry
16.01.2018
13:32:57
тоже бывали паники

Corleone
16.01.2018
13:33:04
Mike
16.01.2018
13:33:11
вот вот

Dmitry
16.01.2018
13:33:15
пока так и не удалось победить их, тоже думали о переходе

на дебе 9 эти проблемы решились ?

Mike
16.01.2018
13:33:58
ну поскольку инфраструктура на ubuntu была еще не большой, решили пока не поздно сменить )

Google
Mike
16.01.2018
13:34:22
на дебе 9 эти проблемы решились ?
мы пока кубер и докер там не пускали, а в остальном все отлично

Corleone
16.01.2018
13:34:24
Я вот упоролся, и хочу сделать некий аналог aws. По этому уже запилили OpenNebula, куда я запилю темплейт coreOS в которых буду вертеть kubernetes. Но кошерно ли вертеть кластер внутри кластера?

Mike
16.01.2018
13:35:31
coreos вообще странная тема, получается продакшен окружение будет всегда отличаться от дев

ну и после всех страданий с докером, точно будем без него начинать, на cri-o

Dmitry
16.01.2018
13:37:27
@podmogov хосты без кубера (кое где даже с докером, но не много) у нас тоже стабильно себя ведут, а вот в связке куб+докер +контейнеров побольше (штук 60-70 на хост в среднем) уже начинаются проблемы

тоже возлагаю надежды на cri-o, смотрю у них уже пакеты для разных осей появились, не нужно руками собирать

Mike
16.01.2018
13:38:50
буквально неделю назад на гитлаб раннере, AUFS в один момент превратилась в тыкву ) так что для нас докер мертв )

Сергей
16.01.2018
13:40:30
overleyfs

Vlad
16.01.2018
13:40:33
А зачем вы используете aufs? Уже давно рекомендуется overlay2

Mike
16.01.2018
13:40:55
давно использовали )

до рекомендаций )

ну вот тоже на overlay2 надежда, в дебиане 9 она вроде дефолтом идет

Dmitry
16.01.2018
13:44:09
ну вот тоже на overlay2 надежда, в дебиане 9 она вроде дефолтом идет
а какая версия докера кстати была на паникующих хостах ?

Mike
16.01.2018
13:44:52
давно это было, точно до их смены версионирования

типа 1.10 или типа того

Dmitry
16.01.2018
13:45:38
понятно, у нас с 17.03 такие же проблемы

похоже что самая стабильная 1.13

Mike
16.01.2018
13:47:23
нас добило в тот момент, что кубер отказался запускаться с 17* версией, объясняя это тем что не могу распарсить версию докера )

Dmitry
16.01.2018
13:49:27
1.8+ работает с 17.03 докером

Alex
16.01.2018
14:14:03
Господа, есть следующая задача: необходимо передавать в pod в качестве переменной окружения его порядковый номер (некий instanceId), при этом сохраняя этот номер при пересоздании pod'а. Подскажите, это вообще реально реализовать? В какую сторону копать? Пример для иллюстрации: создаем deploy из трех pod'ов, при этом каждому из них передается переменная окружения instanceId(1,2 и 3 соответственно). В случае, если какой-то из pod'ов был пересоздан, instanceId у него сохраняется.

Google
Сергей
16.01.2018
14:31:26
http://rancher.com/microservices-block-storage/

есть у кого опыт?

Sergii
16.01.2018
15:23:21
etki - ну можно custom entrypoint который выцепит из АПИ все что ему нужно а потом запустит под

Sergey
16.01.2018
17:30:17
аккаунт скомпрометировать тоже особо не получится - для каждой активности свой юзер с ролью и тп
вот допустим есть микросервис, который конектится там к dynamodb. Для этого ему нужны специфические iam права. Генерим ключи, запихиваем в k8s секерты. Не прикольно. Есть варианты чтобы сделать ротацию iam ключей (разных для каждого микросервиса) на регулярной основе, и делать это без даунтайма?

Sergey
16.01.2018
17:36:20
в теории да. На практике делали через него такое? Плюс дополнительная потенциальная SPOF и боль.

sherzod
16.01.2018
18:18:23
minikube боль

прикрепите кто-нить эти великие слова

Let Eat
16.01.2018
23:30:29
буквально неделю назад на гитлаб раннере, AUFS в один момент превратилась в тыкву ) так что для нас докер мертв )
А ничего что в cri-O почти все из докера ? Ну было. Надо сейчас сделать бы diff на overlay2 посмотреть, хоть что-то свое появилось ли

Paul
16.01.2018
23:55:18
А зачем вы используете aufs? Уже давно рекомендуется overlay2
а там tar починили уже? Максим из Марсиан крупно на этом прокололся

Kirill
17.01.2018
07:35:49
Всем привет! Настраиваю доступ из куба до приватного docker registry, но получаю ошибку скачивания контейнера. Исходные данные такие - в реджистри можно авторизоваться как по логину паролю, так и по сертификату. Если я с машины где стоит куб делаю docker pull - все работает, скачивается и запускается(авторизация через сертификаты). Если я делаю по статье https://kubernetes.io/docs/tasks/configure-pod-container/pull-image-private-registry/ - получаю ошибку скачивания.

Быть может нужно как то этот сертификат в кубер впихнуть, сейчас он лежит в etc/docker/certs.d/{url registry}/cert.cert

Maksim
17.01.2018
07:38:54
а что за ошибка?

логи кублета почитай

и что за сертификат лежит в etc/docker/certs.d/{url registry}/cert.cert

Это CA pki? или сертифкат регистра?

Admin
ERROR: S client not available

Google
Kirill
17.01.2018
07:53:28


вторая часть лежить на docker registry, и можно пулить без ввода паролей

но как это все запихать в кубер я не понимаю( он выдает такую ошибку:

Maksim
17.01.2018
07:56:17
Ты лог Кублета посмотри!

если можешь, потому как там написана вся соль

Kirill
17.01.2018
07:57:22
ок

Maksim
17.01.2018
07:57:45
Насколько я понимаю, если нет отдельного конфига на пулл, то кублет даёт просто команду docker pull оставляя вопросы авторизации на докере

Kirill
17.01.2018
07:58:10
в мануалах написано что ему нужно секрет создать

я создал, но там на примере авторизации с паролями

Maksim
17.01.2018
08:00:12
имхо удали нафиг секрет, и позволь докеру самому разобраться с аутентификацией

Мож кто ещё подскажет...

Eugene
17.01.2018
08:05:36
к гитлабовсккому регистри например надо дважды серкрет создавать, первый раз к fqdn гитлаба, второй раз к fqdn регистри

djaarf
17.01.2018
08:06:02
а как делать docker login с сертом? в хелпе про это чот ниче не видно docker login --help Usage: docker login [OPTIONS] [SERVER] Log in to a Docker registry Options: -p, --password string Password --password-stdin Take the password from stdin -u, --username string Username

Руслан true.sorcerer
17.01.2018
08:06:41
в конфиг json добавить tlscert

Kirill
17.01.2018
08:23:03
Все получилось, я забыл положить сертификат на nod'ы, сейчас положил - все ок. Работает даже без использования секрета, только не сертификатах.

Eugene
17.01.2018
08:24:43
Регистри редиректит сам на страницу гитлаба

Let Eat
17.01.2018
08:26:10
imagePullSecret то один. Я с одним живу 100% работает

Google
Eugene
17.01.2018
08:29:10
Ну у меня не кубернетес, а openshift там вот такой воркараунд необходим

Let Eat
17.01.2018
08:31:27
Ванильным кубернетесом пользовались? Как opeshift по сравнению?

Eugene
17.01.2018
08:43:02
Ванильным пользовался 1.2 где то и не на полную катушку, openshift.... да явно ряд стабильностей привнес, лишил сложных выборов это как плюс и минус, добавил кучу нон критикал багов при инсталяции которые надо победить, вообще этот smartclayton на самом деле тупой, своих наработок в сравнении с 1.2 изкаробки, RBAC уже давно, регистри, дополнитейтный in-tree DeploymentConfig, контроллер который создает и версионирует деплойменты, ImageStream / собственный ci/cd pipeline, debug контейнеры и прочее, цикл разработки не такой частый, а сейчас еще и оттает жутко

ах, да вместо ingresscontrolle nginx - haproxy и f5

Maksim
17.01.2018
08:47:58
Прикол в том что 1.9 уже оеализовало почти весь стак OpenShift)

Ну а регистри и ci/cd pipe line не задача оркестрации

Страница 386 из 958