@kubernetes_ru

Страница 499 из 958
Kirill
30.03.2018
18:03:38


вот такой стоит

Let Eat
30.03.2018
18:08:14
вот такой стоит
По имени резолвит?

Kirill
30.03.2018
18:13:46
в миникуб -да, в большом кубере - нет

Google
Kirill
30.03.2018
18:14:18
то что он настроен криво есть вероятность, но что смотреть

Let Eat
30.03.2018
18:19:07
Kirill
30.03.2018
18:19:47
да живы)

Yuriy
30.03.2018
19:07:39


Спасибо, не стал заморачиваться с etcd и вроде как заработало

Let Eat
30.03.2018
20:43:03
Дмитрий
30.03.2018
20:58:23
то что он настроен криво есть вероятность, но что смотреть
У nginx не самым очевидным образом работает dns, почитайте про параметр resolver и nginx plus

Kirill
30.03.2018
20:59:07
Пока я отдебажил и увидел что к кублета нет данных о днс сервере

Похоже при его создании не прописали

А миникуб nginx работает по dns отлично

Dmytro
30.03.2018
21:26:30
там пароль истекает каждые 12 часов. Какие минимальные роли нужно прописать в IAM для пула-пуша-генерации нового пароля?
Если куб тоже бежит на EC2 в том же аккаунте и датацентре то надо дать права на чтение из ecr registry той instance role с которой запущены ec2 инстансы

Дмитрий
31.03.2018
04:59:31
А как получается, что кластерные сервисы работают внутри себя? Знаю что можно их запускать как bare-метал, также можно в docker. А какими средствами запускается сие? Можно немного на пальцах рассказать? :)

Google
Let Eat
31.03.2018
09:13:15
А как получается, что кластерные сервисы работают внутри себя? Знаю что можно их запускать как bare-метал, также можно в docker. А какими средствами запускается сие? Можно немного на пальцах рассказать? :)
static pods видны в kubectl. static pod это обычный под, но его засылают не в apiserver ,а кладут yaml в /etc/kubernetes/manifests, kubelet постоянно смотрит за этой директорией и если там появляются/меняются файлы, то делает соответствующие измнения в докере: стартует новые контейнеры, убивают ненужные. если kubelet удалось соедениться с apiserver, то он отправляет информацию о static pods туда, так что она видна в kubectl get pods

т.е. это не совсем "кластерные сервисы работают внутри себя", а фейк. можно и по-настоящему, смотрите bootkube , оно как раз для этого: поднимается временный control plane, через него создаются deployment/daemonset с настоящим control plane кластера: apiserver, schduler, controller-manager , затем временный убивается. в таком режиме обновления кластера (кроме kubelet) это просто kubectl apply

Slach
31.03.2018
16:35:37
https://github.com/databricks/click кто-то щюпал?

Mikhail
31.03.2018
16:39:27
Кто что использует в качестве стораджа для bare metal?

Цеф?

Paul
31.03.2018
17:02:31
это единственный вменяемый вариант, увы

Andrey
31.03.2018
17:03:12
а невменяемые есть?

Anton
31.03.2018
17:04:28
DRBD + <any_fs> ?

Paul
31.03.2018
17:05:06
да сколько угодно: - gluster - rook - DBRBD - host-only (map)

Andrey
31.03.2018
17:05:11
это блочный. А если файлы?

Paul
31.03.2018
17:05:20
можно сделать на голом NFS - но вы намучаетесь с конфигурированием

Anton
31.03.2018
17:05:34
Paul
31.03.2018
17:05:45
это блочный. А если файлы?
вы пытаетесь использовать файлы как блочное хранилище? прекращайте

О, а что такое "DBRBD"?
опечатка. DRBD конечно :)

Anton
31.03.2018
17:06:08
Я уж думал, что-то новое напилили...

Paul
31.03.2018
17:06:21
Я уж думал, что-то новое напилили...
можно подумать, одного rook-а нам мало

Andrey
31.03.2018
17:06:28
Paul
31.03.2018
17:07:18
kube-у нужно именно блочное устройство. Это концепция

Andrey
31.03.2018
17:07:52
кубу? Может нижележащему докеру?

Paul
31.03.2018
17:09:18
kube-у тоже, посмотрите как описан storage class

Google
Andrey
31.03.2018
17:09:22
вот такая ещё поделка есть: https://virtuozzo.com/solutions/storage-for-kubernetes.html

я там раньше работал, но это они сделали уже после моего увольнения, поэтому вещь должна быть нормальная

Anton
31.03.2018
17:10:17
Самокритично, однако.

Andrey
31.03.2018
17:10:32
шутка юмора

Anton
31.03.2018
17:10:57
Было смешно, пока ты не начал объяснять. ?

Andrey
31.03.2018
17:11:05
:)

Paul
31.03.2018
17:11:34
у меня нет доверия к системе без пользователей, если честно. Тем более – к закрытой платной системе, которая для производителя системы бизнес непрофильный

буду рад ошибаться

Andrey
31.03.2018
17:12:48
драйвер вроде как открытый. Сама база, на которой работает - у них используется как storage cluster в их продукте, причём уже достаточно давно.

триалку для ознакомления можно взять побаловаться.

С самим кластером я работал, вполне себе. Вот к кубу не прикручивал, не довелось.

ах да. Большой минус в том, что это решение предполагает специализированную ОС для всех узлов k8s. Ну то есть, это я так думаю, судя по документации.

Евгений
31.03.2018
18:23:13
Что-то меня не прельщает идея в цеф базы свои тащить

Gleb
31.03.2018
18:24:49
Почему базы рядом не поднять?

Имеется ввиду вообще отдельно и не в кубере

Евгений
31.03.2018
18:26:19
Чтобы зоопарк разводить?

Gleb
31.03.2018
18:26:58
Да, проще зоопарк в абстракцию затолкать, чтобы не казалось это таким зоопарком )

Евгений
31.03.2018
18:28:08
Абстракция это и есть инструмент для однообразной работы с разнородными сущностями. Так что если вам абстракция нужна не для этого, но она вам вообще не нужна

Google
Gleb
31.03.2018
18:28:58
Ладно, это тупой спор.

Цеф пока самое надежное из всего

если у вас до 1пб данных, то не надо там ничего докручивать.

Евгений
31.03.2018
18:30:46
Вопрос был в чём проблема с hostPath

Gleb
31.03.2018
18:32:02
Let Eat
31.03.2018
18:32:58
kube-у нужно именно блочное устройство. Это концепция
это же неправда, git volume тому подтверждение

Paul
31.03.2018
18:38:41
Что-то меня не прельщает идея в цеф базы свои тащить
не держите базы в kube. Kube управляет микросервисами. Микросервисы не хранят состояния.

Евгений
31.03.2018
18:41:05
Вы предлагаете держать паралелльную маршрутизацию, паралелльный DNS-сервис, параллельную систему развёртывания. То есть накостылять рядом наколеночный кубернетес. ok

Ну и, конечно, большая часть микросервисов это круды, так что вряд ли они не хранят состояния :)

Paul
31.03.2018
18:48:38
Вы предлагаете держать паралелльную маршрутизацию, паралелльный DNS-сервис, параллельную систему развёртывания. То есть накостылять рядом наколеночный кубернетес. ok
Нет. я предлагаю вынести хранение данных в отдельный сервис и давать к нему отдельный доступ. Вы не пробовали делать резервные копии из кубера? О, вас ждет много открытий...

Вася
31.03.2018
19:58:14
Комрады, может кто помочь с советом по etcd?

Везеде в документации по etcd есть раздел по дефрагментации, но при запуске etcdctl такой опции как defrag или compare нет, может что-то не то делаю, версия 3.3.1

ошибся не compare, а compact

Paul
31.03.2018
20:10:36
расскажите
гроб-гроб-кладбище-пидор. Это если коротко. Если длинно – нет какого-то единого способа сделать бэкап-систему и есть миллион способов ее сломать. Я не поленись и напишу статью об этом, но не ранее, чем через пару недель

я собрал на этом занятии миллион граблей, хоть ачивку получай

Paul
31.03.2018
20:14:45
А на какой площадке планируешь?
статью? у меня собственный мини-блог. Если кто–то желает скопировать – нет проблем, указывайте автора и ставьте только ссылку, пожалуйста

Google
Anton
31.03.2018
20:15:30
Не скопирить, почитать.

Paul
31.03.2018
20:15:41
после написания – выложу тут ссылку :)

Vladislav
31.03.2018
21:31:58
Нет. я предлагаю вынести хранение данных в отдельный сервис и давать к нему отдельный доступ. Вы не пробовали делать резервные копии из кубера? О, вас ждет много открытий...
pvc + rbac вашу задачу не решают? Вам люди pvc придумали чтобы вы данные отдельно от кластера хранили. Написали rbac чтобы вы доступ рулили. Человечество к IaC пришло, чтобы вы сервера руками не сетапили, на худой конец... С чем же вы таким столкнулись, что не нашли решения??

Vladislav
31.03.2018
21:35:22
сбой системы хранения похоронит все ваши данные. С бэкапами
Почему вы называете кубернетс системой хранения и почему падение кубера похоронит данные на том же EBS?

Paul
31.03.2018
21:37:08
я не называю кубер системой хранения. просто когда говорят про PVC – подразумевают, что данные мы храним "где-то" и бэкапим в этом же "где-то". Это ошибка. PVC строго говоря – это костыль, который противоречит идее микросервисов. Микросервисы не должны хранить состояний :)

у вас, кстати, EBS никогда данные не терял? У меня терял

bebebe
31.03.2018
21:42:46
это уже не k8s, а чат психологической поддержки какойто

Vladislav
31.03.2018
21:43:55
я не называю кубер системой хранения. просто когда говорят про PVC – подразумевают, что данные мы храним "где-то" и бэкапим в этом же "где-то". Это ошибка. PVC строго говоря – это костыль, который противоречит идее микросервисов. Микросервисы не должны хранить состояний :)
Микросервисы так-то используют данные и генерируют данные. Стало быть их и хранить где-то надо. Костыль - это когда hostPath для хранения выбирают. А запросить с помощью pvc хранилище, которому провайдер гарантирует 99% доступности и столько же сохранности, по-моему куда мудрее. Тут остоется только фактор криворукости, который лечится rbac и iam. От вашей собственной (я конечно не о вас конкретно) криворукости это не избавляет, но решение этого вопроса не ложится на компоненты кубера и облака

у вас, кстати, EBS никогда данные не терял? У меня терял
Терял. Из за моих собственных не осторожных действий

Страница 499 из 958