
Paul
04.10.2017
09:23:56
дважды один девайс смонтировать вы не сможете

Maksim
04.10.2017
09:24:28
А смысл бекапить на ceph..если делать толерантность 1 то всё живёт при смерти 1 osd
можно повысить до 2х.... и мы живём при 2х мёртвых osd
или глубина репликации 2 и 3 соответвенно

Google

Роман
04.10.2017
09:25:04
Ой. Вот это и плохо! Я не смогу в два пода смонтировать девайс?

Maksim
04.10.2017
09:26:03

Роман
04.10.2017
09:59:43
Выходит, что ceph мне не подходит(

Михаил
04.10.2017
10:00:46

Роман
04.10.2017
10:02:35
а мне кто-нибудь объяснит ЗАЧЕМ?!
У меня поды с пхп. Иногда пользователь загружает свою аватарку, например. Подов у меня несколько, так как нагрузка большая. Картинки отдаёт nginx, в него тоже смонтирован волюм - ему и RO достаточно. Но пхп может любой под писать в этот волюм.

Михаил
04.10.2017
10:03:02
s3 либы есть под любой сторадж

Роман
04.10.2017
10:03:16

Михаил
04.10.2017
10:03:36
Это локально?
нет, это делают нормальные люди для хранения статики

Роман
04.10.2017
10:05:58

Михаил
04.10.2017
10:06:29
про amazon s3 слышал?

Роман
04.10.2017
10:07:09
про amazon s3 слышал?
Да. Я читал только что. Мне интересна реализация с кубером была. Тут, как я вижу, кубер вообще не участвует?

Google

Михаил
04.10.2017
10:07:31
не участвует
не надо хранить статику в кубе файликами - это плохо

Роман
04.10.2017
10:21:44
В принципе, хорошая идея переложить реализацию с плеч сисадмина на плечи программистов)

Михаил
04.10.2017
10:30:13
s3 либы есть под любой язык

Роман
04.10.2017
10:31:25
Я предложил ребятам. Идея вроде понравилась.
Или я не правильно понимаю этот документ?

Maksim
04.10.2017
10:33:42

Роман
04.10.2017
10:34:52

Maksim
04.10.2017
10:35:12
ну эта страница писалась под версию 1.3 кажись)
Это к вопросу о "Документации кубера" и о том что она на самом деле Плохая....

Роман
04.10.2017
10:35:58
Тем не менее, не понятно, почему RBD нельзя ReadWriteMany сделать...

Maksim
04.10.2017
10:36:14
Кубер как и любой другой ОС проект крайне плохо документирован
Если я правильно помню то его тупо лочит сеф, и второго клиента не пустит
rbd это же block device...так что скорее всего им монопольно владеет один клиент...

Роман
04.10.2017
10:37:21
Вот тут пример, как будто так можно: http://www.zeding.ro/using-ceph-as-storage-for-kubernetes-clusters/

Maksim
04.10.2017
10:45:59
kubernetes.io/rbd
ой
func (plugin *rbdPlugin) GetAccessModes() []v1.PersistentVolumeAccessMode {
return []v1.PersistentVolumeAccessMode{
v1.ReadWriteOnce,
v1.ReadOnlyMany,
}
}

Google

Maksim
04.10.2017
10:46:19
Один пишет. Многие читают

Михаил
04.10.2017
10:54:32

Paul
04.10.2017
10:55:09

Роман
04.10.2017
10:56:05
А как тогда монтировать не изменяемые файлы?
Если у меня один под, который не должен переезжать.

Михаил
04.10.2017
10:56:39

Paul
04.10.2017
10:56:53

Роман
04.10.2017
10:57:37
Например, у меня есть ингресс-контроллер, у него есть dhparam файл.

Maksim
04.10.2017
11:00:53

Роман
04.10.2017
11:03:25
ConfigMap вам в помощь
Так это больше действий. Изменить темплейт, сделать из него конфигмап, заменить... Было бы хорошо, если бы ингресс-контроллер 0.8.3 сам умел перезапускаться при изменении конфигмапа. А тут - так проще.

Maksim
04.10.2017
11:05:17
kubectl edit cm
?

Михаил
04.10.2017
11:05:53

Роман
04.10.2017
11:36:05
Ну или ещё вариант - база данных. Что использовать, если не hostPath?

Михаил
04.10.2017
11:36:30

Роман
04.10.2017
11:36:59

Михаил
04.10.2017
11:37:30

Paul
04.10.2017
11:55:21

Михаил
04.10.2017
11:56:22

Google

vladget
04.10.2017
11:57:24

Михаил
04.10.2017
11:57:49

Maksim
04.10.2017
11:59:16
Так что тот же Постгре нормально работает пока есть один под.....ПРи желании можно собрать кластер на контенерах, нарисовать Affinity и устроить pg_pool для менеджа коннектов......

Михаил
04.10.2017
12:16:21

Maksim
04.10.2017
12:17:13
Поднять контецнер с постгре то де не сложно. И следить за ним будет куб
Т да у меня Атомик))) что не сильно дальше коры
И это из оперы про виртуализацию...если делаешь норм кластер виртуалищации. То сингл зостов уже бвть не дллжно. Да де емкие БД лучше иметь в виде виртуалок с пробросом железа на прямую в виртуалку

Fike
04.10.2017
13:10:54

John
04.10.2017
17:37:28
Добрый вечер. Кто может подсказать, почему при создании ingress для nginx-контроллера в гуглооблаке, он повисат в статусе "Creating ingress", при этом работает?

Let Eat
04.10.2017
19:40:36
если кому-нибудь важно, чтобы Helm умел смену apiVersion (скажем был Deployment extensions/v1beta1, а стал apps/v1beta1), как это умеет kubectl apply, то зайдите пожалуйста, выскажитесь https://github.com/kubernetes/helm/pull/2976#issuecomment-334206483 . Лучшее будущее под угрозой
всё-таки Helm прекрасен в своей ебучести: https://github.com/kubernetes/helm/issues/1707#issuecomment-280072476

Vitaliy
04.10.2017
20:09:26

User ?
05.10.2017
07:39:53
Всем привет.
С контейнерами и их оркестрацией человек новый.
Подскажите пожалуйста, где и как вы держите бд?
(postgres, mongo)
нагрузка небольшая, но интересует постоянный доступ до нее в кластере.
Ну и общий сторадж для бд и аналога s3

vladget
05.10.2017
08:32:47
external service

User ?
05.10.2017
08:35:17

vladget
05.10.2017
08:35:28
угу

Andrey
05.10.2017
08:41:30
statefulset ;)

Google

User ?
05.10.2017
08:51:04
угу
а фс? ceph? или что-то другое?

Михаил
05.10.2017
09:59:35

Dmitry
05.10.2017
10:01:36

Gleb
05.10.2017
10:02:23

Dmitry
05.10.2017
10:02:46
они потом долго висят в etcd
долго=всегда
но вроде в последнем релизе там сделали TTL в сутки
рассказать может @ChesterFie1d

User ?
05.10.2017
10:03:42

vladget
05.10.2017
10:06:24
как на kops включить rbac? кто сталкивался?
на уже существующем кластере
поменял
authorization:
rbac: {}
ничего

Maksim
05.10.2017
10:07:22
ммм

vladget
05.10.2017
10:23:51
kops rolling-update cluster —yes —force помог