
Данила
20.10.2018
14:38:50
В Kubernetes можно подключать 1 persistent volume к несколькоим подам?
(в качестве хранилща используется CephFS)

Антон
20.10.2018
14:42:49

Эдуард
20.10.2018
14:47:18

Google

Данила
20.10.2018
14:47:24
При добавлении реплик (горизонтальном масштабировании), насколько я понимаю, новые контейнеры создаются на рандомных подах (или, в зависимости от нагруженности под)

Эдуард
20.10.2018
14:47:39

Данила
20.10.2018
14:48:21
Вот, и мне нужно, чтобы все реплики использовали одно хранилище Cepg
*ceph

Эдуард
20.10.2018
14:48:45
Или cephfs

Данила
20.10.2018
14:49:38
Я как раз CephFS хочу использовать с ReadWriteMany
Потому как с RBD это не имеет смысла

Эдуард
20.10.2018
14:50:18

Данила
20.10.2018
14:52:45
Т.е. мне сначала нужно создать StorageClass, где я укажу, куда у меня примонтирован CephFS на серверах, потом создать PVC и при создании контейнеров приложения в секцци volumes указать этот PVC?

Эдуард
20.10.2018
14:54:35
Сча проверю

Данила
20.10.2018
14:54:54
Сразу указывать при создании пода?

Google

Эдуард
20.10.2018
15:00:00
Сорян, в дороге
@Asgoret

Sergey
20.10.2018
15:08:29

Эдуард
20.10.2018
15:08:40

Данила
20.10.2018
15:08:59
Можно ли разворачивать CephFS на DO чисто для тестов?
У них там сеть 100 mbit/s между нодами

Эдуард
20.10.2018
15:10:49

bebebe
20.10.2018
16:00:55

Banschikov
20.10.2018
16:02:44

Данила
20.10.2018
16:27:22
20-30 мбит/с, ну 70 максимум
Или я неправ?

Andrey
20.10.2018
16:32:14
Цефу 10г надо, лучше 40. Хотя смотря что ожидать. Со 100 мбит можно с малыми объёмами тестить и с никакой нагрузкой

Данила
20.10.2018
16:32:47

Banschikov
20.10.2018
16:33:36
Или я неправ?
Ага. Если у тебя Ceph как минимум 1гигабит, а как советуют выше 10 будет в самый раз. Иначе писец у тебя будет. такова архитектура цефа

Andrey
20.10.2018
16:34:34
Смотря что ждать и какой объем данных. Если там пара иопс и 100кб/сек нагрузка, то потянет

Konstantin
20.10.2018
16:34:59

Google

Данила
20.10.2018
16:35:34
Мне пару сайтов для тестов захостить надо
Блог на wp

Konstantin
20.10.2018
16:36:05
у меня 10г только на ребилдах загружались, и то не всегда даже и половину

Andrey
20.10.2018
16:36:08

Данила
20.10.2018
16:36:08
И сайтиу на джанге

Andrey
20.10.2018
16:36:51
Дак да, вся жопа начинается при бэкфиле. И оперативки там надо море и канал хороший
Но опять таки от объёмов зависит. Может и не будет жопы :)

Данила
20.10.2018
16:37:39
А зачем там цеф тогда?
А ceph затем, что потом я буду хостить интернет-магазин, и мне нужна отказоустойчивость. Вот упадет у меня единственная нода, и магазин накроется.
ИМ буду хостить уже на barr metal
А это пока для тестов

Andrey
20.10.2018
16:38:16

Ванько
20.10.2018
16:38:29
С хелсчеками, естессна

Andrey
20.10.2018
16:39:48
Или iscsi двухпортовый. На две ноды самое то (bare metal)

Данила
20.10.2018
16:39:52

bebebe
20.10.2018
16:40:03
Тем же терраформом. Подготовив снапшоты дроплетов

Andrey
20.10.2018
16:41:36

Данила
20.10.2018
16:41:55
У тех же firstvds для облачных серверов используется ceph rbd
Ну и пока просто поиграться хочется

Google

Konstantin
20.10.2018
16:43:06
minio бы за глаза хватило

bebebe
20.10.2018
16:43:06

Andrey
20.10.2018
16:43:13
Про cephfs - редкостное дерьмо, кстати.

Andrey
20.10.2018
16:43:20

Данила
20.10.2018
16:47:22

Andrey
20.10.2018
16:48:09

Данила
20.10.2018
16:48:20
да
Необязательно для магазина, просто интересуюсь ъ

Andrey
20.10.2018
16:48:58
Гластер есть ещё и куча платных

Данила
20.10.2018
16:49:27
Я слышал, что glusterfs хуже, чем ceph (склонна сбоить)

Banschikov
20.10.2018
16:50:36

Данила
20.10.2018
16:51:23
Поэтому стоит использовать Ceph

Andrey
20.10.2018
16:52:32
Ceph стоит использовать если он нужен)) а не по тому что гластер у сына мамкиной подруги не встал

bebebe
20.10.2018
16:52:57

Andrey
20.10.2018
16:53:09

Данила
20.10.2018
16:53:50
Я понимаю, что Ceph глючный, но мне хотелось бы выбрать наименьшее из зол

Andrey
20.10.2018
16:54:30

Данила
20.10.2018
16:54:40
Хорошо

Banschikov
20.10.2018
16:54:42

Данила
20.10.2018
16:54:42
Тогда так

Google

Andrey
20.10.2018
16:54:43
Выбирать надо по параметрам и по запросам своим.
Так то хоть на hdfs можно взлететь ??
Тоже себе распределённая фс

Данила
20.10.2018
16:59:20
Тогда можно забить на распределённые ФС вввроде gluster или ceph и развернуть всё в Google Cloud, а в качестве persistent volumes использовать gce persistent disk

Andrey
20.10.2018
17:00:48

Banschikov
20.10.2018
17:01:29

Данила
20.10.2018
17:03:52
И странный вопрос - можно ли использовать gce диски, но сам vds, к примеру, от DO или AWS? Не скажется ли это на скорости?////////////

Banschikov
20.10.2018
17:04:37

Andrey
20.10.2018
17:08:26

Dmitry
20.10.2018
17:08:46
Какие отзывы о http://lustre.org/ ?

Данила
20.10.2018
17:10:33
apiVersion: v1
kind: Pod
metadata:
name: test-pd
spec:
containers:
- image: k8s.gcr.io/test-webserver
name: test-container
volumeMounts:
- mountPath: /test-pd
name: test-volume
volumes:
- name: test-volume
# This GCE PD must already exist.
gcePersistentDisk:
pdName: my-data-disk
fsType: ext4
Что мне мешает сделать вот так?

Dmitry
20.10.2018
17:12:03

Andrey
20.10.2018
17:12:12

Данила
20.10.2018
17:13:12
Т.е. использование хранилища от gc обязывает меня использовать и виртуалку от gc?