@devops_ru

Страница 4530 из 4568
Данила
20.10.2018
14:38:50
В Kubernetes можно подключать 1 persistent volume к несколькоим подам?

(в качестве хранилща используется CephFS)

Антон
20.10.2018
14:42:49
В Kubernetes можно подключать 1 persistent volume к несколькоим подам?
Должно уметь, просто используется не RWO, RWM или как оно зовётся

Google
Данила
20.10.2018
14:47:24
При добавлении реплик (горизонтальном масштабировании), насколько я понимаю, новые контейнеры создаются на рандомных подах (или, в зависимости от нагруженности под)

Данила
20.10.2018
14:48:21
Вот, и мне нужно, чтобы все реплики использовали одно хранилище Cepg

*ceph

Данила
20.10.2018
14:49:38
Я как раз CephFS хочу использовать с ReadWriteMany

Потому как с RBD это не имеет смысла

Эдуард
20.10.2018
14:50:18
Данила
20.10.2018
14:52:45
Т.е. мне сначала нужно создать StorageClass, где я укажу, куда у меня примонтирован CephFS на серверах, потом создать PVC и при создании контейнеров приложения в секцци volumes указать этот PVC?

Данила
20.10.2018
14:54:54
Сразу указывать при создании пода?

Google
Sergey
20.10.2018
15:08:29
Эдуард
20.10.2018
15:08:40
;)
Thx)

Данила
20.10.2018
15:08:59
Можно ли разворачивать CephFS на DO чисто для тестов?

У них там сеть 100 mbit/s между нодами

Banschikov
20.10.2018
16:02:44
У них там сеть 100 mbit/s между нодами
Там в лучшем случае гигабит нужен или fibre сhannel

Данила
20.10.2018
16:27:22
Там в лучшем случае гигабит нужен или fibre сhannel
Я думаю, 100 мбит хватит, т.к. скорость соединения между сервером и клиентом точно меньше

20-30 мбит/с, ну 70 максимум

Или я неправ?

Andrey
20.10.2018
16:32:14
Цефу 10г надо, лучше 40. Хотя смотря что ожидать. Со 100 мбит можно с малыми объёмами тестить и с никакой нагрузкой

Banschikov
20.10.2018
16:33:36
Или я неправ?
Ага. Если у тебя Ceph как минимум 1гигабит, а как советуют выше 10 будет в самый раз. Иначе писец у тебя будет. такова архитектура цефа

Andrey
20.10.2018
16:34:34
Смотря что ждать и какой объем данных. Если там пара иопс и 100кб/сек нагрузка, то потянет

Google
Данила
20.10.2018
16:35:34
Мне пару сайтов для тестов захостить надо

Блог на wp

Konstantin
20.10.2018
16:36:05
у меня 10г только на ребилдах загружались, и то не всегда даже и половину

Andrey
20.10.2018
16:36:08
Данила
20.10.2018
16:36:08
И сайтиу на джанге

Andrey
20.10.2018
16:36:51
Дак да, вся жопа начинается при бэкфиле. И оперативки там надо море и канал хороший

Но опять таки от объёмов зависит. Может и не будет жопы :)

Данила
20.10.2018
16:37:39
А зачем там цеф тогда?
А ceph затем, что потом я буду хостить интернет-магазин, и мне нужна отказоустойчивость. Вот упадет у меня единственная нода, и магазин накроется.

ИМ буду хостить уже на barr metal

А это пока для тестов

Andrey
20.10.2018
16:39:48
Или iscsi двухпортовый. На две ноды самое то (bare metal)

Данила
20.10.2018
16:39:52
Омг. Цеф быстрее упадёт чем интернет магазин ??
Почему? Скорости и железо будет другое

bebebe
20.10.2018
16:40:03
Тем же терраформом. Подготовив снапшоты дроплетов

Andrey
20.10.2018
16:41:36
Почему? Скорости и железо будет другое
Не важно. Если вы там не амазон разворачиваете, то нафиг цеф не нужен. Есть 100500 вариантов сделать дешевле и лучше, и спать спокойно )

Данила
20.10.2018
16:41:55
У тех же firstvds для облачных серверов используется ceph rbd

Ну и пока просто поиграться хочется

Google
Konstantin
20.10.2018
16:43:06
minio бы за глаза хватило

bebebe
20.10.2018
16:43:06
У тех же firstvds для облачных серверов используется ceph rbd
Посмотрите в сторону ECR, или аналог у Гугла. Для магазина достаточно хостить докер контейнеры с managed db.

Andrey
20.10.2018
16:43:13
Про cephfs - редкостное дерьмо, кстати.

Andrey
20.10.2018
16:43:20
У тех же firstvds для облачных серверов используется ceph rbd
В том то и разница что у них 100500 чужих виртуалок))) а не просто один сайтик.

Данила
20.10.2018
16:47:22
Про cephfs - редкостное дерьмо, кстати.
А какую сетевую ФС тогда можно использовать ?

Andrey
20.10.2018
16:48:09
А какую сетевую ФС тогда можно использовать ?
Тебе точно нужна распределённая фс?

Данила
20.10.2018
16:48:20
да

Необязательно для магазина, просто интересуюсь ъ

Andrey
20.10.2018
16:48:58
Гластер есть ещё и куча платных

Данила
20.10.2018
16:49:27
Я слышал, что glusterfs хуже, чем ceph (склонна сбоить)

Banschikov
20.10.2018
16:50:36
Я слышал, что glusterfs хуже, чем ceph (склонна сбоить)
хаха) Одно время пытался гластер юзать) с fuse драйвером ловить точно нефиг)

Данила
20.10.2018
16:51:23
Поэтому стоит использовать Ceph

Andrey
20.10.2018
16:52:32
Ceph стоит использовать если он нужен)) а не по тому что гластер у сына мамкиной подруги не встал

bebebe
20.10.2018
16:52:57
Поэтому стоит использовать Ceph
@ceph_ru там вас отговорят

Andrey
20.10.2018
16:53:09
Данила
20.10.2018
16:53:50
Я понимаю, что Ceph глючный, но мне хотелось бы выбрать наименьшее из зол

Andrey
20.10.2018
16:54:30
Я понимаю, что Ceph глючный, но мне хотелось бы выбрать наименьшее из зол
Ты делаешь такие громкие заявления будто уже оба попробовал.

Данила
20.10.2018
16:54:40
Хорошо

Banschikov
20.10.2018
16:54:42
Я понимаю, что Ceph глючный, но мне хотелось бы выбрать наименьшее из зол
Ceph не глючный, его просто нужно уметь готовить и поддерживать и как правило он ломается по причине "кривые руки"

Данила
20.10.2018
16:54:42
Тогда так

Google
Andrey
20.10.2018
16:54:43
Выбирать надо по параметрам и по запросам своим.

Так то хоть на hdfs можно взлететь ??

Тоже себе распределённая фс

Данила
20.10.2018
16:59:20
Тогда можно забить на распределённые ФС вввроде gluster или ceph и развернуть всё в Google Cloud, а в качестве persistent volumes использовать gce persistent disk

Andrey
20.10.2018
17:00:48
Тогда можно забить на распределённые ФС вввроде gluster или ceph и развернуть всё в Google Cloud, а в качестве persistent volumes использовать gce persistent disk
Воооот я к тому и веду. Если нет времени и сильной потребности в одной или другой фс, не надо их брать. Это окончится переходом в тот тип админов которые делают бекапы.

Banschikov
20.10.2018
17:01:29
Данила
20.10.2018
17:03:52
И странный вопрос - можно ли использовать gce диски, но сам vds, к примеру, от DO или AWS? Не скажется ли это на скорости?////////////

Banschikov
20.10.2018
17:04:37
Dmitry
20.10.2018
17:08:46
Какие отзывы о http://lustre.org/ ?

Данила
20.10.2018
17:10:33
Wat? Как ты диски с амазона зацепишь в DO?
Я хочу, чтобы у меня vds был от digitalocean, а вот хранилище от google cloud (gce persistent disk). Почему нет?

apiVersion: v1 kind: Pod metadata: name: test-pd spec: containers: - image: k8s.gcr.io/test-webserver name: test-container volumeMounts: - mountPath: /test-pd name: test-volume volumes: - name: test-volume # This GCE PD must already exist. gcePersistentDisk: pdName: my-data-disk fsType: ext4 Что мне мешает сделать вот так?

Dmitry
20.10.2018
17:12:03
Данила
20.10.2018
17:13:12
Т.е. использование хранилища от gc обязывает меня использовать и виртуалку от gc?

Страница 4530 из 4568