
Max
25.11.2016
14:35:34
ведь все это будет кочевать через сеть и дофига накладных расходов теоритичкски

Fike
25.11.2016
14:37:07
физический уровень что?

Max
25.11.2016
14:37:14
вот есть у меня 3 воркера в короси, и дальше ни чего не могу выдумать, кроме того что бы через контейнеры создать например GFS кластер
как устроить файловое хранилище

Google

Fike
25.11.2016
14:38:53
если используете штуки типа куба, то файлы разумно хранить в облачном хранилище того же гугла / амазона / селектела (последнее, впрочем, под вопросом)

Max
25.11.2016
14:44:40
оке, пасибо

Paul
25.11.2016
14:54:10
коллеги, глупый вопрос - никто не подскажет, как указать ноде ее публичный адрес, если в системе несколько интерфейсов? Собрал тестовый кластер, но все сервисы публикаются на внутренних IP, kubectl node describe показывает только приватные адреса нод

Max
25.11.2016
15:03:23
ох я нукашался в подобном. Заюзал по итогу externalIPs

Михаил
25.11.2016
15:09:39

Max
25.11.2016
15:10:05
кто так, да

Михаил
25.11.2016
15:10:44
Ну там же k8s с любым говном может жить
Storage orchestration
Automatically mount the storage system of your choice, whether from local storage, a public cloud provider such as GCP or AWS, or a network storage system such as NFS, iSCSI, Gluster, Ceph, Cinder, or Flocker.
А теперь по пунктам. Какие объемы?

Paul
25.11.2016
15:14:18

Max
25.11.2016
15:14:19
пока конечно не большие PG около 100Гб

Andrey
25.11.2016
15:16:08
"Automatically mount the storage system of your choice" - врут все, не любой а только тот что поддерживается :) google bucket например я хз как смонтировать без бубнов

Google

Михаил
25.11.2016
15:16:17

Paul
25.11.2016
15:17:18

Михаил
25.11.2016
15:18:47

Max
25.11.2016
15:19:19
тут как бы проблема в том, что бы держать данные поближе к процессу постгревому

Михаил
25.11.2016
15:19:40
А что за инфраструктура?

Max
25.11.2016
15:19:59
поменьше всякой накладухи иметь, на столько на сколько это возможно
железки 1 мастер(мультимастер вот еще интерестный квест), 3 воркера.
CoreOS stable, k8s-1.4.3

Михаил
25.11.2016
15:22:12
А это вы снимаете или ваше?

Max
25.11.2016
15:22:19
арендованные

Михаил
25.11.2016
15:26:19
GPFS от ibm купите)
Она вроде не дорого

Max
25.11.2016
15:34:35
погуглю, спасибо.
И что бы кстати решило елси бы железки были наши? Все равно ж железки

Михаил
25.11.2016
15:37:46
Но это если от десятков терабайт хорошо)
А вообще
https://clusterhq.com/flocker/introduction/
Первый раз увидел, но выглядит интересно

Sergey
25.11.2016
15:40:13

Михаил
25.11.2016
15:40:35
Да? Я просто мельком просмотрел с телефона

Google

Михаил
25.11.2016
15:40:38
А что это?

Sergey
25.11.2016
15:40:47
это типа унифицированное апи к куче разных стораджей.
как openstack cinder

Михаил
25.11.2016
15:40:59
А
А зачем оно если k8s умеет в cinder?)

Sergey
25.11.2016
15:42:05

Михаил
25.11.2016
15:42:28
Я как то не задумывался, но г-на ovirt есть дока
И она всего 1.5 страницы емнип
Так что поднимаемо

Sergey
25.11.2016
15:43:22
ну как минимум надо будет поднять сам сторадж, потом keystone, потом cinder.
и зачем? :) если можно k8s напрямую отправить в Ceph.

Михаил
25.11.2016
15:44:14
Гластер говно и что же выбрать?

Sergey
25.11.2016
15:44:41
моны необязательно держать на отдельных машинах в случае микроинсталляции.

Михаил
25.11.2016
15:45:12

Sergey
25.11.2016
15:45:26
:)

Михаил
25.11.2016
15:45:53
Ну да, но это все равно оверхед по серверам
Суммаррный объем если даже диски по 600г, 2.4 тб это с тройной репликой (по 4 диска в 1у сервер) а автору то всего 100г надо
И что делать не ясно

Paul
25.11.2016
15:51:45
С ceph надо быть очень осторожным - любое обновление это риск

Google

Михаил
25.11.2016
16:39:24

Alexander
25.11.2016
16:45:37
есть такой принцип, работает - не трожь
обновляй лучше андройд, а это как-то черевато потерей данных

Paul
25.11.2016
17:24:49

Alexander
25.11.2016
17:44:11
согласен, в потере данных ничего приятного :))

Admin
ERROR: S client not available

Paul
25.11.2016
18:03:12
потому и говорю,что ceph - плохая альтернатива и использовать его следует крайне аккуратно

Zon
25.11.2016
18:09:19
Интересно, внутри к8с ceph уже запустили?

Paul
25.11.2016
18:13:12
учитывая что ему нужен прямой доступ к диску - сомнительно

Andrey
25.11.2016
20:54:33
кидайте ссылками

Михаил
25.11.2016
21:41:17
На всякий случай напомню, что ceph, cinder и прочее опенстек можно обсуждать в @pro_openstack там есть люди, которые все это эксплуатируют.

Artem
25.11.2016
22:42:11
запихивать цеф в кубернетес нет никакого смысла. это карго культ в худшем его проявлении.
кубернетес про микросервисы, а цеф про блокдевайсы
хотя запихать можно, проблем вообще не вижу
вы в кучу все понамешали
цеф это не шаредсторадж
для шаредсторадж нужна посикс совместимая шаред файлуха и длм

Google

Artem
25.11.2016
22:48:48
цеф это шаредблокдевайс
и кей-обджект хранилище
вменяемых решений для shared storage в природе не существует
они все выполняют одно требование cap теоремы и то с трудом. все глючит и теряет данные.
если сильно надо, то лучше всего взять openresty и писать свои бинари прямо в цеф по оффсету, программируя на Lua в конфиге nginx. шутка
есть тут кто с бывшего undev?

Михаил
25.11.2016
23:04:31

Artem
25.11.2016
23:07:25
https://github.com/ceph/ceph-docker
они уже упоролись бгг

Михаил
25.11.2016
23:23:35
О как
MAINTAINER Sébastien Han
Занятно
Какой то странный Dockerfile

Paul
26.11.2016
10:37:20

Zon
26.11.2016
12:24:34

Max
26.11.2016
13:22:55

Artem
26.11.2016
13:26:23
чём там дело кончилось с перепиленым глустером?