@kubernetes_ru

Страница 101 из 958
Max
25.11.2016
14:35:34
ведь все это будет кочевать через сеть и дофига накладных расходов теоритичкски

Fike
25.11.2016
14:37:07
физический уровень что?

Max
25.11.2016
14:37:14
вот есть у меня 3 воркера в короси, и дальше ни чего не могу выдумать, кроме того что бы через контейнеры создать например GFS кластер

как устроить файловое хранилище

Google
Fike
25.11.2016
14:38:53
если используете штуки типа куба, то файлы разумно хранить в облачном хранилище того же гугла / амазона / селектела (последнее, впрочем, под вопросом)

Max
25.11.2016
14:44:40
оке, пасибо

Paul
25.11.2016
14:54:10
коллеги, глупый вопрос - никто не подскажет, как указать ноде ее публичный адрес, если в системе несколько интерфейсов? Собрал тестовый кластер, но все сервисы публикаются на внутренних IP, kubectl node describe показывает только приватные адреса нод

Max
25.11.2016
15:03:23
ох я нукашался в подобном. Заюзал по итогу externalIPs

Max
25.11.2016
15:10:05
кто так, да

Михаил
25.11.2016
15:10:44
Ну там же k8s с любым говном может жить

Storage orchestration Automatically mount the storage system of your choice, whether from local storage, a public cloud provider such as GCP or AWS, or a network storage system such as NFS, iSCSI, Gluster, Ceph, Cinder, or Flocker.

А теперь по пунктам. Какие объемы?

Paul
25.11.2016
15:14:18
ох я нукашался в подобном. Заюзал по итогу externalIPs
проще не вариант? вот жеж скотство блин :(

Max
25.11.2016
15:14:19
пока конечно не большие PG около 100Гб

проще не вариант? вот жеж скотство блин :(
как то вроде можно лоадбалансинг накрутить, но я ещё это ниасилил

Andrey
25.11.2016
15:16:08
"Automatically mount the storage system of your choice" - врут все, не любой а только тот что поддерживается :) google bucket например я хз как смонтировать без бубнов

Google
Михаил
25.11.2016
15:16:17
пока конечно не большие PG около 100Гб
Возьми нфс. И сделай shared storage. Если яйца крепкие бери Gluster. Если потом будете рости по терабайту в месяц, то ceph

Михаил
25.11.2016
15:18:47
я бы сказал, что gluster не следует использовать никогда
Там в 3.8 пофиксили анал карнавал с разваливанием всего. Но я не тестил)

Max
25.11.2016
15:19:19
тут как бы проблема в том, что бы держать данные поближе к процессу постгревому

Михаил
25.11.2016
15:19:40
А что за инфраструктура?

Max
25.11.2016
15:19:59
поменьше всякой накладухи иметь, на столько на сколько это возможно

железки 1 мастер(мультимастер вот еще интерестный квест), 3 воркера. CoreOS stable, k8s-1.4.3

Михаил
25.11.2016
15:22:12
А это вы снимаете или ваше?

Max
25.11.2016
15:22:19
арендованные

Михаил
25.11.2016
15:26:19
GPFS от ibm купите)

Она вроде не дорого

Max
25.11.2016
15:34:35
погуглю, спасибо. И что бы кстати решило елси бы железки были наши? Все равно ж железки

Михаил
25.11.2016
15:37:46
Но это если от десятков терабайт хорошо)

А вообще

https://clusterhq.com/flocker/introduction/

Первый раз увидел, но выглядит интересно

Sergey
25.11.2016
15:40:13
https://clusterhq.com/flocker/introduction/
оно не сторадж же.

Михаил
25.11.2016
15:40:35
Да? Я просто мельком просмотрел с телефона

Google
Михаил
25.11.2016
15:40:38
А что это?

Sergey
25.11.2016
15:40:47
это типа унифицированное апи к куче разных стораджей.

как openstack cinder

Михаил
25.11.2016
15:40:59
А

А зачем оно если k8s умеет в cinder?)

Sergey
25.11.2016
15:42:05
А зачем оно если k8s умеет в cinder?)
NIH, и Cinder легко ли поднять, если нет openstack'а?

Михаил
25.11.2016
15:42:28
Я как то не задумывался, но г-на ovirt есть дока

И она всего 1.5 страницы емнип

Так что поднимаемо

Sergey
25.11.2016
15:43:22
ну как минимум надо будет поднять сам сторадж, потом keystone, потом cinder. и зачем? :) если можно k8s напрямую отправить в Ceph.

Михаил
25.11.2016
15:44:14
Гластер говно и что же выбрать?

Sergey
25.11.2016
15:44:41
моны необязательно держать на отдельных машинах в случае микроинсталляции.

Михаил
25.11.2016
15:45:12
Sergey
25.11.2016
15:45:26
:)

Михаил
25.11.2016
15:45:53
Ну да, но это все равно оверхед по серверам

Суммаррный объем если даже диски по 600г, 2.4 тб это с тройной репликой (по 4 диска в 1у сервер) а автору то всего 100г надо

И что делать не ясно

Paul
25.11.2016
15:51:45
С ceph надо быть очень осторожным - любое обновление это риск

Google
Alexander
25.11.2016
16:45:37
есть такой принцип, работает - не трожь

обновляй лучше андройд, а это как-то черевато потерей данных

Paul
25.11.2016
17:24:49
Самого ceph?
именно. и с балансировкой там проблемы

обновляй лучше андройд, а это как-то черевато потерей данных
отвратительный принцип и я даже не буду объяснять - почему

Alexander
25.11.2016
17:44:11
согласен, в потере данных ничего приятного :))

Admin
ERROR: S client not available

Paul
25.11.2016
18:03:12
потому и говорю,что ceph - плохая альтернатива и использовать его следует крайне аккуратно

Zon
25.11.2016
18:09:19
Интересно, внутри к8с ceph уже запустили?

Paul
25.11.2016
18:13:12
учитывая что ему нужен прямой доступ к диску - сомнительно

Andrey
25.11.2016
20:54:33
кидайте ссылками

Михаил
25.11.2016
21:41:17
именно. и с балансировкой там проблемы
Шта? Вы не умеете его готовить

Интересно, внутри к8с ceph уже запустили?
Ну и мразь же ты. Можно моны запихнуть в докер, я об этом не подумал)

На всякий случай напомню, что ceph, cinder и прочее опенстек можно обсуждать в @pro_openstack там есть люди, которые все это эксплуатируют.

Artem
25.11.2016
22:42:11
запихивать цеф в кубернетес нет никакого смысла. это карго культ в худшем его проявлении.

кубернетес про микросервисы, а цеф про блокдевайсы

хотя запихать можно, проблем вообще не вижу

вы в кучу все понамешали

цеф это не шаредсторадж

для шаредсторадж нужна посикс совместимая шаред файлуха и длм

Google
Artem
25.11.2016
22:48:48
цеф это шаредблокдевайс

и кей-обджект хранилище

вменяемых решений для shared storage в природе не существует

они все выполняют одно требование cap теоремы и то с трудом. все глючит и теряет данные.

если сильно надо, то лучше всего взять openresty и писать свои бинари прямо в цеф по оффсету, программируя на Lua в конфиге nginx. шутка

есть тут кто с бывшего undev?

Artem
25.11.2016
23:07:25
https://github.com/ceph/ceph-docker

они уже упоролись бгг

Михаил
25.11.2016
23:23:35
О как

MAINTAINER Sébastien Han

Занятно

Какой то странный Dockerfile

Paul
26.11.2016
10:37:20
они уже упоролись бгг
Это для разрабов же

Artem
26.11.2016
13:26:23
чём там дело кончилось с перепиленым глустером?

Страница 101 из 958