@kubernetes_ru

Страница 865 из 958
kvaps
04.10.2018
13:21:22
достаточно только externalIP повесить и все работать будет, в случае с однонодным кластером вообще никаких проблем не будет, вешаете айпишник ноды и усе

если у вас нормальный linux используйте kubeadm имхо, minikube - на поиграться больше

Artem
04.10.2018
13:22:45
еще microk8s есть

Google
Artem
04.10.2018
13:23:28
тогда делайте на ней kubeadm https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm/

Евгений
04.10.2018
13:24:50




Артем
04.10.2018
13:27:07
Vadim
04.10.2018
13:28:47
StorageOs завелся отлично тремя командами

Mikhail чердак
04.10.2018
13:39:02
Artem
04.10.2018
14:03:39
Спасибо буду делать на нем
по моему, в vagrant + ansible удобнее и нагляднее

+ там не сингл мастер, да)

Артем
04.10.2018
14:06:15
по моему, в vagrant + ansible удобнее и нагляднее
Есть какая нибудь доходчивая ссылка на установку таким образом?

Artem
04.10.2018
14:06:32
а тебе что именно надо? тупо потыкать?

можешь Чистякова репу заюзать https://github.com/alexclear/k8s-percona-xtradb-cluster-lab/

Артем
04.10.2018
14:08:53
а тебе что именно надо? тупо потыкать?
Нет нужно сделать тестовую среду для разработчиков

Artem
04.10.2018
14:09:25
где сделать? локально им, в амазоне (напр.), еще_где_нибудь?

Google
Anton
04.10.2018
14:10:17
на маках в docker есть кубер из коробки

многим разработчикам хватает =)))

Артем
04.10.2018
14:11:00
где сделать? локально им, в амазоне (напр.), еще_где_нибудь?
Локально стоит prox mox и на нем нужно развернуть машину или маишины для тестовой среды

kvaps
04.10.2018
14:11:29
У меня ubuntu 18.04, которая крутится на prox mox
создай три тачки, одна будет мастер, две другие worker'ы задеплой куб через kubeadm - самый простой вариант, рили

Artem
04.10.2018
14:11:36
ну разверни им N машин, и раскатай ansible’ом кластер… в указанной выше репе есть ansible, можешь почитать плейбуку

Артем
04.10.2018
14:13:54
Спасибо! Да все таки разверну несколько 3 машины и сделаю из них кластер

Евгений
04.10.2018
14:23:48
StorageOs завелся отлично тремя командами
оно работает, просто после рестарта докера на ноде разваливается

хз пока в чем проблема

судя по их сайту оно немного в бете пока, видимо надо ждать stable релиза

Рустамыч
04.10.2018
14:46:47
Коллеги всем привет. Есть такой вопрос. У меня есть nginx controller в нем настроен проброс tcp порта в service. Но этот порт открыт для внешки. Как его закрыть можно? По сути этот порт нужен только для сервисов в кластере. Думаю вы сейчас спросите, а зачем тогда вообще тебе ingress нужен. Отвечаю у меня редис кластер и когда ложится мастер, то со стороны клиентов принудительно не рвется коннект. И клиент очень долгое время ждет пока ему редис ответит. nginx принудительно рвет соединение тем самым заставляя тут же переконнектится клиента.

Artem
04.10.2018
14:48:02
можно завейтлистить аннотацией в ингрессе

хотя, не факт, что это работает для порта

Рустамыч
04.10.2018
14:48:41
можно завейтлистить аннотацией в ингрессе
но там есть еще и другие порты, они тогда тоже заэфектятся

удалите externalIP из service
у меня его там нет

kvaps
04.10.2018
14:50:19
а что за тип сервиса у вас NodePort?

Рустамыч
04.10.2018
14:51:42
Google
Sergey
04.10.2018
19:24:30
все так, но жить как-то приходится )

Fike
04.10.2018
19:25:56
Эксклюзивный лок при накатке миграций никто не отменял

То что кассандра может таймаутить при выработке консенсуса по схеме и в прошлом это лечилось только настройками на сервере - это уже другой вопрос )

Vasiliy
04.10.2018
20:02:32
Господа, а не поделится ли кто файлами деплоя для netdata под кубер ?

Yaros
04.10.2018
20:39:28
Самые опытные, можете поделиться своим опытом с ранчером? Хотим заюзать чтобы легко настраивать права доступа для юзеров. Есть подводные камни и хитрые ньюансы? Юзать планируем вторую версию.

Alexey
04.10.2018
20:45:09
А какой глобальный смысл юзать ранчер? куб и так не сложно ставится

Stas
04.10.2018
20:46:29
Yaros
04.10.2018
21:42:34
@alexesDev только для управления правами, точнее удобства. Ну и еще топы так решили, тоже одна из причин.

Артем
04.10.2018
21:42:37
Всем привет. Коллеги, кто использует проект Дмитрия PostDock ?

Vasiliy
04.10.2018
21:51:32
@alexesDev только для управления правами, точнее удобства. Ну и еще топы так решили, тоже одна из причин.
Задумайтесь зачем вам опасно. Лучше кубер отдельно и любая веб-морда под что там нужно ? Юзеры? Ок

Fike
04.10.2018
21:52:41
топы так решили, хорошо

Vasiliy
04.10.2018
21:52:44
Гребаный т9 - зачем ранчер имелось ввиду

топы так решили, хорошо
Enterprise поддержку купили ? Нет? Значит нихрена они не решили, а просто проблему на инженеров перекинули.

Stas
04.10.2018
21:57:11
Вот все хочу спросить с 2016 года. А есть кто-то кто купил опеншифт?

Anton
04.10.2018
22:00:34
Кто пересел на 1.12 проблем нет?

Stas
04.10.2018
22:01:15
Все энтерпрайзы?
первый и последний раз в неткрекере видел

Vasiliy
04.10.2018
22:02:21
первый и последний раз в неткрекере видел
В скольких энтерпрайзы после работал ? Суть вопроса-то в чем ?

Боясь, как в этом телефоне т9 отрубить ?

Боясь, блять

Google
Mihail
04.10.2018
22:05:04
всем привет, есть кто BizTalk Server трогал? работа надо?

Stas
04.10.2018
22:06:55
Vasiliy
04.10.2018
22:08:10
Так-то из того, чо слышал - хреновый они интерфейс, убер дорогого грунта мало юзают

Vasiliy
04.10.2018
22:29:17
сорри я по тдевятиански не очень
Да, я так и не придумал, как на этом чудо-девайсе т9 отрубить

мы тинькофф за энтерпрайз считаем?
А что ты хочешь считать за энтерпрайс ?

Banschikov
05.10.2018
04:17:18
Народ поделитесь рецептом, как mongodb готовите в k8s, с простейшей конфигурацией replicaset ? Кроме Helm конечно

Vasilyev
05.10.2018
04:59:47
А че с хельмом не так-то?

Andrey
05.10.2018
05:06:15
Слишком много проблем с ним.

Мы передали генерацию YAML'ов из шаблонов на аутсорс в Индию, где круглосуточная бригада сертифицированных специалистов оперативно правит каждый деплой.

Banschikov
05.10.2018
05:12:59
Слишком много проблем с ним.
Плюсую. Полгода назад когда осваивал все это дело, послушал некоторых людей и в итоге весь CI построил на Helm и Gitlab интегрированый с k8s. В итоге сейчас плююсь от этого всего. хочу потихоньку слезать с него на простейший способ с kubectl

Let Eat
05.10.2018
05:33:14
Господа, а не поделится ли кто файлами деплоя для netdata под кубер ?
Монтируйте папки хоста в с префиксом /host в контейнере

DASTAN
05.10.2018
05:37:58
ребят, я создал три хелм чарта через helm create app1 app2 app3. задеплоил одну ветку в неймспейс созданный с названием ветки. теперь делаю чекаут на другую ветку и делаю снова деплой, он создает неймспейс но деплойментов и подов нет

DASTAN
05.10.2018
05:50:42
ветка гита типа feature/ci-cd, feature/test-ci-cd эти две ветки как две разные неймспейсы

деплой типа helm upgrade —install —namespace ….

цель заключается в том, чтобы мы с командой могли создавать свои фича ветки, и сразу смогли посмотреть свои работы через кластер, это также удобно при code review, перед тем как сделать merge request ты смотришь и код и приложение

M
05.10.2018
06:11:58
цель заключается в том, чтобы мы с командой могли создавать свои фича ветки, и сразу смогли посмотреть свои работы через кластер, это также удобно при code review, перед тем как сделать merge request ты смотришь и код и приложение
helm list сделай для начала. --debug --dry-run, у helm ведь. свое. пространство имён и в твоём случае может сделать лучше один helm chart м зависимости и при создании давать имя и таким образом будет работать. у тебя что-ли в каждой ветке свой chart?

Google
M
05.10.2018
06:40:55
цель заключается в том, чтобы мы с командой могли создавать свои фича ветки, и сразу смогли посмотреть свои работы через кластер, это также удобно при code review, перед тем как сделать merge request ты смотришь и код и приложение
helm list сделай для начала. --debug --dry-run, у helm ведь. свое. пространство имён и в твоём случае может сделать лучше один helm chart м зависимости и при создании давать имя и таким образом будет работать. у тебя что-ли в каждой ветке свой chart?

Andrey
05.10.2018
06:50:52
всем привет, кто копался с kubespray подскажите. Пытаюсь через scale.yml добавить ноду к etcd на этапе create etcd cert dir падает с ошибкой fatal: [node3]: FAILED! => {"changed": false, "gid": 0, "group": "root", "mode": "0755", "msg": "chown failed: failed to look up user kube", "owner": "root", "path": "/etc/ssl/etcd/ssl", "secontext": "unconfined_u:object_r:cert_t:s0", "size": 6, "state": "directory", "uid": 0} скорее всего это из-за того что он не создал предварительно юзера kube. Но ошибки я такой не встретил выше. Вопрос можно ли через scale добавлять ноду в etcd?

Banschikov
05.10.2018
07:22:49
А можно поподробнее? Мы запилили на дженкинсе + kubectl, в принципе все работает, но хочется плюшек и поэтому как раз смотрим на gitlab+helm.
Мне не устраивает его архитектура. Это по факту клиент-сервер. Сервер находится в k8s,рендерит темплейты и загоняет их в k8s. Переоодически ловлю всякие приколюхи непонятные при деплое.

А можно поподробнее? Мы запилили на дженкинсе + kubectl, в принципе все работает, но хочется плюшек и поэтому как раз смотрим на gitlab+helm.
Вообще все что нужно можно запилить через CI с kubectl. Просто Helm упрощает этот процесс и все

M
05.10.2018
07:24:57
мне в helm не устраивает только что при удалении он не удаляет pv и pvc

M
05.10.2018
07:26:22
Banschikov
05.10.2018
07:26:59
мне в helm не устраивает только что при удалении он не удаляет pv и pvc
У меня кстать сносил, поэтому новый storageClass с политикой Retain

Konstantin
05.10.2018
07:27:21
каких плюшек хочется?
В первую очередь хочется чтобы CI проверял что все поднялось и откатывал если нет. Можно, наверное, и простым kubectl такое сделать, но это дюже сложно выглядит.

Let Eat
05.10.2018
07:27:26
что ты имеешь ввиду под “не умереть “ ?
Описывал тут по тегу # helmговно

Страница 865 из 958