@kubernetes_ru

Страница 537 из 958
Сергей
27.04.2018
14:53:57
Alexander
27.04.2018
14:53:57
PodAntiAffinity?
Шо это?

Dmitry
27.04.2018
14:54:28
Вы документацию читали вообще к куберу?)

Google
Banschikov
27.04.2018
14:57:05
Шо это?
Загугли)

Georgy
27.04.2018
14:58:28
Кто нибудь собирается быть на Kubecon в Копенгагене на след. неделе? Можно скоперироваться - вместе интереснее )

Yaroslav
27.04.2018
15:31:59
Привет всем , можете подсказать в чем может быть проблема : Есть namespaces с сервисами , все они успешно стартанули . При вызове команды kubectl get ing —all-namespaces Хост и адрес есть . Копирую хост и пытаюсь через браузер постучаться на сервис - в ответ получаю 503 Service Temporarily Unavailable .

example test 192.168.99.100.xip.io 192.168.99.100 80 30m вот так выглядит результат команды kubectl get ing —all-namespaces

Если я правильно понял то это что то с ingress не то , но гугление особых результатов не дало

L
27.04.2018
15:36:51
есть bare metal кластер, на нодах у которого по несколько интерфейсов в разных vlan. Используется ds/ingress-nginx-controller, у которого в spec.template.spec.containers.hostNetwork: true и порты 80,443 . Таким образом nginx на нодах прослушивает на всех интерфейсах. Как заставить слушать только на указанном?

Vitaliy
27.04.2018
15:50:54
В helm 2.7.1 сломали "helm upgrade —install" для релизов, которые в FAILED. А в 2.9.0 предлагают теперь опцию —force добавить? https://github.com/kubernetes/helm/pull/3597

@rossmohax обновление helm с 2.7.0 до 2.9.0 поможет обновить NetworkPolicy, Deployment, Daemonset на новые apiVersion через helm upgrade?

Deep Sea
27.04.2018
18:35:58
нжинкс вроде только на ипшник вешаться умеет, а не на интерфейс

Anton
27.04.2018
18:36:02
В ds других вариантов и нет. Можно статик поды создать, например через манифесты кубелета на каждой машине отдельно отдельно указав на каждой интерфейс

нжинкс вроде только на ипшник вешаться умеет, а не на интерфейс
Точно, значит нужно на каждую ноду по отдельной конфигурации

Google
Banschikov
28.04.2018
06:17:19
Всем привет! Недавно задавал вопрос, кто где держит базы данных для сервисов k8s. Были люди которые держат БД вне k8s. Хотелось бы узнать, как организовывается взаимоднйствие БД с сервисами в k8s? Наткнулся в гугле на service mash, но помоему это слишком сложное решение для подобной задачи

Banschikov
28.04.2018
06:19:07
Да 33 варианта. И все верные выбирай, что больше нравится.
А можно пожалуйста хотябы один пример, а то немного не понимаю в какую сторону копать

через шину
Не совсем понял

Sergey
28.04.2018
06:20:09
Не совсем понял
приложение коннектится к шине типа ***MQ, а шина конфигами смотрит в какую нибудь PGSQL

Sergey
28.04.2018
06:21:18
Banschikov
28.04.2018
06:21:28
тип да:)
спасибо

Sergey
28.04.2018
06:21:41
https://activemq.apache.org/artemis/

Valentin
28.04.2018
06:26:58
чёт не уверен, что это хороший вариант

как-то по банковски слишком :)

Sergey
28.04.2018
06:28:14
как-то по банковски слишком :)
не совсем понял замечание

Valentin
28.04.2018
06:28:55
ну типа через jdbc уже не пообщаешься с базой напрмер

или я не совсем понимаю, как mq с базами работает

Sergey
28.04.2018
06:30:30
ну типа через jdbc уже не пообщаешься с базой напрмер
Просто с "по банковски" ты прямо в точку попал, оно так и есть, просто чувак просил поделиться идеями, я поделился)

Valentin
28.04.2018
06:37:30
на самом деле, не совсем понимаю, причем здесь кубик в этом вопросе

взаимодействие с БД вроде не зависит от этого. Хранение БД - да.

Banschikov
28.04.2018
06:40:49
на самом деле, не совсем понимаю, причем здесь кубик в этом вопросе
Ты наверное имеешь в виду про то что сама СУБД будет жить в кубе, а файлы БД лежать на подключаемых волумах вне кубернетиса?

Google
Sergey
28.04.2018
06:42:54
можешь и так, просто куча вариантов есть у каждого решения свои плюсы и минусы, какого то шаблона нет

Ребят, подскажите а есть что то еще опенсорсное типа k8s? Openshift платный

Sergey
28.04.2018
06:43:57
фри?

Anton
28.04.2018
06:43:58
а тебе что нужно? nomad есть от hashicorp, mesos

Banschikov
28.04.2018
06:44:18
фри?
Mesos open-source

Sergey
28.04.2018
06:45:56
Нужно что то что сможет с динамическими томами работать

Valentin
28.04.2018
06:46:04
сам инстанс СУБД мне кажется пофигу где

Valentin
28.04.2018
06:47:07
Sergey
28.04.2018
06:47:22
его заставили :)
ты опять вангуешь:)

Valentin
28.04.2018
06:47:48
сам в банке работал/работаю :)

Banschikov
28.04.2018
06:48:06
сам инстанс СУБД мне кажется пофигу где
Я тоже за это решение, но у нас нет возможности им воспользоватся. Поэтому решили вынести СУБД полность за пределы кластера.

Sergey
28.04.2018
06:48:14
сам в банке работал/работаю :)
прям всю соль видишь =_=?

Valentin
28.04.2018
06:48:38
всю боль :)

Vlad
28.04.2018
06:50:57
Недавно сбер писал про использование кафки как раз для буфера между приложением и БД: https://habr.com/company/sberbank/blog/353608/

Sergey
28.04.2018
06:52:12
ребят, я что с Mesosphere, можно на ней фри кластер поднять?

Sergey
28.04.2018
07:07:05
Openshift origin

Google
Vasilyev
28.04.2018
07:36:45
nginx auth ldap?

Silent
28.04.2018
07:46:43
День добрый, развернул магазин носков, подскажите как получить доступ к данному магазину?

Ilya
28.04.2018
07:47:33
nginx auth ldap?
Угу, в дашборд

zigmund
28.04.2018
07:48:31
Как реализовать то?
Дашборд с кластерайпи сервисом. Деплой nginx + ldap, nodeport сервисом. Апстрим смотрит на сервис дашборда.

Acidic
28.04.2018
07:59:42
Всем привет, такой вопрос: Кто нибудь имел дело с OpenStack и деплоем Kubernetes кластера в данную среду?

Vasilyev
28.04.2018
08:22:04
Дашборд с кластерайпи сервисом. Деплой nginx + ldap, nodeport сервисом. Апстрим смотрит на сервис дашборда.
Почему нодепорт? Почему не настроить хостпорт и ходить по-человечески по урле, а не по урле + порт?

zigmund
28.04.2018
08:23:46
Почему нодепорт? Почему не настроить хостпорт и ходить по-человечески по урле, а не по урле + порт?
по вкусу у нас перед кластером стоит внешний балансировщик, который автоматом определяет сервисы куба, а перед ним фронтенд, который терминирует ssl так что мы тоже ходим по красивому урлу с https

Vasilyev
28.04.2018
08:25:36
Вооот)) так это же и написать нужно было ) спасибо, что не по ленились и дополнили коммент

zigmund
28.04.2018
08:26:08
ну вопрос то про лдап дашборд))

Silent
28.04.2018
09:07:16
прошу подсказать, как зайти на мастер после деплоя, стандартные учетные записи больше не работают, локально выкидывает обратно на авторизацию по ссх не работают стандартные учетки

Vasilyev
28.04.2018
09:49:10
Не пускает куда? На ноду?

Sergey
28.04.2018
09:51:22
после деплоя чего, деплоя куда вы сами не знаете что у вас деплой делает?

Vasilyev
28.04.2018
09:58:30
Кароч, вы решили сэкономить на тех кто вам это деплоил?

Kanat
28.04.2018
10:16:44
Кто нибудь имел дело с kubespray?

Kanat
28.04.2018
10:22:01
!
Три железки 1 мастер 2 ноды, пытаюсь настроить kubectl со свой машины, прописал все ключи и сертификаты которые забрал с мастера, пытаюсь запустить kubectl get nodes получаю The connection to the server 192.168.2.71 was refused - did you specify the right host or port?

cluer@cluer-VirtualBox:~$ kubectl config view apiVersion: v1 clusters: - cluster: certificate-authority: /home/cluer/ca.pem server: https://192.168.2.71 name: default-cluster contexts: - context: cluster: default-cluster user: default-admin name: default-system current-context: default-system kind: Config preferences: {} users: - name: default-admin user: client-certificate: /home/cluer/admin-k8s-m1.me.pem client-key: /home/cluer/admin-k8s-m1.me-key.pem

Google
Valentin
28.04.2018
10:25:03
а порт?

Valentin
28.04.2018
10:25:55
server: https://192.168.2.71:6443

Kanat
28.04.2018
10:26:09
Ставил по доке kubespray ничего не менял в конфигах

server: https://192.168.2.71:6443
cluer@cluer-VirtualBox:~$ curl -k https://192.168.2.71:6443 { "kind": "Status", "apiVersion": "v1", "metadata": { }, "status": "Failure", "message": "Unauthorized", "reason": "Unauthorized", "code": 401

Banschikov
28.04.2018
10:26:27
hosts.ini покажи

Sergey
28.04.2018
10:26:42
6443 это случаем не API?

Valentin
28.04.2018
10:29:42
который ты выше кидал...

серверу порт укажи

The connection to the server 192.168.2.71 was refused - did you specify the right host or port?

Banschikov
28.04.2018
10:30:04
6443 это случаем не API?
К api не может законектится

Страница 537 из 958