@kubernetes_ru

Страница 306 из 958
Роман
26.10.2017
12:28:55
не получается?
Там получается: hostIP: внешний_ip_адрес Как он выбирает hostIP?

Anton
26.10.2017
12:29:27
где там?

Роман
26.10.2017
12:29:39
get po -o yaml

Или это не имеет значения?

Google
Anton
26.10.2017
12:31:08
я думаю это адрес с интерфейса с дефолт гейтвеем и к ноде только отношение имеет

тоже вижу ip у nginx-ingress, который с hostnetwork задеплоен, но на самой ноде порты на всех открыты

может просто для удобства, чтобы сразу знать куда обратится

Роман
26.10.2017
12:33:30
Надо попробовать.

Anton
26.10.2017
12:35:58
hostIP: podIP: в выхлопе похоже всегда есть

https://kubernetes.io/docs/api-reference/v1.8/#podstatus-v1-core

hostIP string IP address of the host to which the pod is assigned. Empty if not yet scheduled.

podIP string IP address allocated to the pod. Routable at least within the cluster. Empty if not yet allocated. ну ты понял думаю

и я тоже заодно )

Alexander
26.10.2017
12:41:33
Подскажите, пожалуйста: допустим есть какое-то количество приложений средней сложности. Часть этих приложений живет в общем кластере, какие-то приложения имеют свой отдельный кластер, но есть приложения которые вынуждены жить на одном сервере (ну или двух) или даже делить один сервер с другим приложением. Хотелось бы всем этим управлять единым инструментом. Насколько я понимаю, kubernetes хорошо подходит для первых двух случаев, но в последнем случае придется мастер ноду и воркеры держать на одной ноде. Собственно, вопрос: насколько это хуже, чем ручной запуск контейнеров на сервере, которые просто будут перезапускаться в случае падения? Допустимо ли это в продакшене?

Anton
26.10.2017
12:43:23
меньше 3х нод кажется нет смысла брать

Maksim
26.10.2017
12:43:31
Я вообще не понял что там)

Anton
26.10.2017
12:43:55
другое дело что мастеру можно совсем хилую машину выдать и не шедулить туда ничего

Google
Anton
26.10.2017
12:44:41
но если одна машина для запуска всего - какой толк, ведь переезжать некуда будет при падении

возможно стоить убедить коллег что нужно больше машин, это дороже, но принесет возможности

Alexander
26.10.2017
12:46:04
это ничего, если вручную все делать, то все тем более никуда переезжать не будет. мне интересно, кубрнетес имеет ли какой-то ощутимй оверхед перед ручной настройкой в случае использования одной ноды.

Anton
26.10.2017
12:46:31
с etcd например тем же, если инстанса 2 и насовсем пропал один инстанс - etcd рекомендуют при этом заснапшотить и пересоздать, в общем гемор

да, оверхеда много. начиная с того что нужно вникнуть в сами сущности, заканчивая тем что приходится еще суппортить к8с и его компоненты. на одной машине ему делать нечего

Alexander
26.10.2017
12:50:15
немного контекста: есть продукт, который иногда кастомизируется под заказчиков. на нашем кластере может быть много нод и много приложений. кубернетес сюда идеально подходит. некоторые закзчики могут предоставить отдельный кластер и мы вынуждены использовать его. тут тоже все нормально. но некоторые заказчики бедные и предоставляют всего один сервер. но на него тоже нужно как-то деплоить приложение. хотелось бы всем управлять единым инструментом.

т.е. саппортить все равно придется, но не хотелось бы саппортить две разных способа деплоить приложения.

Anton
26.10.2017
12:52:32
если только с этой стороны заходить смысл есть

Alexander
26.10.2017
12:55:03
сейчас такие кастомеры деплоятся ansible где вручную создаются контейнеры, которые рестартуют при падении. живет нормально. вот и думаю, если там будет жить еще и kubernetes, то не начнутся ли проблемы с производительностью где-то или еще какие-нибудь специфичные проблемы.

Anton
26.10.2017
12:55:23
обязательно =)))

Alexander
26.10.2017
12:57:20
кажется, единственный способ проверить - попробовать :) ладно, спасибо. а, случайно, есть кто-нибудь у кого кубернетес на одной ноде крутится?

Andrey
26.10.2017
12:57:33
если позволяет, сделайте ваш кластер, куда добавляйте сервера клиентов и вешайте нужное приложение только на эту ноду (taint, tolerations) и пусть живет на нодах, а у правлять всем из 1 места

есть несколько инсталяций с кубами однонодовыми

Alexander
26.10.2017
13:00:17
хм, интересно. можно попробовать. а как эти инсталяции однонодовые живут? нормально?

Andrey
26.10.2017
13:06:28
ну... как сказать, живут то да. но не считаю их особо production ready :)

это скорее такие дев кластера

Роман
26.10.2017
13:19:25
Правильно я понимаю: чтобы ингресс контроллер добавил в конфиг сайт - нужен Ingress, чтобы kubectl добавил Ingress, должен быть Service? А могу я создать сервис без пода?

Paul
26.10.2017
13:21:34
если не ведет никуда – будет просто фига в виде connection reset

Роман
26.10.2017
13:23:36
Просто у меня в темплейте ингресс-контроллера захардкожено, что ему отдавать. Главное, чтобы он в конфиг такой сайт добавил с сертификатами kube-lego и прочими штуками.

Google
Alexey
26.10.2017
14:17:16
кто может объяснить - зачем нужна terraform ? Смотрел возможности апгрейда кубернетеса1,6 до 1,8 - документация привела к terraform + matchbox.. и тут я не догоняю зачем эти лишние сущности?

Kirill
26.10.2017
14:18:06
терраформ для деплоя инфраструктуры на всякие AWS и openstack.

а внутри инстансов уже кубик

Anton
26.10.2017
14:19:21
Hashicorp просто тоже не хочет упускать возможности

Alexey
26.10.2017
14:19:23
есть же куча других, типа kops... зачем они все ?

и вообще я рассматрива л bare-metal и teraform в документации уже прикручивается к существующему кубернетесу

Kirill
26.10.2017
14:21:44
скинь ссылку на ЭТО ?

Alexey
26.10.2017
14:22:29
https://coreos.com/blog/matchbox-with-terraform

Installing on Kubernetes

вот я вначале подумал, что он поможет мне проапгрейдить кластер, а он вообще хз зачем нужен

как кидать репорты на спамеров?)

Jan
26.10.2017
14:41:43
@DenisIzmaylov спам выше

Andrey
26.10.2017
14:44:26
а вот еще вопрос: как в GKE узнать адреса etcd?

Kirill
26.10.2017
15:03:50
узбекский спам! что-то новенькое :)

Paul
26.10.2017
15:25:20
мне кажется, Enrico тоже стоит попросить

Fike
26.10.2017
15:25:24
вот этого тоже можно

Роман
27.10.2017
10:49:21
Коллеги, а можно в Ingress как-то вставить конструкцию, чтобы она превратилась в: location ~* \.(jpg|jpeg|gif|png|svg|ico|mpeg|mp3|ogg|js|css|ttf|otf|eot|woff|woff2)$ ?

Paul
27.10.2017
10:55:00
Подозреваю что такое только через конфирмант

Config map, простите

Anton
27.10.2017
11:40:41
в http.paths.path нельзя рэгэкспы задавать? =)

Google
Anton
27.10.2017
11:47:04
Path is an extended POSIX regex as defined by IEEE Std 1003.1, (i.e this follows the egrep/unix syntax, not the perl syntax) matched against the path of an incoming request. Currently it can contain characters disallowed from the conventional "path" part of a URL as defined by RFC 3986. Paths must begin with a '/'. If unspecified, the path defaults to a catch all sending traffic to the backend.

видимо придется превратить в /.+\.(jpg|jpeg|gif|png|svg|ico|mpeg|mp3|ogg|js|css|ttf|otf|eot|woff|woff2)$

Роман
27.10.2017
11:56:36
Это ведь не регекс ?

Ладно. Я в бэкенде тогда это сделаю.

Anton
27.10.2017
11:59:05
~* это часть описания location в nginx, я не проверял, но думаю контроллер сгенерит location с этим самым ~*

ну или как минимум с ~

Maksim
27.10.2017
12:06:11
По хорошему спецефические задачи nginx выполнять не должен

Проксирование на бекенд nginx-controller должно быть едино образным

bebebe
27.10.2017
12:12:29
https://www.nginx.com/blog/introduction-to-microservices/

Andrey
27.10.2017
15:43:32
Inject Information into Pods Using a PodPreset - Kubernetes https://kubernetes.io/docs/tasks/inject-data-application/podpreset/

О а я и не знал что так можно

Vitaliy
27.10.2017
15:48:31
Угу

только нужно добавить в мастера поддержку этой штуки

Я уже активно юзаю, пока для инжекта енв переменных

Andrey
27.10.2017
15:49:22
Альфа штоле

Vitaliy
27.10.2017
15:49:29
йес

Dmitry
27.10.2017
16:36:17
пушка!

Magistr
27.10.2017
16:43:28
https://istio.io/ кстати полезная штука

Google
Paul
27.10.2017
16:44:04
https://istio.io/ кстати полезная штука
его тут вспоминают раз в месяц по-моему

Magistr
27.10.2017
16:44:27
хмм ну ок

Andrey
27.10.2017
16:56:56
А я жду когда кто то грабли соберет :)

Mikhail
28.10.2017
12:51:41
▫️Какой у вас проект или где работаете? Nokia/FWD ▫️В чём вы специалист? dcos, dcos-commons ▫️Чем можете быть интересны или полезны сообществу? Могу рассказать про k8s  on mesos ▫️Чем интересно сообщество вам? Ищу докладчиков для mesos user group или для хакатона ▫️Откуда вы? Дубна ▫️Как узнали про группу? Из информации по митапу кубернетес

Привет, есть ли планы по проведению очередного митапа по k8s? Я использую мезос и занимался разработкой фреймворка для запуска MongoDB с использованием dcos-commons – sdk для разработки фреймворков для мезос. Недавно на dcos-commons сделали инсталляцию k8s на мезос, могу рассказать как это устроено.

Страница 306 из 958