@kubernetes_ru

Страница 211 из 958
Khramov
17.07.2017
15:13:15
nginx поддерживает lua скрипты, как вариант их юзать, но наверняка там есть более легкие решения

упс, Paul, не увидел ваше сообщение

Paul
17.07.2017
15:15:36
nginx поддерживает lua скрипты, как вариант их юзать, но наверняка там есть более легкие решения
обязательно учитывайте, что: - поддерживает не из коробки, это модуль. Или грузить, или вкомпиливать - следить за памятью, ибо скрипт долгоживущий и имеет отвратительную тенденцию вытекать - обязательно мерять скорость до и после внедрения скрипта. Я монинторинг на луа включил - у меня скорость на 10% села. Не всем такое подойдет

Sergey
17.07.2017
18:45:24
Вопрос немного не по теме, кто нибудь знает как в nginx вычислить hash содержимого хедера?
расскажите задачу чуть подробнее, вам явно хеш не сам по себе нужен.

Google
Denis
17.07.2017
18:48:59
расскажите задачу чуть подробнее, вам явно хеш не сам по себе нужен.
Да нужно было временное решение чтобы пускать какой либо процент трафика на другой бэк в зависимости от значения хедера

Sergey
17.07.2017
18:49:34
map $http_header_name $upstream {}

правда надо еще будет потом обмазаться split_clients

но можно на ванильном нджинксе :)

Denis
17.07.2017
18:50:41
А как процент регулировать?

Sergey
17.07.2017
18:50:54
через split_clients http://nginx.org/en/docs/http/ngx_http_split_clients_module.html

кстати, зачем я вам мапку посоветовал? она вам не нужна :(

Denis
17.07.2017
18:51:41
Спасибо

В общем именно a/b и нужно

Anton
18.07.2017
07:36:31
FYI: НЕ обновляйтесь на 1.7 в GKE там серьезные проблемы с LoadBalancers и Ingresses надо ждать 1.7.1

Anton
18.07.2017
07:41:49
гугл на странице статуса написали только про сервисы с type=LoadBalancers https://status.cloud.google.com/ Kubernetes 1.7.0 services of type=LoadBalancer, using a static IP not specified in the loadBalancerIP field, will cause the service controller on the master to crash, leading to disruptive repeated master restarts. As a workaround, services that use a static IP must specify it in the loadBalancerIP field. See issue https://github.com/kubernetes/kubernetes/issues/48848 for more details. This issue will be fixed in a future release.

Google
Anton
18.07.2017
07:42:20
но на самом деле даже если не используете loadbalancers то ingress после апгрейда просто не поднимется

https://github.com/kubernetes/ingress/issues/975

здесь идет перепись кто столкнулся

я ничего не смог сделать кроме как пересоздавать кластер на 1.6.7 т.к. даунгрейд сделать нельзя

Denis
18.07.2017
08:03:03
Would recommend avoiding upgrading production clusters to any new .0 release. Ну это вроде должно у каждого на стене висеть :)

Любая мажорная версия должна отстоятся

Anton
18.07.2017
08:03:57
факт

Denis
18.07.2017
08:04:49
Интересно как так гугл выливает версии на свое облако, не протестировав такой функционал как ингресс

А вижу, это собственный кластер

Anton
18.07.2017
08:07:20
не не, там проблемы как на GKE, так и у тех кто сам развернул k8s на GCE

Denis
18.07.2017
08:07:48
понял, спасибо

Zon
18.07.2017
08:22:53
Статус ингресса висит такой, но ингресс есть и работает. Как минимум на двух кластерах. Но ручаться, что будет работать я не буду

Роман
18.07.2017
08:28:15
А как конфигмап работает? Если, например, я в него пропишу конфиг nginx, запущу деплоймент, а потом изменю и применю - deploy/nginx применит новые изменения?

Andrey
18.07.2017
08:28:50
А ингрессы все лажают или только гуглевыц? У меня например nginx

Anton
18.07.2017
08:29:55
А ингрессы все лажают или только гуглевыц? У меня например nginx
только гугловые, с nginx не должно быть проблем но я тоже ручаться не буду

Zon
18.07.2017
08:32:21
только гугловые, с nginx не должно быть проблем но я тоже ручаться не буду
у меня гугловый, но у него не прописаны домены. он работает. те, у кого домены есть - не работают

Zon
18.07.2017
08:33:13
+ у меня дефолт нетворк

Роман
18.07.2017
08:33:27
надо будет под пересоздать
А если, например, там лежит конфиг приложения на php, который примаунчен в виде волюма - тоже под пересоздавать?

Google
Denis
18.07.2017
08:34:15
вольюмы вроде обновляются, недавно где то читал

Artem
18.07.2017
08:34:46
неприпомню чтобы конфигмап обновлялся

килять под приходится чтобы пересоздался с новым

может что-то поменялось конечно, у меня ща версия 1.6.2 в gke

Denis
18.07.2017
08:36:53
Kubernetes in Action `Using a ConfigMap and exposing it through a volume brings us the ability to update the configuration without having to restart the process. When you update a ConfigMap, the files in all the volumes referencing it are updated.`

It’s up to the process to detect that they have been changed and reload its configuration, but, Kubernetes will eventually also support sending a signal to the container, notifying it of the change

Книжка к слову классная

Artem
18.07.2017
08:38:56
а стоп

я не из-за этого рестартил)

у меня там конфиги прометеус замаунчены, сам прометеус надо рестартить, т.к. он на лету не подцепляет)

так что да, возможно конфигмап и обновляется

Роман
18.07.2017
08:50:44
Но nginx всё равно тоже надо рестартовать с новым конфигом. Кстати, это как-то в кубере реализовано - сигнал процессу на релоад?

Denis
18.07.2017
09:03:57
контроллер подписан на ивенты и скорей всего вызвает ngnix -s reload

Maksim
18.07.2017
09:08:14
Книжка к слову классная
мм Поделитесь названием?-)

Denis
18.07.2017
09:08:37
Kubernetes in Action

Maksim
18.07.2017
09:09:00
Но nginx всё равно тоже надо рестартовать с новым конфигом. Кстати, это как-то в кубере реализовано - сигнал процессу на релоад?
Там контроллер на го писанный который выполняет nginx restart при создании нового конфига

Denis
18.07.2017
09:09:01
Пока только MEAP, но уже очень годный

Maksim
18.07.2017
09:10:18
Пока только MEAP, но уже очень годный
По большому счёту интересуют best practics...)

Роман
18.07.2017
09:13:04
Там контроллер на го писанный который выполняет nginx restart при создании нового конфига
Это само из коробки работает или какая-то настройка нужна?

Maksim
18.07.2017
09:13:15
из коробки

Google
Maksim
18.07.2017
09:13:55
https://github.com/kubernetes/ingress/tree/master/controllers/nginx

Роман
18.07.2017
10:28:15
А что почитать, чтобы второй мастер поднять? Делаю кластер кубеадмом, тут вроде говорили, что есть какая-то информация по этому поводу.

Айбелив
18.07.2017
10:35:16
тоже норм, но много букаф

Admin
ERROR: S client not available

Denis
18.07.2017
10:35:38
Там очень мало букаф кстати, все по делу

Роман
18.07.2017
10:39:22
Вот это вот: https://github.com/kelseyhightower/kubernetes-the-hard-way ?

KrivdaTheTriewe
18.07.2017
10:39:33
Книжка к слову классная
c сафари читаешь?

KrivdaTheTriewe
18.07.2017
10:42:00
Нет, коллега купил
https://www.safaribooksonline.com/library/view/kubernetes-up-and/9781491935668/ есть еще такая

Maksim
18.07.2017
10:54:22
а зачем?

Не а за чем

Смерть мастера ни к чему толкмо не приводит в кластере

Роман
18.07.2017
10:58:42
Смерть мастера ни к чему толкмо не приводит в кластере
Вот, есть у тебя кластер с 50 серверами. Умер мастер. Нужно выливать новый код на пару проектов. Отсутствие мастера не повлияет?

Maksim
18.07.2017
11:00:11
деплои без мастера не обвновятся

Роман
18.07.2017
11:01:04
Или: нагрузка растёт, приняли решение масштабировать, увеличив кластер на два сервера. Тут тоже без мастера не очень.

Denis
18.07.2017
11:01:07
Смерть воркера тоже не будет никем замечена

Google
Denis
18.07.2017
11:01:18
и решедулинга подов не произойдет

Maksim
18.07.2017
11:03:02
у меня мастер ещё ни разу не падал..так что я с этим не сталкивался

Victor
18.07.2017
11:03:33
ingress.kubernetes.io/rewrite-target Что бы сделать rewrite конкретного url, для него нужно отдельный ingress-поднимать?

Роман
18.07.2017
11:03:44
Denis
18.07.2017
11:03:53
в распределенных системах не стоит вопрос упадет ли что либо :) единственный вопрос - когда :)

и надо всегда иметь в виду что все упадет

Maksim
18.07.2017
11:04:15
и надо всегда иметь в виду что все упадет
если упадёт всё, то тут ты ничего не зделаешь

а так HAproxy в руки (nginx ??)

А кто есть мастер они сами договрятся через etcd

Denis
18.07.2017
11:05:03
если упадёт всё, то тут ты ничего не зделаешь
смотря насколько все ) всегда можно что-то сделать, вопрос денег и ресурсов

Maksim
18.07.2017
11:05:06
(это относится к шедулеру и манагеру)

Мне нравится концепция запуска кубера в кубере)

тогда и вопросы отказоустойчивости решаются банальным подёмом кол-ва реплик

Denis
18.07.2017
11:06:36
Мне нравится концепция запуска кубера в кубере)
Чето я ковырял баги насчет self hosted и они есть. Типа контроллер не стартует в некоторых случаях или еще что то подобное

Но идея крутая

в первоначальном документе там и kubelet через куб предлагают запускать

Там эта мета разбита на несколько уровней

Страница 211 из 958