@kubernetes_ru

Страница 108 из 958
Sander
17.12.2016
15:21:24
ладно я пока это оставлю, лучше буду пошагово учить, чтоб голову не забивать а то сейчас запутаю себя

Zon
17.12.2016
15:21:55
http://kubernetes.io/docs/user-guide/ingress/

На потом :)

Sander
17.12.2016
15:23:00
спасибо

Google
Михаил
17.12.2016
19:17:49
http://kubernetes.io/docs/user-guide/ingress/
У меня это слово только с одним ассоциациируется)

Zon
17.12.2016
19:19:50
У меня это слово только с одним ассоциациируется)
старый добрый, я тоже поначалу улыбался :)

Andrey
17.12.2016
20:01:37
о как, оказывается в GKE можно уже до 1.5.1 не смотря на то что в списке его нет

только что обновил стажинг

Vadim
17.12.2016
20:16:40
▫️Какой у вас проект или где работаете? веб хостинг ▫️В чём вы специалист? сети/защита от DDoS/python ▫️Чем можете быть интересны или полезны сообществу? поддержу беседу, либо помогу по своему профилю работы ▫️Чем интересно сообщество вам? быть в курсе сферы ▫️Откуда вы? СПб ▫️Как узнали про группу? от друга

Andrey
17.12.2016
20:17:42
защита от ddos/python :)

Shine
17.12.2016
20:21:41
защита от ddos/python :)
Случаем не qrator ? )

Sander
17.12.2016
21:05:46
Всем привет, может кто подскажет что лучше использовать dokku или dies v2? и почему.

Andrey
18.12.2016
06:19:23
мне кажется лучше не вестить на модный хайп и попробовать сначала основу (понять как деплойменты работают, как поды с сервисами взаимодейтсвуют и все это)

error validating "statefulset.yaml": error validating data: API version "apps/v1beta1" isn't supported, only supports API versions ["autoscaling/v1" "certificates.k8s.io/v1alpha1" "componentconfig/v1alpha1" "extensions/v1beta1" "rbac.authorization.k8s.io/v1alpha1" "storage.k8s.io/v1beta1" "federation/v1beta1" "v1" "apps/v1alpha1" "authentication.k8s.io/v1beta1" "authorization.k8s.io/v1beta1" "batch/v1" "batch/v2alpha1" "policy/v1alpha1"]; :(

Fike
18.12.2016
17:52:08
ну и на кой черт он здесь?

Paul
18.12.2016
19:14:17
это спамер, удаляйте

Google
Paul
18.12.2016
19:14:46
Микола Борода в свое время довел devops_ru до белого каления

Тимур
18.12.2016
19:40:54
Вдруг это правильный Алик

А не. Правильный - это Курдюков :)

Igor
18.12.2016
20:03:24
Микола Борода в свое время довел devops_ru до белого каления
Вот-вот, @devops_ru жесть, я присоединился и через час вышел. Там нездоровая атмосфера, будто под метом

Andrey
19.12.2016
07:25:02
а почему нет pvc templates в деплойментах? в каких-то сраных стейтфулсетах есть, а в основной киллер-фиче кубернетеса нет? или я их просто не нашел?

Victor
19.12.2016
08:21:31
Кстати а как вы чекаете успешность обновления deployments в CI? С репликами все просто, они на месте обновляются и сразу выдают результат все хорошо или не очень. А deployments запускает обновление и все. bash'ем чекать статус обновления в цикле до полкчения статуса или есть другие варианты?

Alexandr
19.12.2016
13:40:08
Paul
19.12.2016
14:25:34
коллеги, подскажите пжлст, в скринах dashboard присутствуют красивые графики нагрузки на узлы. Я правильно понимаю, что эти графики можно получить только через хипстер?

Dmitry
19.12.2016
14:46:36
нет, не только через хипстер.. это, как я понял, дефолтный путь =)

Paul
19.12.2016
14:47:55
можно ссылку на доку, где описывается, как настроить графики?

именно внутри дэша

Dmitry
19.12.2016
15:01:09
https://github.com/kubernetes/kubernetes/tree/master/cluster/addons/cluster-monitoring

вот тут, если я тебя правильно понял

Paul
19.12.2016
15:14:55
если я правильно понял - это совсем не то меня интересуют вот эти графики в дэшборде - https://raw.githubusercontent.com/kubernetes/dashboard/master/docs/dashboard-ui.png вопрос - откуда дэш их получает? Возможно ли настроить источник?

Paul
19.12.2016
15:33:25
то есть все-таки хипстер и инфлакс. Спасибо

Dmitry
19.12.2016
15:44:46
да, хипстер.. там по ссылке, что я дал, есть немного доки

Andrey
19.12.2016
20:56:30
а есть рабочий пример нгинковского ingress.kubernetes.io/rewrite-target ?

я че-то ваще не понял как он работает

а, забейте, посмотрел конфиг - лажа оказалась

Google
Andrey
19.12.2016
20:58:34
все равно отдельный nginx придется как ни крути

Paul
19.12.2016
21:04:57
я экспериментально завел траэфик, вроде ничего так работает

по крайней мере нормально с именами у меня только он работает

Andrey
19.12.2016
21:08:25
мне надо запросы на /head/* редиректить на /xxx/yyy/* сервиса B, учитывая что в ингрессе /* обслуживает сервис A насколько я понял ingress.kubernetes.io/rewrite-target умеет работать только с одним сервисом на ингресс или я ошибаюсь?

в общем суть задачи: в 5-м эластике запретили плагины работающие с вебом, а нужен - поэтому ставлю так :) http://pastebin.com/NQah9Qhu

rules: - host: elastic.staging.***.com http: paths: - backend: serviceName: elasticsearch servicePort: 9200 path: / - backend: serviceName: elasticsearch-head servicePort: 80 path: /head

Denis
20.12.2016
01:57:11
http://blog.kubernetes.io/2016/12/container-runtime-interface-cri-in-kubernetes.html

Andrey
20.12.2016
05:29:24
везет вам, я нихрена не понял

а podAntiAffinity уже вышла в бету или еще нет?

лимиты прометеуса: 400m лимиты монги + редиса + остальное: 500m + 50m + 10m вопрос: почему прометеус никуда не может влезть? NAME CPU(cores) CPU% MEMORY(bytes) MEMORY% gke-staging-default-pool-516b6ce3-pwh9 64m 6% 2100Mi 56% gke-staging-default-pool-516b6ce3-yivx 65m 6% 479Mi 12% gke-staging-default-pool-516b6ce3-g101 60m 6% 1913Mi 51% NAME READY STATUS RESTARTS AGE IP NODE elasticsearch-head-296748745-c4fh1 1/1 Running 1 16h 10.84.2.65 gke-staging-default-pool-516b6ce3-yivx mongo1-921847446-m6z6j 1/1 Running 1 3h 10.84.2.63 gke-staging-default-pool-516b6ce3-yivx mongo2-1423001240-u56bt 1/1 Running 0 3h 10.84.1.26 gke-staging-default-pool-516b6ce3-pwh9 mongo3-1924155034-nbhyd 1/1 Running 1 3h 10.84.0.24 gke-staging-default-pool-516b6ce3-g101 prometheus-3139428739-cs0ak 0/1 Pending 0 2m <none> redis-3026001500-pryka 1/1 Running 1 2h 10.84.2.64 gke-staging-default-pool-516b6ce3-yivx NAME CPU(cores) MEMORY(bytes) mongo1-921847446-m6z6j 6m 39Mi mongo3-1924155034-nbhyd 7m 1658Mi elasticsearch-head-296748745-c4fh1 0m 1Mi redis-3026001500-pryka 2m 2Mi mongo2-1423001240-u56bt 11m 1876Mi 42s 26s 2 {default-scheduler } Warning FailedScheduling pod (prometheus-3139428739-cs0ak) failed to fit in any node fit failure on node (gke-staging-default-pool-516b6ce3-yivx): Insufficient cpu fit failure on node (gke-staging-default-pool-516b6ce3-g101): Insufficient cpu fit failure on node (gke-staging-default-pool-516b6ce3-pwh9): Insufficient cpu

Fike
20.12.2016
13:25:25
у тебя дэшборд и прочее говно наверняка цпу жрет

Fike
20.12.2016
13:26:08
я сто лет этим всем не пользовался, там можно посмотреть, что висит на ноде и сумму запросов по железу?

потому что он явно говорит, что ему цпухи не хватает

Andrey
20.12.2016
13:26:48
из kubectl - нет, можно запустить прометеус+графана которые собственно и пытаюст запустить :)

Fike
20.12.2016
13:27:16
а дэшборд?

Andrey
20.12.2016
13:29:22
ладно, видимо ось

Fike
20.12.2016
13:35:06
в общем, как-то эту инфу вытянуть можно http://kubernetes.io/kubernetes/third_party/swagger-ui/#!/api%2Fv1/listLimitRange я думаю, у тебя прямо в кластере еще что-то валяется, что ты нам не показываешь (другие неймспейсы?), и поэтому равномерное распределение вещей по кластеру добило лимиты на каждой ноде до 600+

когда я со всем этим возился, по умолчанию в system был heapster + dashboard + еще что-то, поэтому это реально

Ihor
20.12.2016
16:31:38
Кто там спрашивал? https://twitter.com/googlecloud/status/811232191531323392

Google
Paul
20.12.2016
16:32:46
уже 1.5.1 вышел

Alex
20.12.2016
16:57:18
Какой у вас workflow на CI для апдейта deployment (измнения текущего имаджа)? В соответствующем deployment файле заменить image tag и сделать kubectl apply -f?

Igor
20.12.2016
17:50:56
Какой у вас workflow на CI для апдейта deployment (измнения текущего имаджа)? В соответствующем deployment файле заменить image tag и сделать kubectl apply -f?
Хороший вопрос, как нуб в #k8s поддержу развернутый ответ от людей использующих kubernetes в prod'е

Arsen
20.12.2016
17:53:43
там вроде не надо лезть в конфиг даже

kubectl set image deployment/nginx-deployment nginx=nginx:1.9.1

Igor
20.12.2016
17:56:42
kubectl set image deployment/nginx-deployment nginx=nginx:1.9.1
Те таг вручную надо ставить? А как реализовать CD, только средствами #k8s это делается как-нибудь. Есть ли проверенные варианты «по-феншую»?

Fike
20.12.2016
18:12:58
это автоматизируется ровно одной строчкой

Admin
ERROR: S client not available

Andrey
20.12.2016
18:40:47
ну как сказать... если набрать "gcloud container clusters upgrade staging —master" то пишет: Master of cluster [staging] will be upgraded from version [1.4.7] to version [latest]. и в результате версия остается 1.4.7 если явно указать 1.5.1 то на него будет обновляться... но че-то я очкую обновляться не на релиз

Paul
20.12.2016
18:43:55
1.5.1 - релиз вообще-то

она даже в репо уже такая

Andrey
20.12.2016
18:45:43
в GKE/GCE в течении недели-двух релиз появляется обычно после официального... надо ж все адаптировать под гугль, настроить чтоб корпоративному сектору ничего не сломать и тп: они кубернетес предоставляют как сервис (например, etcd вообще находится за пределами зоны контроля и тп)

а так уже на прошлой недели если задать явно 1.5.1 (в интерфейсе не отображается) можно было обновиться

хотел с стейтфулсетами поиграться, только у них оказалось "extensions/v1beta1" отключено... так что решил подождать когда в консоли появися флажок "обнови меня" :)

Zon
20.12.2016
21:13:57
BTW замержили мой монго пуллрек https://github.com/kubernetes/charts/pull/223

Paul
20.12.2016
21:17:05
BTW замержили мой монго пуллрек https://github.com/kubernetes/charts/pull/223
а это какой образ? как называется? Можно ли там нормально mongod failover делать?

Zon
20.12.2016
21:18:23
Paul
20.12.2016
23:21:16
доки нет пока?

Zon
21.12.2016
08:34:28
Нет, на это ещё не делал, но есть родная монго дока на шардед кластер

Andrey
21.12.2016
08:35:35
ты в альфе чтоли?

Google
Zon
21.12.2016
08:44:36
В альфе на 1.4.х

Andrey
21.12.2016
08:46:16
прям в продакшне? oO

народ, сегодня у меня такие вопросы: 1) кто-нибудь деплоит свои сервисы из helm? 2) кто-нибудь логгирует через fluentd? 3) кто-нибудь уже поставил 1.5.1 в гугле?

4) кто-нибудь понял что я сказал? :)

Zon
21.12.2016
08:50:19
прям в продакшне? oO
Неа, только в тесте

Ihor
21.12.2016
10:00:54
1.5.0 нет как такового

Сразу после выхода 1.5.0 нашли критическую уязвимость и на следующий день выпустили 1.5.1

То есть по факту, нужно иметь ввиду 1.5.1 когда говорим о 1.5

Andrey
21.12.2016
10:05:26
а кто про 1.5.0 говорит?

Ihor
21.12.2016
10:25:58
уже 1.5.1 вышел
Я к этой фразе

Andrey
21.12.2016
10:27:50
ага ок, просто учточню: это была не уязвиомсть, а другое поведение креденшиалсов по дефолту... потом решили вернуть старое поведение потому что юзеры не готовы вручную менять :)

Alex
21.12.2016
12:26:41
Стоит ли helm использовать? Серьезно помогает?

Andrey
21.12.2016
12:46:30
вообще тема прикольная, но мне не подошла: в 90% случаев надо что-то заменить в деплойменте... а это брать текущий чарт, распаковывать его себе, заменять нужные вещи и деплоить в кластер

и все это с кучей многословных файлов... мне легче написать нужный манифест под свое окружение

имхо kubectl сильно не хватает шаблонизатора

типа "kubectl create -f deployment.yaml -v variables.yaml" :)

но на самом деле может я фишку не пропер и реально удобно... хз, вот и хочу отзывы услышать

Alex
21.12.2016
12:50:28
вот иммутабильная комманда для инсталяции апргрейда параметров helm upgrade super-mongo stable/mongodb --install -f my-values.yml --version 1.1.1

если не сервиса то создает его, и если что-то изменилось в параметрах (my-values) применит измненения

Страница 108 из 958