@kubernetes_ru

Страница 931 из 958
Eugene
21.10.2018
09:19:22
почему?
при миграции на новую версию psql операционной работы становится чуть-чуть больше чем хотелось бы. если постгрес просто на голой виртуалке – жить сильно легче

Alexey
21.10.2018
09:20:06
ясно, я думал может проблема какая с тем, что он докере и как запросы к нему проходят

Lucky SB
21.10.2018
09:21:22
Ссылку! На нормального оператора

Google
Eugene
21.10.2018
09:22:05
По идее, при наличии нормального оператора эти проблемы можно нивелировать
у меня пока не развито доверие к операторам когда речь идет о БД

Andrey
21.10.2018
09:24:39
Anton
21.10.2018
09:26:36
Ещё подскажите. Как указать nodeport для patroni в kubernetes?

Eugene
21.10.2018
09:28:31
Anton
21.10.2018
09:30:10
после установки? kubectl get services
А можно поподробнее? То есть это делается руками после установки patroni? При установке nodeport не получится сделать?

Yaros
21.10.2018
09:30:37
Dmytro урлы для этих юзеров разные и ведут к сервисам, которые в лучшем случае отличаются только конфигурацией, а могут отличаться и версиями. Но В1 и В2 это кроме версий и конфигураций один и тот же сервис, точнее сказать, одна и та же кодовая база.

Grisha
21.10.2018
09:39:24
Бояре, день добрый! Подскажите, можно ли без хелма передать параметры в kubectl install -f ?

Deep Sea
21.10.2018
09:40:01
envsubst

ksonnet

Grisha
21.10.2018
09:41:22
Это ты перечесляешь аналоги хелма?

Deep Sea
21.10.2018
09:41:28
нет

они ни разу не аналоги

Google
Lucky SB
21.10.2018
09:42:39
Чем манифест можно приготовить из темплейта

Исчо ансибль )))

Grisha
21.10.2018
09:43:55
готовить его не проблема) просто деплой в Gitlab CI у меня выходит вот такой

- helm upgrade --install git vss/depl --set replicaCount=2 --set image.tag="$release"

и если бы можно было бы указать эти же параметры не юзая хелм, было бы замечательно

Deep Sea
21.10.2018
09:45:08
если бы так можно было бы делать из коробки, то хелма бы не было

Grisha
21.10.2018
09:45:29
логично)

Andrey
21.10.2018
09:49:09
- helm upgrade --install git vss/depl --set replicaCount=2 --set image.tag="$release"
kubectl set image deployment.v1.apps/nginx- deployment nginx=nginx:1.9.1

Grisha
21.10.2018
09:49:48
Lucky SB
21.10.2018
09:52:02
А еще патч есть

Vadim
21.10.2018
09:53:03
странный вопрос

конечно там жуткие багищи, засунули сразу на прод

Andrey
21.10.2018
09:55:10
странный вопрос
С чего бы? С кучей всего периодически огребаются проблемы, включая докер, но куда деваться с подводной лодки.

конечно там жуткие багищи, засунули сразу на прод
Вопрос-то в том, как оно себя в плане стабильности по сравнению с докером ведет

Vadim
21.10.2018
09:59:00
Вопрос-то в том, как оно себя в плане стабильности по сравнению с докером ведет
работает на некоторых кластерах с июня прошлого года, особо не разваливается

bebebe
21.10.2018
09:59:10
пора уже коллеги на гитхабе где-нибудь FAQ для канала ?

Vadim
21.10.2018
09:59:36
советуется кастомерам с апреля, особых проблемя не видел с крио

Google
Vadim
21.10.2018
10:00:05
Andrey
21.10.2018
10:00:13
Vadim
21.10.2018
10:00:13
(это собеседование? :))

Grisha
21.10.2018
10:01:16
(это собеседование? :))
ты его провалил, не экранировав ->)

Vadim
21.10.2018
10:01:41
одно время нельзя было паралельно пускать с докером, потому что один сервис удалял имаджи в обоих рантаймах

а вообще - https://bugzilla.redhat.com/buglist.cgi?quicksearch=crio

Данила
21.10.2018
10:10:51
Здравствуйте. Подскажите пожауйста, можно ли при развёртывании какого-либо приложения не создавать новы сервис, а ограничиться созданием Deployment ?

Lucky SB
21.10.2018
10:12:56
Можно

Данила
21.10.2018
10:19:03
Можно ли сделать так, чтобы определённые деплойменты были объединены в общую сеть, и из любого другого контейнера нельзя было их пинговать по сети?

Alexey
21.10.2018
10:19:46
И из какой сети тоже нужно смотреть. Из внешнего мира к подам не дойти без сервисов, а внутренней сети по-умолчанию весь трафик разрешен.

Данила
21.10.2018
10:27:11
Из внутренней. Мне нужно поды изолировать друг от друга. Может, стоит их раскидать по разным неймспейсам

Alexey
21.10.2018
10:39:03
Данила
21.10.2018
10:39:58
Тогда буду использовать network policy. Там же секцию ports указывать обязательно?

А можно каким-то образом изменить уже установленные лимиты ресурсов для контейнеров?

Или же нужно удалить контейнеры, а затем заново их создать через deployment?

Alexey
21.10.2018
10:57:59
поменять deployment, он сам заменит.

Google
Andor
21.10.2018
10:58:26
В деплойменте есть темплейт для подов, меняешь там и поды пересоздадутся

Данила
21.10.2018
11:03:20
поменять deployment, он сам заменит.
Деплоймент обязательно менять через kubectl, или можно в любом текстовом редакторе заменить, а изменения он сам подхватит?

Alexey
21.10.2018
11:03:33
O_O

kubectl apply -f или kubectl edit... но edit плохо.

Evgeniy
21.10.2018
11:04:20
Alexey
21.10.2018
11:04:45
потому что в git не видно правок.

Юра
21.10.2018
11:09:17
Всем привет. Такой вопрос - а где есть нормальная документация по всем обьектам k8s? Понадобилось сейчас описать TLS secret в виде ямлика. Пошёл сначала сюда - https://kubernetes.io/docs/concepts/configuration/secret/ , там не нашёл даже упоминания о TLS. Потом добрался до описания API - https://v1-9.docs.kubernetes.io/docs/reference/generated/kubernetes-api/v1.9/#secret-v1-core, там тоже не густо. В итоге создал секрет через kubectl и посмотрел его вывод в yml формате... Куда ходить за нормальным описанием всех сущностей?

Юра
21.10.2018
11:22:02
https://github.com/kubernetes/contrib/tree/master/ingress/controllers/nginx/examples/tls
Опять-же. Тут предполагается создание секрета через kubectl create secret А я хочу сразу описать его в ямле и накатить через kubectl apply

Alexey
21.10.2018
11:22:26
https://github.com/kubernetes/contrib/blob/master/ingress/controllers/nginx/examples/tls/dhparam.sh

Anton
21.10.2018
12:14:21
Помогите пожалуйста по кластеру Stolon https://toster.ru/q/572751

Anton
21.10.2018
12:14:50
Помогите пожалуйста по кластеру Stolon https://toster.ru/q/572751
А ничего что nodePort не дает порты ниже 30000?

Anton
21.10.2018
12:21:47
А ничего что nodePort не дает порты ниже 30000?
То есть нужно либо указать порт 30001 либо использовать loadbancer или ингресс?

Anton
21.10.2018
12:23:46
Anton
21.10.2018
12:35:19
Подскажите в чем фишка MetalLB ?

Anton
21.10.2018
12:37:09
Подскажите в чем фишка MetalLB ?
loadBalancer для нищебродов =) можешь внешние ip вешать, bgp

Google
Mikhail
21.10.2018
12:57:02
Anton
21.10.2018
12:57:31
это для лентяев

Данила
21.10.2018
12:59:54
Кстати, ceph fs же игнорит настройки безопасности, которые я указываю в деплойменте?

bebebe
21.10.2018
13:00:12
Данила
21.10.2018
13:01:45
https://github.com/kubernetes-incubator/external-storage/issues/515

Aleksey
21.10.2018
13:27:27
https://github.com/kubernetes-incubator/external-storage/issues/515
Зачем делать это кодом? Не кликабельно же

Данила
21.10.2018
13:28:03
Зачем делать это кодом? Не кликабельно же
Потому что если отправить ссылкой, сообщение исчезает

Это не я придумал

Aleksey
21.10.2018
13:28:32
Наркоманы

Климов
21.10.2018
13:39:54
Парни а кто какие шаред стораджи использует под k8s кластера?

Sergey
21.10.2018
13:43:05
#платиновые_треды_k8s
новые кандидаты то в платиновые треды есть?)

Mikhail
21.10.2018
13:43:53
Какой сетевой плагин лучше уже обсудили?

Vadim
21.10.2018
13:44:16
пока нет, но скоро уже пора добавлять вопросы вида "кто-нибудь пробовал crio/containerd" и "у кого истио в проде 5+ лет"

а если серьезно уже пора давно сделать FAQ с ответом "читайте документацию"

Mikhail
21.10.2018
13:46:38
Парни а кто какие шаред стораджи использует под k8s кластера?
Смотрят в доку, потом думают что взять и под что у них есть ресурсы. На железе обычно цеф в трендах.

Страница 931 из 958