Lucky SB
04.06.2018
13:29:00
ingress контроллер у тебя какой ?
Anton
04.06.2018
13:30:49
nginx
Lucky SB
04.06.2018
13:33:03
Кубовский или от nginxinc ?
Anton
04.06.2018
13:33:20
От Kubernetes
Google
Vitaliy
04.06.2018
13:34:01
Так а что конкретно не работает? tls есть? Дамп конфига нгингса смотрел?
Lucky SB
04.06.2018
13:34:24
а сам ингресс покажи.
Anton
04.06.2018
13:34:30
tls есть
Lucky SB
04.06.2018
13:34:42
apiVersion: extensions/v1beta1
kind: Ingress
metadata:
name: foo-https-ingress
annotations:
kubernetes.io/ingress.class: "nginx"
nginx.ingress.kubernetes.io/from-to-www-redirect: "true"
Vitaliy
04.06.2018
13:35:03
Так и серт покрывает foo.com и www.foo.com?
Lucky SB
04.06.2018
13:35:38
!!! attention If at some point a new Ingress is created with a host equal to one of the options (like domain.com) the annotation will be omitted.
Anton
04.06.2018
13:36:17
{
"kind": "Ingress",
"apiVersion": "extensions/v1beta1",
"metadata": {
"name": "production",
"namespace": "default",
"selfLink": "/apis/extensions/v1beta1/namespaces/default/ingresses/production",
"uid": "e17e0abb-6276-11e8-ad62-02d723ae582a",
"resourceVersion": "1920188",
"generation": 4,
"creationTimestamp": "2018-05-28T12:58:56Z",
"annotations": {
"nginx.ingress.kubernetes.io/from-to-www-redirect": "true"
}
},
"spec": {
"tls": [
{
"hosts": [
"example.com"
],
"secretName": "green-ipa-certs"
},
{
"hosts": [
"qwe.example.com",
"asd.example.com"
],
"secretName": "wild-ipa-certs"
}
],
"rules": [
{
"host": "example.com",
"http": {
"paths": [
{
"path": "/",
"backend": {
"serviceName": "web-service",
"servicePort": 80
}
}
]
}
},
{
"host": "qwe.example.com",
"http": {
"paths": [
{
"path": "/",
"backend": {
"serviceName": "qwe-service",
"servicePort": 80
}
}
]
}
},
{
"host": "asd.example.com",
"http": {
"paths": [
{
"path": "/",
"backend": {
"serviceName": "asd-service",
"servicePort": 80
}
}
]
}
}
]
},
"status": {
"loadBalancer": {
"ingress": [
{
"hostname": "qweqwe.eu-central-1.elb.amazonaws.com"
}
]
}
}
}
Lucky SB
04.06.2018
13:38:06
попробовать в tls добавить www.example.com ?
Anton
04.06.2018
13:40:13
Lucky SB
04.06.2018
13:41:38
А если еще и в rules ?
Anton
04.06.2018
13:42:12
Еще одно правило 1 в 1 как для example.com?
Lucky SB
04.06.2018
13:42:17
ну и вот эту аннотацию добавить
kubernetes.io/ingress.class: "nginx"
для начала
Google
Stanislav
04.06.2018
14:26:49
/report
Sergey
04.06.2018
14:28:41
/report
Dmitry
04.06.2018
14:33:41
/report
Denis
04.06.2018
15:03:58
'2018-06-04 14:56:22.706 [INFO][7] startup.go 173: Early log level set to info
2018-06-04 14:56:22.706 [INFO][7] client.go 202: Loading config from environment
2018-06-04 14:56:22.707 [INFO][7] startup.go 83: Skipping datastore connection test
2018-06-04 14:56:22.743 [INFO][7] startup.go 273: Initialise BGP data
2018-06-04 14:56:22.743 [INFO][7] startup.go 362: Using IPv4 address from environment: IP=10.30.0.72
2018-06-04 14:56:22.743 [INFO][7] startup.go 392: IPv4 address 10.30.0.72 discovered on interface eth0
2018-06-04 14:56:22.743 [INFO][7] startup.go 338: Node IPv4 changed, will check for conflicts
Calico node failed to start
2018-06-04 14:56:22.911 [WARNING][7] startup.go 718: Calico node 'dev-kubernetes-worker-0' is already using the IPv4 address 10.30.0.72.
2018-06-04 14:56:22.911 [WARNING][7] startup.go 915: Terminating' -- возвращаюсь к вопросу о калико - кто знает как победить
Михаил
04.06.2018
15:06:06
Vitaliy
04.06.2018
15:15:48
Denis
04.06.2018
15:16:23
ого,прям кувалдой
Vitaliy
04.06.2018
15:17:32
я в тестовом кластере как-то почистил данные kubelet и docker на всех нодах - у меня тоже calico пинками стратовал. Но подробностей уже не помню
А вообще судя по логу calico считает, что IP используется другой нодой
Ну и https://github.com/projectcalico/calico/search?q=is+already+using+the+IPv4+address&type=Issues
zigmund
04.06.2018
16:24:37
Про лимит 100 per node не знал.
Есть план запуска бОльшего количества подов (мощное железо, маложрущие микросервисы в большом количестве).
Arslanbekov
04.06.2018
16:26:43
Andor
04.06.2018
16:26:45
запусти
Leo
04.06.2018
16:26:56
Михаил
04.06.2018
16:27:15
Каюсь)
Да всё нормально, канал просто в описании есть.
zigmund
04.06.2018
16:27:35
Больше похоже на "проверенное, гарантированное, бла бла"
Arslanbekov
04.06.2018
16:28:56
Да, я прочитал и про лимит, и тикет, где его увеличивали до этого числа.
Но так и не понял, почему не больше?
https://habr.com/company/flant/blog/353264/
Вопрос: Какие факторы влияют на максимально поддерживаемое количество подов на узел (сейчас это 100)?
Ответ: Масштабируемость Docker, настройки ядра, тестирование, пользовательские потребности.
Дополнение: Размер приложения, сложность приложения и насколько приложение требовательно к различным подсистемам. Я видел работающий production с 300-400 подов на узел, которые запускали на средних машинах (по 16-32 ядра) для небольших приложений.
Долгое время узким горлом была исполняемая среда контейнера (container runtime) — теперь же им обычно являются сеть и iptables, а ещё проблемным может быть хранилище.
zigmund
04.06.2018
16:29:40
Google
zigmund
04.06.2018
16:29:50
Похоже так и есть - рекомендация.
Arslanbekov
04.06.2018
16:30:11
да, конечно. Вы можете сами менять это значение
zigmund
04.06.2018
16:37:33
У нас сейчас порядка 80 подов на 3 железные ноды. Средняя утилизация проца 5% (E5-2660 v4) при низком load average.
Памяти кушается в среднем 12 гигов на ноду, и то большинство из этого - прометей, который из кластера можно выкинуть. Да и память нарастить - не проблема.
Сеть - 4 х 1гбит lacp.
Планируется нагрузить кластер на 50-60%, после чего увеличивать количество нод.
То есть, абсолютно грубо, запустить 250-300 подов per node.
Интересно, когда говна поимеем)
Evgeniy
04.06.2018
18:34:57
/report
/report
/report
Fike
04.06.2018
18:41:10
/savedYouAClick
zigmund
05.06.2018
02:45:23
Ещё пара интересных источников на тему over 100 pods per node:
https://github.com/kubernetes/kubernetes/issues/23349
https://github.com/kubernetes/community/blob/master/sig-scalability/goals.md
Если коротко - можно. Как обычно, зависит от.
Oleg
05.06.2018
04:38:12
Подскажите чем лучше разварачивать кубер для прода на голых виртуальных серверах?
И какой ingress лучше использовать в кластере для канареечного деплоя?
Stanislav
05.06.2018
04:39:49
Oleg
05.06.2018
04:56:58
Stanislav
05.06.2018
05:00:20
https://kubernetes.io/blog/2017/04/multi-stage-canary-deployments-with-kubernetes-in-the-cloud-onprem/
haproxy наше всё =)
Banschikov
05.06.2018
05:32:27
Всем привет! Есть у кого опыт интеграции gitlab с k8s? Правильно понимаю что нужно создать в k8s Service Accounts и service account API token и указать токен в поле "Token" и этого достаточно?
Oleg
05.06.2018
06:36:19
В предложеном примере нужно еще придумать как конфиг haproxy держать актуальным и релодить его
Google
Oleg
05.06.2018
06:38:06
Stanislav
05.06.2018
06:39:45
по хорошему этим api gateway должен заниматься
посмотри в сторону амбасадора
https://www.getambassador.io
Anton
05.06.2018
06:46:15
Хотелось бы управлять весами бэкендов на уровне настройки ingress rules.
сами ingress resources не поддерживают такую возможность, в них это не заложено. ты можешь на коленочке это делать, генеря второй деплоймент с теми же лейблами, но меньшего размера, разделяя доли трафика таким образом. там правда грубовато будет получаться.
есть еще skipper, который поддерживает веса через аннотации https://opensource.zalando.com/skipper/kubernetes/ingress-usage/
Oleg
05.06.2018
07:01:04
Они свои ingress дают
https://dzone.com/articles/microservices-traffic-management-using-istio-on-ku
MVP
05.06.2018
07:45:05
делал то что пишут тут - http://kubernetesbyexample.com/pods/
$ kubectl run sise --image=mhausenblas/simpleservice:0.5.0 --port=9876
$: kubectl get deployments
NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
sise 1 0 0 0 20h
есть а pod-ов не появилось
$: kubectl get pods
Unable to connect to the server: net/http: TLS handshake timeout
использую minikube @ MacOS
Andor
05.06.2018
07:46:19
У тебя в подключении проблема, а не "подов не появилось"
MVP
05.06.2018
07:46:44
подключении кого к кому ?
Andor
05.06.2018
07:48:10
Даже теряюсь, что на это ответить
MVP
05.06.2018
08:01:16
Anton
05.06.2018
08:01:31
Тут же одни девопсы
kyxap
05.06.2018
08:01:41
Спамеры офигели. Пришли на админский канал.
Oleg
05.06.2018
08:02:37
Увидишь стэйт твоего деплоймента
$ kubectl describe deployment sise
Даниил
05.06.2018
08:19:11
кто нибудь щупал kubevirt? годится ли он для внутренних задач по тестированию и кручению стейдж виртуалок?
Sergey
05.06.2018
08:22:14
Google
Sergey
05.06.2018
08:22:32
значит надо поставить и попробовать;)
Mikhail
05.06.2018
08:23:12
А потом здесь рассказать
Sergey
05.06.2018
08:23:30
оки
но чесна я орнул как они винду восьмую деплоили
Даниил
05.06.2018
08:25:47
осталось выпросить бабки на железяку для эксперементов )
Sergey
05.06.2018
08:26:07
Даниил
05.06.2018
08:26:40
я вчера целый день ковырялся с докером и понял, что ставить все и вся в один контейнер так себе затея))))