
Дмитрий
23.02.2017
11:15:04


Artem
23.02.2017
11:38:56
он вроде сам генерит все если серты подложить
я с телефона могу ошибиться

Google

Artem
23.02.2017
11:39:25
но там создаётся service account
kubectl get secret отрабатывает
https://kubernetes.io/docs/getting-started-guides/ubuntu/
тут правда богомерзкий жужу
но чармы читаются
в целом процесс описан можно повторить
а были ещё нормальные хауту
с командами из консоли


Дмитрий
23.02.2017
13:27:54
он вроде сам генерит все если серты подложить
С secret все понятно.
Начал настраивать HTTPS и столкнулся с проблемой при обращении controller-manager'ов к apiserver'ам:
- на стороне apiserver выдается сообщение kube-apiserver[3657]: I0223 19:22:07.357473 3657 logs.go:41] http: TLS handshake error from .....: connection reset by peer
- а на стороне controller-manager выдается сообщение error retrieving resource lock kube-system/kube-controller-manager: Get https://kube-master.infra.local:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: x509: certificate signed by unknown authority
Сертификаты на обоих сторонах одинаковые:
- на стороне apiserver используются параметры —service-account-key-file и —tls-ca-file
- на стороне controller-manager используются параметры —service-account-private-key-file и —root-ca-file
Они вроде должны общаться друг с другом, но...
Что может быть не так? Чего еще добавить?
При обращении curl'ом и по ip-адресу и имени ошибок с https не возникает, результат запросов выдается всегда Unauthorized


Artem
23.02.2017
13:49:59
https://github.com/kubernetes/kubernetes/issues/14097
где то тут ответ)

Дмитрий
23.02.2017
14:01:44
Если scheduler'а и controller-manager'а несколько, можно надеятся что при вылете одного из них кластер будет функционировать?

Google

Дмитрий
23.02.2017
14:17:18
Короче, как я понял, проблем полно с HTTP и не во всех компонентах он нормально поддерживается. Пример тому kube-proxy!

Alex
23.02.2017
14:44:14
Незавидную тем кто зачем то ставим кластер сам))
Игра в сам себе админ

Fike
23.02.2017
14:55:51
Игра в получение профильной квалификации, как по мне

Paul
23.02.2017
15:07:24
Незавидную тем кто зачем то ставим кластер сам))
С удовольствием выслушаю альтернативы. Без Amazon ec2 и kubeadm. Вообще- автоматизация- это прекрасно, но было бы нелишним понимать, что именно автомат творит. Иначе есть риск напороться на ошибку, лечение которой превратится в магическую процедуру.

Alex
23.02.2017
15:08:36
GCP - GKE
Мы используем его
Autoscale кластера есть
Обновление k8s в бета режиме есть

Paul
23.02.2017
15:10:10
GCP - GKE
Я правильно понимаю, что все, кто не использует gce/aws- недостойны?

Artem
23.02.2017
15:20:43
не коните гоней
всё в доках есть, надо сесть и прочесть
альтернатив то нет

Paul
23.02.2017
15:22:30

Artem
23.02.2017
15:22:59
https везде нормальная практика
можно своих нагенерить
можно за 30 уе купить

Fike
23.02.2017
15:28:03

Paul
23.02.2017
16:03:23

Sergey
23.02.2017
16:03:59
тотальным IPSec'ом, чем.
ну или функционально аналогичным решением.

Google

Artem
23.02.2017
16:08:32
mitm рядом, даже если кажется, что и нет.
просто в нынешней реальности гораздо проще сделать секурно, чем это все выпиливать героически, а потом ничего не работает

Fike
23.02.2017
16:17:36

Paul
23.02.2017
17:52:55
неа, я пропустил
Кончилось MitM от NSA. Которое потом засветил Сноуден. АНБ качали данные как пожарный насос, вообще не затыкаясь.

Fike
23.02.2017
17:58:07
о нет, сейчас начнутся сетевые войны, а я еще с прошлого раза ничего не прочитал по теме!

Sergey
23.02.2017
17:59:55

Roman
23.02.2017
18:06:17

Sergey
23.02.2017
18:06:29

Roman
23.02.2017
18:06:42
Там же все предельно просто: взаимная аутентификация, потоковый шифр, рекеинг

Paul
23.02.2017
19:05:35

Roman
23.02.2017
19:51:23

Paul
23.02.2017
19:56:53
RacoonD, strongswan, openswan, cisco vpnc, cisco anyconnect, shrew, ms ike client, nortel secure (кажется так назывался) - смотрел. Плюс железки. Нет там ничего простого. Если часть сложностей strongswan от вас скрыл - это не значит, что настраивать было просто. Это значит магию. А это плохо. Это означает неконтролируемую инфраструктуру. То есть - не понятую инфраструктуру.
Не говоря о том, что повальный IPSec не решает проблему, для которой был придуман ssl и tls

Roman
23.02.2017
20:57:48

Paul
23.02.2017
22:17:32

Google

Roman
23.02.2017
22:59:36

Pavel
24.02.2017
17:06:42
народ, кто-нибудь запускал concourse.ci в кубернетесе?

Dmitry ?
24.02.2017
17:18:41
Привет. Осваиваю kubernetes и docker. Всё поднято на AWS с помощью https://github.com/coreos/kube-aws, как-то работает. Проблема, что клиент (мобильный, react-native приложение) не коннектится к сокету (на обычных хостингах если сервер запущен — всё ок). Инстанс приложения в одном экземпляре, так что это видимо не из-за балансера? В каком направлении копать, в общем

Alex
24.02.2017
17:27:57
начниет с kubectl get services
kubectl get ingress

Dmitry ?
24.02.2017
17:30:55
Что именно я там должен увидеть? Сервис-то работает, там еще сайт - открывается, сервак бежит

Alex
24.02.2017
17:31:29
когда вы видите что-то это ен значит что это видят другие люди
как понять как вы настроили сервис?
погадать?

Dmitry ?
24.02.2017
17:32:21

Alex
24.02.2017
17:33:21
nodeport?

Dmitry ?
24.02.2017
17:33:57
80:32506/TCP,443:31110/TCP
kctl get nodes
Вижу 2 ноды
kctl get pods
Вижу свой под, могу зайти на него, смотреть логи

Bogdan (SirEdvin)
24.02.2017
17:35:35
Извините, что вопрос немного не по теме, но может, кто-то может помочь с этим:
http://stackoverflow.com/q/42443688/4193643
Это по поводу Concourse CI, собственно, тут ее и подсмотрел

Alex
24.02.2017
17:35:52
⇒ kubectl describe svc fallball-connector
Name: fallball-connector
Namespace: default
Labels: name=fallball-connector
Selector: name=fallball-connector
Type: NodePort
IP: 10.10.23.172
Port: <unset> 80/TCP
NodePort: <unset> 32544/TCP
Endpoints: 10.10.3.13:5000
Session Affinity: None
No events.
IP: 10.10.23.172
у вас там что?

Google

Alex
24.02.2017
17:37:36
с этого адреса будут доступны ваши порты
если нужен доступ по белому адресу - ingress

Dmitry ?
24.02.2017
17:38:21
Name: ***
Namespace: default
Labels: name=***
tier=***
Selector: app=***
Type: LoadBalancer
IP: 10.3.0.168
LoadBalancer Ingress: a391*********************.us-west-2.elb.amazonaws.com
Port: http 80/TCP
NodePort: http 32506/TCP
Endpoints: 10.2.42.25:4000
Port: https 443/TCP
NodePort: https 31110/TCP
Endpoints: 10.2.42.25:4000
Session Affinity: None
No events.
Через route53 сделан alias на этот ingress, сайт открывается по домену, коннекчусь к сокету тоже по нему

Alex
24.02.2017
17:40:46
вот тут я пфф - тк у меня GKE
(

Dmitry ?
24.02.2017
17:41:00
По ходу в AWS надо что-то подкрутить
Но я не знаю что

Alex
24.02.2017
17:43:23
я бы начал смотреть как настроен a391*********************.us-west-2.elb.amazonaws.com
так вы пытаешь к домена привязанному к ip у elb a391*********************.us-west-2.elb.amazonaws.com
подключиться к 80 порту?
и я не знаю но для работы tls вам нужно аннотацию сделать ссылкой на сертификаты

M
24.02.2017
18:48:00

Fike
24.02.2017
20:25:18
насколько помню, nginx нужна дополнительная конфигурация для того, чтобы он еще и вебсокеты проксировал

Дмитрий
25.02.2017
02:57:18

Fike
25.02.2017
04:40:46
вебсокеты, о которых, насколько понимаю, идет речь, и http - это два разных протокола на одном порте, и если запрос принимается через ряд промежуточных http-роутеров, есть вероятность, что один из них не проксирует вебсокеты, а только чистый хттп

Dmitry ?
25.02.2017
05:34:11
В сервисе надо было вместо http выставить tcp в service.beta.kubernetes.io/aws-load-balancer-backend-protocol: "tcp"