@kubernetes_ru

Страница 127 из 958
Дмитрий
23.02.2017
11:15:04
должен быть сертификат и мгенеренный secret
Артём, а чем генерировать secret?

Artem
23.02.2017
11:38:56
он вроде сам генерит все если серты подложить

я с телефона могу ошибиться

Google
Artem
23.02.2017
11:39:25
но там создаётся service account

kubectl get secret отрабатывает

https://kubernetes.io/docs/getting-started-guides/ubuntu/

тут правда богомерзкий жужу

но чармы читаются

в целом процесс описан можно повторить

а были ещё нормальные хауту

с командами из консоли

Дмитрий
23.02.2017
13:27:54
он вроде сам генерит все если серты подложить
С secret все понятно. Начал настраивать HTTPS и столкнулся с проблемой при обращении controller-manager'ов к apiserver'ам: - на стороне apiserver выдается сообщение kube-apiserver[3657]: I0223 19:22:07.357473 3657 logs.go:41] http: TLS handshake error from .....: connection reset by peer - а на стороне controller-manager выдается сообщение error retrieving resource lock kube-system/kube-controller-manager: Get https://kube-master.infra.local:6443/api/v1/namespaces/kube-system/endpoints/kube-controller-manager: x509: certificate signed by unknown authority Сертификаты на обоих сторонах одинаковые: - на стороне apiserver используются параметры —service-account-key-file и —tls-ca-file - на стороне controller-manager используются параметры —service-account-private-key-file и —root-ca-file Они вроде должны общаться друг с другом, но... Что может быть не так? Чего еще добавить?

При обращении curl'ом и по ip-адресу и имени ошибок с https не возникает, результат запросов выдается всегда Unauthorized

Artem
23.02.2017
13:49:59
https://github.com/kubernetes/kubernetes/issues/14097

где то тут ответ)

Дмитрий
23.02.2017
14:01:44
Если scheduler'а и controller-manager'а несколько, можно надеятся что при вылете одного из них кластер будет функционировать?

Google
Дмитрий
23.02.2017
14:17:18
Короче, как я понял, проблем полно с HTTP и не во всех компонентах он нормально поддерживается. Пример тому kube-proxy!

Alex
23.02.2017
14:44:14
Незавидную тем кто зачем то ставим кластер сам))

Игра в сам себе админ

Fike
23.02.2017
14:55:51
Игра в получение профильной квалификации, как по мне

Paul
23.02.2017
15:07:24
Незавидную тем кто зачем то ставим кластер сам))
С удовольствием выслушаю альтернативы. Без Amazon ec2 и kubeadm. Вообще- автоматизация- это прекрасно, но было бы нелишним понимать, что именно автомат творит. Иначе есть риск напороться на ошибку, лечение которой превратится в магическую процедуру.

Alex
23.02.2017
15:08:36
GCP - GKE

Мы используем его

Autoscale кластера есть

Обновление k8s в бета режиме есть

Paul
23.02.2017
15:10:10
GCP - GKE
Я правильно понимаю, что все, кто не использует gce/aws- недостойны?

Artem
23.02.2017
15:20:43
не коните гоней

всё в доках есть, надо сесть и прочесть

альтернатив то нет

Paul
23.02.2017
15:22:30
Короче, как я понял, проблем полно с HTTP и не во всех компонентах он нормально поддерживается. Пример тому kube-proxy!
Вообще идея использовать http в небезопасных окружениях (а они по умолчанию небезопасны, если явно не доказано иное) - не кажется мне здравой

Artem
23.02.2017
15:22:59
https везде нормальная практика

можно своих нагенерить

можно за 30 уе купить

Fike
23.02.2017
15:28:03
Вообще идея использовать http в небезопасных окружениях (а они по умолчанию небезопасны, если явно не доказано иное) - не кажется мне здравой
++, да и общая тенденция движется к тому, что по умолчанию все потоки данных должны быть обернуты в tls.

Paul
23.02.2017
16:03:23
++, да и общая тенденция движется к тому, что по умолчанию все потоки данных должны быть обернуты в tls.
Гугл вот верил в защищенность своих линий между своими цодами. Все помнят, чем кончилось? :)

Sergey
23.02.2017
16:03:59
тотальным IPSec'ом, чем. ну или функционально аналогичным решением.

Google
Artem
23.02.2017
16:08:32
mitm рядом, даже если кажется, что и нет.

просто в нынешней реальности гораздо проще сделать секурно, чем это все выпиливать героически, а потом ничего не работает

Paul
23.02.2017
17:52:55
неа, я пропустил
Кончилось MitM от NSA. Которое потом засветил Сноуден. АНБ качали данные как пожарный насос, вообще не затыкаясь.

тотальным IPSec'ом, чем. ну или функционально аналогичным решением.
Вы явно никогда не отлаживали IPSec туннель и не представляете, насколько сложная и капризная это технология. Я уж не говорю о том, что туннель предполагает частичный контроль над сетевой инфраструктурой. Список проблем в таком решении могу продолжать ещё долго.

Fike
23.02.2017
17:58:07
о нет, сейчас начнутся сетевые войны, а я еще с прошлого раза ничего не прочитал по теме!

Sergey
23.02.2017
17:59:55
Вы явно никогда не отлаживали IPSec туннель и не представляете, насколько сложная и капризная это технология. Я уж не говорю о том, что туннель предполагает частичный контроль над сетевой инфраструктурой. Список проблем в таком решении могу продолжать ещё долго.
IPSec не обязательно требует туннелирования и несколько непрост в первичной настройке, но вообще не рокет-саенс, даже в случае тысяч нод. я сказал "функционально аналогичное решение" в том плане, что между отдельными машинами нет (или почти нет, потому что есть edge-кейсы вроде DHCP) хождения нешифрованного трафика

Sergey
23.02.2017
18:06:29
Roman
23.02.2017
19:51:23
Paul
23.02.2017
19:56:53
RacoonD, strongswan, openswan, cisco vpnc, cisco anyconnect, shrew, ms ike client, nortel secure (кажется так назывался) - смотрел. Плюс железки. Нет там ничего простого. Если часть сложностей strongswan от вас скрыл - это не значит, что настраивать было просто. Это значит магию. А это плохо. Это означает неконтролируемую инфраструктуру. То есть - не понятую инфраструктуру.

Не говоря о том, что повальный IPSec не решает проблему, для которой был придуман ssl и tls

Paul
23.02.2017
22:17:32
а зачем использовать raccon?
затем, что на тот момент иных вариантов не было.

Google
Roman
23.02.2017
22:59:36
затем, что на тот момент иных вариантов не было.
когда "в тот момент"? в 2003 уже был openswan/freeswan, в 2005 - strongswan.

неверно. Его все делают неправильно. Но - по-разному
кто, например и о какой версии ike речь?

Pavel
24.02.2017
17:06:42
народ, кто-нибудь запускал concourse.ci в кубернетесе?

Dmitry ?
24.02.2017
17:18:41
Привет. Осваиваю kubernetes и docker. Всё поднято на AWS с помощью https://github.com/coreos/kube-aws, как-то работает. Проблема, что клиент (мобильный, react-native приложение) не коннектится к сокету (на обычных хостингах если сервер запущен — всё ок). Инстанс приложения в одном экземпляре, так что это видимо не из-за балансера? В каком направлении копать, в общем

Alex
24.02.2017
17:27:57
начниет с kubectl get services

kubectl get ingress

Dmitry ?
24.02.2017
17:30:55
Что именно я там должен увидеть? Сервис-то работает, там еще сайт - открывается, сервак бежит

kubectl get ingress
No resources found

Alex
24.02.2017
17:31:29
когда вы видите что-то это ен значит что это видят другие люди

как понять как вы настроили сервис?

погадать?

Dmitry ?
24.02.2017
17:32:21
начниет с kubectl get services
Вижу тут сервис который создал, на 80 и 443 портах

Alex
24.02.2017
17:33:21
nodeport?

Dmitry ?
24.02.2017
17:33:57
80:32506/TCP,443:31110/TCP

kctl get nodes

Вижу 2 ноды

kctl get pods Вижу свой под, могу зайти на него, смотреть логи

Bogdan (SirEdvin)
24.02.2017
17:35:35
Извините, что вопрос немного не по теме, но может, кто-то может помочь с этим: http://stackoverflow.com/q/42443688/4193643 Это по поводу Concourse CI, собственно, тут ее и подсмотрел

Alex
24.02.2017
17:35:52
⇒ kubectl describe svc fallball-connector Name: fallball-connector Namespace: default Labels: name=fallball-connector Selector: name=fallball-connector Type: NodePort IP: 10.10.23.172 Port: <unset> 80/TCP NodePort: <unset> 32544/TCP Endpoints: 10.10.3.13:5000 Session Affinity: None No events.

IP: 10.10.23.172 у вас там что?

Google
Alex
24.02.2017
17:37:36
с этого адреса будут доступны ваши порты

если нужен доступ по белому адресу - ingress

Dmitry ?
24.02.2017
17:38:21
Name: *** Namespace: default Labels: name=*** tier=*** Selector: app=*** Type: LoadBalancer IP: 10.3.0.168 LoadBalancer Ingress: a391*********************.us-west-2.elb.amazonaws.com Port: http 80/TCP NodePort: http 32506/TCP Endpoints: 10.2.42.25:4000 Port: https 443/TCP NodePort: https 31110/TCP Endpoints: 10.2.42.25:4000 Session Affinity: None No events.

Через route53 сделан alias на этот ingress, сайт открывается по домену, коннекчусь к сокету тоже по нему

Alex
24.02.2017
17:40:46
вот тут я пфф - тк у меня GKE

(

Dmitry ?
24.02.2017
17:41:00
По ходу в AWS надо что-то подкрутить

Но я не знаю что

Alex
24.02.2017
17:43:23
я бы начал смотреть как настроен a391*********************.us-west-2.elb.amazonaws.com

так вы пытаешь к домена привязанному к ip у elb a391*********************.us-west-2.elb.amazonaws.com

подключиться к 80 порту?

и я не знаю но для работы tls вам нужно аннотацию сделать ссылкой на сертификаты

Fike
25.02.2017
04:40:46
вебсокеты, о которых, насколько понимаю, идет речь, и http - это два разных протокола на одном порте, и если запрос принимается через ряд промежуточных http-роутеров, есть вероятность, что один из них не проксирует вебсокеты, а только чистый хттп

Dmitry ?
25.02.2017
05:34:11
В сервисе надо было вместо http выставить tcp в service.beta.kubernetes.io/aws-load-balancer-backend-protocol: "tcp"

Страница 127 из 958