@kubernetes_ru

Страница 814 из 958
Anton
11.09.2018
13:28:34
почти угадал

Stanislav, старый ты видимо, за прошлое цепляешься =))

Stanislav
11.09.2018
13:31:05
Нет, просто меня задолбали когда-то хайлайтить, набирая ник, совпадающий с именем. Поставил такое, которое и помню и при этом многие хрен наберут :-)

(слегка подумавши): а "старый" - это сколько?

Google
Let Eat
11.09.2018
13:34:49
(слегка подумавши): а "старый" - это сколько?
Это если хотя бы 14400 насвистеть можешь

Stanislav
11.09.2018
13:35:04
не, только на 2400 и без MNP

Let Eat
11.09.2018
13:35:57
Так это очень старый

Stanislav
11.09.2018
13:36:20
Просто слуха нет музыкального

Никита
11.09.2018
13:42:53
Пните куда можно глянуть
Как насчёт outgoing masquerade, или как-то так?

Ну, то есть, когда на хосте, на который ходит под, нет обратного маршрута к ip-адресу пода.

Let Eat
11.09.2018
13:45:01
Как насчёт outgoing masquerade, или как-то так?
В ipv6 вообще есть смысл в NAT? :)

mio
11.09.2018
13:45:14
Почему нет?

Let Eat
11.09.2018
13:45:57
Ну вроде все плоско, всё проще

Andor
11.09.2018
13:46:06
эт uuid?
Это супермен

mio
11.09.2018
13:46:13
Серые подсети тоже есть

Let Eat
11.09.2018
13:47:15
Серые подсети тоже есть
Но вроде их столько что можно выбирать случайную /64 и быть уверенным что ни с кем в этой вселенной не пересечешься :)

Никита
11.09.2018
13:50:18
Ну вот я бы поссыковал лаб-кластер держать с глобально маршрутизируемыми адресами подов. Вряд ли кто-то до них досканирует, конечно, но лучше быть уверенным (:

Google
Andor
11.09.2018
13:50:44
Почему?

Фаервола что ли нету?

Fike
11.09.2018
13:51:00
Но вроде их столько что можно выбирать случайную /64 и быть уверенным что ни с кем в этой вселенной не пересечешься :)
Не то чтобы я сетевой гений, но если там внутренняя сетка взяла случайную /64, то на нее обратно в общем-то ничего и не попадет. Если с тем же префиксом, что и хост - все должно быть ок.

Никита
11.09.2018
13:51:47
Фаервола что ли нету?
Я знаю, что нат - это не фаервол, нооо.

Andrey
11.09.2018
14:14:34
всем привет, попытался вынести в деплое /etc/grafana в volume. Начинает ругаться типа GF_PATHS_CONFIG='/etc/grafana/grafana.ini' is not readable. Читал описание но не вкурил как это в деплое опистать http://docs.grafana.org/installation/docker/#migration-from-a-previous-version-of-the-docker-container-to-5-1-or-later (version=5.2.4 ). /var/lib/grafana вынести получилось

J
11.09.2018
14:41:10
а дайте рекомендацию для юного кубовода, чем сейчас можно этот куб разворачивать?

Mikhail
11.09.2018
14:44:13
а так, kubeadm вам в помощь

J
11.09.2018
14:45:21
не, я про другое - много разговоров про разные kubespray/kubeadm & etc. какую из тулзов стоит брать и стоит ли чтобы разобраться?

Mikhail
11.09.2018
14:46:48
чтобы разобраться начните с hard way

J
11.09.2018
14:47:51
ага спасибо нагуглил

Zo zo
11.09.2018
15:01:21
Коллеги, подскажите, пробую подружить Gitlab с кластером кубера. Gitlab просит Certificate Authority bundle (PEM format). Достал из ~/.kube/config, сделал base64 -D ключам, положил сначала client-certificate-data, потом certificate-authority-data, потом client-key-data. Не пускает. Где туплю? (Ошибка: nested asn1 error)

Mikhail
11.09.2018
15:10:36
Судя по названию надо СА + intermediate. А клиентский сертификат указать в другом месте. Но я могу ошибаться.

Alexandr
11.09.2018
15:16:08
Привет всем, а есть быстрый вопрос - кто то знает должен ли load balancer для websocket уметь резолвить ssl и НЕ обрывать соединение по тайм ауту (то есть я говорю об ingress resource, не о service type: LoadBalancer)

По сути задача - HTTPS load balancer, за которым есть сервис с websocket deployment у которого нет таймаута. Мы в GKE.

Zo zo
11.09.2018
15:24:30
certificate-authority-data это нужно, хост только домен и порт
положил туда сертификат из certificate-authority-data. не помогло

ошибка та же

в API URL кладу: https://master.cluster.com:6443

Juriy
11.09.2018
16:39:02
Так это очень старый
А если кто то помнит еще fidonet это вообще супер старпер?

Google
Stanislav
11.09.2018
16:43:26
А если кто то помнит еще fidonet это вообще супер старпер?
А если у кого-то действующая фидонода? :-)

Fike
11.09.2018
17:40:41
че тут, опять инженеры меряются кто где в детстве сидел?

Mikhail
11.09.2018
17:54:40
че тут, опять инженеры меряются кто где в детстве сидел?
Я думаю тут есть и спектумовцы и молодые девопсы:)

Juriy
11.09.2018
17:56:26
Я думаю тут есть и спектумовцы и молодые девопсы:)
Ещеж был bbs , мне туда спектрумовцы как раз звонили

Fike
11.09.2018
17:58:46
Я думаю тут есть и спектумовцы и молодые девопсы:)
как интере а впрочем абсолютно наглухо не интересно

Stanislav
11.09.2018
18:16:10
over ftn тогда уж

Вася
11.09.2018
19:07:51
Котоны, решал ли кто проблему с X-Forwarded-For на bare metal c nginx ingess controller?

mio
11.09.2018
19:20:21
А в чем проблема?

@Gans13 ?

Вася
11.09.2018
19:21:16
Он подставляет внут. адреса подов

mio
11.09.2018
19:21:24
Ого

Ты точно ничего не перепутал и это ingress?

Oleg
11.09.2018
19:22:16
host network вроде вопрос решает

mio
11.09.2018
19:22:24
Кстати да

Oleg
11.09.2018
19:23:45
только будет простой при обновлении или падения самого ингреса

Вася
11.09.2018
19:23:57
Oleg
11.09.2018
19:23:58
для этого есть всякие злые хаки, которые подсмотрел у фланта

mio
11.09.2018
19:24:05
Ну можно часть поднять и переключить днс на него

Google
Вася
11.09.2018
19:24:21
mio
11.09.2018
19:24:34
У тебя один ингресс?

Сделай несколько

Вася
11.09.2018
19:25:22
У меня 3 по одному на каждый хост, и есть failover ip который переезжает в слуучае падения ноды

Oleg
11.09.2018
19:25:37
там все сложнее, смотрят поднят ли 80 порт с помощью модуля сокет, если не поднят, заворачивают трафик в другое место где поднят нгинкс с прокси протоколом, который отправляет трафик в отдельный деплоймент ингреса как раз на такой случай

Вася
11.09.2018
19:33:13
https://habr.com/company/flant/blog/331188/#comment_10532820
Ща повкуриваю, спс за урл)

bebebe
11.09.2018
20:38:32
@SinTeZoiD ^^^

Let Eat
11.09.2018
20:53:56
Он подставляет внут. адреса подов
Выставьте externaltrafficpolicy: Local на сервисе ингресс контроллера

Вася
11.09.2018
20:54:33
Он работает только для Nodeport & LB

У меня ClusterIP c externalIPs

Да я решил воткнуть перед ингресами Haproxy и пинать трафик с него на ингресы

Тогда все сохраняется ибо нет NAT

Let Eat
11.09.2018
21:00:53
У меня ClusterIP c externalIPs
Точно externalTrafficPolicy не работает с externalIP? Проверяли? Сам не пользовался, но хотелось бы знать :)

Stas
11.09.2018
21:26:34
Точно externalTrafficPolicy не работает с externalIP? Проверяли? Сам не пользовался, но хотелось бы знать :)
а как оно может в принципе работать, если этот параметр просто запрещает использовать нелокальные эндпоинты сервиса с точки зрения того хоста на который прилетел трафик?

Nik
11.09.2018
23:00:13
а как передеплоить helm chart ?

Andrey
12.09.2018
00:56:11
а как передеплоить helm chart ?
удалить с helm delete —purge ... и деплоить с нуля

Alisa
12.09.2018
05:00:22
helm delete --purge mongodb-enterprise-operator Error: transport is closing у когонить было такое? helm delete mongodb-enterprise-operator --debug --dry-run [debug] Created tunnel using local port: '56822' [debug] SERVER: "localhost:56822" Error: release: "mongodb-enterprise-operator" not found

Andrey
12.09.2018
05:29:52
Error: transport is closing было, но на функционал не влияло

Google
Alisa
12.09.2018
05:34:23
я так из хелма не могу удалить этот оператор( в кубере неймеспейсов нет

Никита
12.09.2018
05:43:08
Он в helm ls виден?

Banschikov
12.09.2018
05:45:03
Доброго утра всем! Кто нибуть использует в сервисе около 100 портов? kube-proxy не троит?

Никита
12.09.2018
05:48:01
Дык кубпрокси только конфигурит iptables нынче, ну или ipvs.

Banschikov
12.09.2018
05:51:07
Дык кубпрокси только конфигурит iptables нынче, ну или ipvs.
Я вот тут просто почитал и озадачился https://github.com/kubernetes/kubernetes/issues/23864

Есть ли такая проблема

Nik
12.09.2018
07:39:44
удалить с helm delete —purge ... и деплоить с нуля
Это как бы не апдейт. А возможности нормально проапдейтить, не вырезая весь сервис нет?

Страница 814 из 958