@kubernetes_ru

Страница 283 из 958
Evgenii
28.09.2017
09:16:10
.эж

жз.

.жз

.жз88888888888888888888п8к48г4к8г4

Google
Ivan
28.09.2017
09:20:30
Дети телефон заполучили? :)

Fike
28.09.2017
09:20:36
^ лучшая реклама, которая у нас была

Evgenii
28.09.2017
09:24:34
Дети телефон заполучили? :)
да, дико извиняюсь

оставил незалоченный ноутбук

Никита
28.09.2017
10:05:55
Киньте пожалуйста ссылкой, как в Calico запустить мультикаст между подами (если это вообще возможно), сам как-то не могу найти

Maksim
28.09.2017
10:06:39
а он там есть?

Никита
28.09.2017
10:07:38
Не уверен, возможно можно как-то включить pim, об этом и речь

Lev
29.09.2017
04:56:05
https://github.com/kubernetes/kubernetes/releases/tag/v1.8.0

Ihor
29.09.2017
05:04:42
http://blog.kubernetes.io/2017/09/kubernetes-18-security-workloads-and.html

Andrey
29.09.2017
05:25:59
что такое SIG?

Denis
29.09.2017
05:44:45
что такое SIG?
https://github.com/kubernetes/kubernetes/wiki/Special-Interest-Groups-(SIGs)

Andrey
29.09.2017
05:45:09
ясно, спасибо

а для каких вещей в поде необходимо явно декларировать ports.containerPort ?

Google
Anton
29.09.2017
06:30:24
я для всех описывал. https://kubernetes.io/docs/api-reference/v1.7/#containerport-v1-core containerPort integer Number of port to expose on the pod's IP address. This must be a valid port number, 0 < x < 65536.

думаю не посадишь сервис на порт, который не описан

но я не знаю, будет ли порт внутри пода доступен через 127.1 если его не описать

Andrey
29.09.2017
06:37:54
сервису в целом пофиг насколько я понимаю

"но это не точно" (С) : ) пойду доки читать и искать инфу

Anton
29.09.2017
07:07:18
хочешь сказать что можно в сервисе сослаться на неописанный порт?

Maksim
29.09.2017
07:24:51
я для всех описывал. https://kubernetes.io/docs/api-reference/v1.7/#containerport-v1-core containerPort integer Number of port to expose on the pod's IP address. This must be a valid port number, 0 < x < 65536.
Посадишь. при expose ставишь флаг —port. Описание ports в контейнере служит для автоматического проброса портов на сервисе.

Роман
29.09.2017
08:07:37
У меня в подах вообще нигде порты не описаны. Только сервисы. И работает.

Anton
29.09.2017
08:13:24
бардак! =)

Zloy Dobriy
29.09.2017
08:17:45
бардак! =)
Пердак

Роман
29.09.2017
08:28:37
но я не знаю, будет ли порт внутри пода доступен через 127.1 если его не описать
А это, мне кажется, зависит только от того, работает ли какая-то программа с этим портом. Будет странно, если в контейнере nginx, и из этого контейнера будет недоступен, например 127.0.0.1:80

Кто kubespray пользуется? Как теперь (в последнем релизе) calico задать ip адрес?

Раньше calico.env был с параметром: CALICO_IP="{{ ip | default(ansible_default_ipv4.address) }}"

Aleksey
29.09.2017
09:33:12
Народ, а поделитесь линком на докеровский чятик? UPD: спасибо, нашёл

Mikhail
29.09.2017
10:15:34
что-то по моим ощущениям в 1.8 переделали все

(судя по changelog)

Paul
29.09.2017
11:05:27
коллеги, есть ли тут кто-нибудь, кто проводил секурный аудит инфраструктуры на кубе? FIPS, PCI-DSS, аналоги?

Magistr
29.09.2017
11:13:43
https://t.me/secinfosec тут мб есть кто

Сергей
29.09.2017
12:54:14
из нового в 1,8 кубере

Сеть В kube-proxy добавлена альфа-версия поддержки режима IPVS для балансировки нагрузки (вместо iptables). В этом режиме kube-proxy следит за сервисами и endpoints в Kubernetes, создавая netlink-интерфейс (virtual server и real server соответственно). Кроме того, он периодически синхронизирует их, поддерживая консистентность состояния IPVS. При запросе на доступ к сервису трафик перенаправляется на один из подов бэкенда. При этом IPVS предлагает различные алгоритмы для балансировки нагрузки (round-robin, least connection, destination hashing, source hashing, shortest expected delay, never queue). Такую возможность часто запрашивали в тикетах Kubernetes, и мы сами тоже очень её ждали. Среди других сетевых новшеств — бета-версии поддержки политик для исходящего трафика EgressRules в NetworkPolicy API, а также возможность (в том же NetworkPolicy) применения правил по CIDR источника/получателя (через ipBlockRule).

Google
Сергей
29.09.2017
12:54:35
думаю ко 2 версии будет уже юзабельно

это не может не радовать

Михаил
29.09.2017
13:28:27
Сеть В kube-proxy добавлена альфа-версия поддержки режима IPVS для балансировки нагрузки (вместо iptables). В этом режиме kube-proxy следит за сервисами и endpoints в Kubernetes, создавая netlink-интерфейс (virtual server и real server соответственно). Кроме того, он периодически синхронизирует их, поддерживая консистентность состояния IPVS. При запросе на доступ к сервису трафик перенаправляется на один из подов бэкенда. При этом IPVS предлагает различные алгоритмы для балансировки нагрузки (round-robin, least connection, destination hashing, source hashing, shortest expected delay, never queue). Такую возможность часто запрашивали в тикетах Kubernetes, и мы сами тоже очень её ждали. Среди других сетевых новшеств — бета-версии поддержки политик для исходящего трафика EgressRules в NetworkPolicy API, а также возможность (в том же NetworkPolicy) применения правил по CIDR источника/получателя (через ipBlockRule).
оно отдельным проектом где-то было

Сергей
29.09.2017
13:28:44
ну оно уже в инкубаторе

ну движение в эту сторону не может не радовать

Михаил
29.09.2017
13:29:23
это да

Mikhail
29.09.2017
13:40:08
хороший повод обновиться с 1.6. до 1.8 )

Ivan
29.09.2017
13:58:42
Всем привет! Народ, а подскажите, кто как живёт? меня интересует такой момент - я из кубернетовского кластера публикую какой-то порт какого-то пода (сервиса, деплоймента, не важно). Далее этот порт у меня публикуется на айпишниках всех нод (всех трёх). и можно стучаться на сервис по этому порту стучась на любую ноду. если я натравлю весь траффик на айпишник первой ноды и эта нода упадёт, то достучаться до сервиса я не смогу, хотя он будет доступен на айпишниках других нод. Интересны ваши решения или соображения на эту тему)))

Fike
29.09.2017
14:01:37
Выше предлагали VRRP по количеству смотрящих в интернет нод + можно сделать round-robin DNS с несколькими A-записями, но будут ли клиенты своевременно обновлять айпишник - неизвестно.

Про VRRP лучше прямо по этой аббревиатуре выше поискать, я в этой штуке не особо смекаю и могу сказать не совсем верную вещь.

Ivan
29.09.2017
14:16:51
ок. спасибо ))

Igor
29.09.2017
14:17:35
Round-robin по DNS будет продолжать ходить на упавшую ноду, если сам сервак не чистит запись недоступной ноды, то есть часть траффика может стучаться в недоступную область. Ну и да, кэшируется IP. VRRP как вариант, но уже поверх балансеров. Мне кажется достаточно на первое время простого балансера для нод, типа HAProxy если on-prem, и. т.п.

Maksim
29.09.2017
15:12:47
1. Можно принудительно запретить кеш на не хозяинах зоны

2. Обновлять A в динамике не проблема

Ivan
29.09.2017
15:15:48
type: LoadBalancer, не?
не сталкивался пока. а не кинете ли вы в меня ссылочкой, где это для тупых разжёвывалось бы?

Fike
29.09.2017
15:16:10
type: LoadBalancer, не?
для этого нужна внешняя инфраструктура, не все живут в aws/gce

Google
Mikhail чердак
29.09.2017
15:24:32
Сам вот только-только сумел поднять свое барахло в GCE.

Maksim
29.09.2017
15:25:11
А кто-то своё GCE строит с Блекджеком)

Mikhail чердак
29.09.2017
15:25:37
для этого нужна внешняя инфраструктура, не все живут в aws/gce
Разве? Я думал это на уровне kubernetes рулится.

Fike
29.09.2017
15:26:13
кубернетес не в силах просто взять и сказать внешней сетке, что у его нод одинаковые айпишники

и что их еще надо раунд робином перебирать

Mikhail чердак
29.09.2017
15:28:13
Ну так а если ты делаешь Service type: loadBalancer loadBalancerIP: ext_ip ?

Например, выставляя traefik туда

Fike
29.09.2017
15:28:43
в этом случае он создает в GCP балансировщик, его можно через обычную панель посмотреть

Fike
29.09.2017
15:29:59
Я не знаю деталей как это у них внутри реализовано, но, конечно, это виртуальный айпишник, и у нескольких нод не может быть один и тот же айпишник по понятным причинам

Сергей
29.09.2017
16:36:28
aws + type LoadBalancer + external-dns (плагин для кубернетса)

сервис ставится на балансинг в амазоновском елб, а экстернал-днс делает алиас на этот лб в роуте53

serbernar
29.09.2017
17:56:01
Какой у вас проект или где работаете? Агрегатор билетов В чём вы специалист? Бекенд разработчик Откуда вы? Киев Как узнали про группу? Голанг чат #whois

Yura
29.09.2017
17:59:06
#whois Проектов много, аутсорсинговая компания php, yii2 Не знаю) Интересует тема Великий Новгород Из группы golang ru

Lanegan
29.09.2017
18:06:02
#whois ▫️Какой у вас проект или где работаете? - проект многоканальная рассылка ▫️В чём вы специалист? - php, java SE, 1c ▫️Чем можете быть интересны или полезны сообществу? - чем смогу, помогу :) ▫️Чем интересно сообщество вам? High load ▫️Откуда вы? - Москва ▫️Как узнали про группу? - golang_ru

Сергей
29.09.2017
18:06:26
походу сейчас попрет

Всем привет, новоприбывшим

Google
Lanegan
29.09.2017
18:14:32
Привет!

Paul
29.09.2017
18:45:06
а что случилось? почему попрет?

Сергей
29.09.2017
18:45:49
ну три человека подряд с одной тусовки)

Paul
29.09.2017
18:49:42
ай, вспомним, что тут было, когда на хабре про группы написали :)

человек 20 пришло

Сергей
29.09.2017
18:52:14
)

а тут в голенг ру написали

Paul
29.09.2017
18:55:18
это странно, потому как половина старожилов го сидит тут. И наоборот. Мы с гошниками давно дружим

Сергей
29.09.2017
18:56:28
гыгы

AxiS
29.09.2017
22:04:07
Какой у вас проект или где работаете? тг боты, микросервисы В чём вы специалист? Бекенд разработчик (java, go) Откуда вы? Мск Как узнали про группу? golang_ru #whois

Страница 283 из 958