
Dmytro
25.07.2018
15:50:23
нет, я про логи днс запросов
т.е. добавить флаг --log-queries в dnsmasq https://github.com/kubernetes/kubernetes/blob/master/cluster/addons/dns/kube-dns/kube-dns.yaml.base#L169

Kirill
25.07.2018
15:55:02

Fike
25.07.2018
15:56:31

Google

Dmytro
25.07.2018
16:03:51

blkmrkt
25.07.2018
16:19:47
Нигде не нахожу пояснения. Наверное это должно быть понятно всем, но до меня не доходит:
Куб предназначен для работы исключительно внутри локальной сети, или разницы нет? Я ставил сервер отдельно, и добавил к нему 3 baremetal ноды по их публичным ип. Все вроде работало.
Но можно так делать вообще?


Алексей
25.07.2018
16:26:41
Что?! А сеть кубера на что?

Alex Milushev
25.07.2018
16:36:09

Dmytro
25.07.2018
16:38:08

Vlad
25.07.2018
16:38:30
Привет. Подскажите пожалуйста я насетапил liveness и readinessProbe но после этого у меня валится команда kubectl wait. Не подскажете в чем может бть проблема? может я неправильно настраиваю initialDelaySeconds или что то такое?

Dmytro
25.07.2018
16:38:41

Alex Milushev
25.07.2018
16:39:20
Эм, шаблонтзаторы плохи тем, что могут превратится в php
А этот сразу php
Только с lua
Вот есть тот же hcl, или hcl2, кривоват конечно, но все равно получше как по мне чем писать на lua

Dmytro
25.07.2018
16:40:33
ну с такой аргументацией дальше дискуссию вести не вижу смысла

Google

blkmrkt
25.07.2018
16:42:21

Dmytro
25.07.2018
16:44:22
можно то можно, но сеть ведь между ниим публичная
со всеми вытекающими

blkmrkt
25.07.2018
16:45:52

Dmytro
25.07.2018
16:46:08
ну если настроите - будет
по умолчанию нет конечно, либо ipsec на уровне нод или на уровне overlay network мжду подами - через weave (и может другие CNI это умеют, не уверен)

cent
25.07.2018
17:19:23
А как можно остановить весь k8s кластер?

Maksim
25.07.2018
17:20:13

Paul
25.07.2018
17:20:21
Стопануть все узлы по одному

Dmitriy
25.07.2018
17:20:55
Кто-то что-то убить надумал
Кто знает, редис нормально живет в кубах?

cent
25.07.2018
17:23:17
Мисье знает толк)
Ну, просто поставил себе кубер локально для управления докер контейнерами.
Ну, чтобы просто не забывать как там все работает.
Потому что если не пользуешься долгое время, то потом вообще ничего не можешь сделать.
Вот и решил docker-compose заменить на кубер.
Но когда мне этот кластер не нужен, то не хочу тратить ресурсы ноута.
Поэтому и задался проблемой остановки всего кластера на время.

Nata
25.07.2018
17:25:07
Ansible -a kubecluster "systemctl stop kubelet" ?

cent
25.07.2018
17:25:08

Alexey
25.07.2018
17:25:34
Он же в виртуалках. Запаузить не выходит?

Fike
25.07.2018
17:25:58

cent
25.07.2018
17:27:59

Fike
25.07.2018
17:30:17

cent
25.07.2018
17:31:31

Google

Fike
25.07.2018
17:31:59
ага, в форке
там не балансер встроен, а айпитейблы

cent
25.07.2018
17:42:11

Anton
25.07.2018
18:18:36

Fike
25.07.2018
18:19:55
на докир )

Anton
25.07.2018
18:20:27
Тоесть из оверлей сети через нат ломится на виртуалку с редисом лутше?)
Хотя вот всякое межсервисное взаимодействие по http через ингресс заворачивать договорились, чтобы не думать в том же ты кластере находишься или нет. Да и если клиенту внешнему отдать нужно будет урл, чтобы не хранить у себя и внутренние и внешние адреса

cent
25.07.2018
19:06:27

Anton
25.07.2018
19:32:07

Михаил
25.07.2018
19:47:25

Vadim
25.07.2018
19:56:42
kustomize пока выглядит наименее безумно, если нет других условий - типа "остальной конфиг в ansible/chef"

Михаил
25.07.2018
20:02:48

Vadim
25.07.2018
20:03:02

Михаил
25.07.2018
20:03:21
Вообще мне нравится реализация openshift
Но там это в экосистеме

Vadim
25.07.2018
20:06:43

kvaps
25.07.2018
20:24:06

Nik
25.07.2018
20:32:34
Кто знает, редис нормально живет в кубах?
Много проблем с failover, если бы ip не менялись, то sentinel бы решал эту проблему. А так могут быть проблемы с выбором мастера.
Есть redis-ha, в целом он не плохой, только нужно statefulset + pvc ему

Google

Dmitry
25.07.2018
20:37:05
Работает, но иногда рассыпается наглухо

Fike
25.07.2018
20:38:11
это норма
точнее редис

Alex Milushev
25.07.2018
21:07:51
Кто-то запускает кластера кубера на амазоне с автоскейл группами и калико?

Pavel
25.07.2018
21:09:12
через ранчер можно
или сложными хелмами - видел такие, но не щупал

Alex Milushev
25.07.2018
21:24:59
Ненене
Ранчер в топку
Тут вопрос как выключиь souce/destination chek для инстансов в aws asg

Dmytro
25.07.2018
21:43:20

cent
25.07.2018
21:44:40
Да я уже понял, что нужно свои скрипты пилить, потому что готового вроде как нет (подобный issue на гитхабе так и застрял)

Dmytro
25.07.2018
21:44:44
мы например так крутим

Alex Milushev
25.07.2018
21:45:49
это kops по дефолту делает
Эм, надо посмотреть как, так как нативно в launch configuration и в настройках самого aws asg эту опцию выставить нельзя.

Dmytro
25.07.2018
21:46:39
хммм 2 года юзаю калико на AWS с ASG - этот флаг не нужен был
это новое у них что-то?

Google

Alex Milushev
25.07.2018
21:47:19
это новое у них что-то?
Since Calico assigns IP addresses outside the range used by AWS for EC2 instances, you must disable AWS src/dst checks on each EC2 instance in your cluster as described in the AWS documentation. This allows Calico to route traffic natively within a single VPC subnet without using an overlay or any of the limited VPC routing table entries.
И вот еще:
If you need to split your deployment across multiple AZs for high availability then each AZ will have its own VPC subnet. To use Calico across multiple different VPC subnets or peered VPCs, in addition to disabling src/dst checks as described above you must also enable IPIP encapsulation and outgoing NAT on your Calico IP pools.

Dmytro
25.07.2018
21:49:08
погоди, так тебе нужна калико между нодами или между контейнерами?

cent
25.07.2018
21:49:12

Alex Milushev
25.07.2018
21:49:37

Dmytro
25.07.2018
21:49:56
let's agree to disagree ?

Alex Milushev
25.07.2018
21:50:06

Dmytro
25.07.2018
21:51:23
обычно между нодами делают фланнел (или еще как) а калико только как overlay network для сети между подами

Alex Milushev
25.07.2018
21:53:00
Хотелось чистый calico, можно поприседать с автоматической установкой флага через lifecycle hook для asg (если это возможно конечно)
Но что-то не очень хочется

Dmytro
25.07.2018
21:58:21
а хотя я не прав, таки копс делает с одним калико https://github.com/kubernetes/kops/blob/master/docs/networking.md#enable-cross-subnet-mode-in-calico-aws-only
> In the case of AWS, EC2 instances have source/destination checks enabled by default. When you enable cross-subnet mode in kops, an addon controller (k8s-ec2-srcdst) will be deployed as a Pod (which will be scheduled on one of the masters) to facilitate the disabling of said source/destination address checks. Only the masters have the IAM policy (ec2:*) to allow k8s-ec2-srcdst to execute ec2:ModifyInstanceAttribute.
думаю, можно у копса стащить этот аддон и вкрутить себе

Alex Milushev
25.07.2018
21:59:56
Ну как вариант, да
Спасибо
Чертов aws блин

Dmytro
25.07.2018
22:00:47

Alex Milushev
25.07.2018
22:02:07
У нас что calico, что kube-proxy демонсеты. Flannel тоже был демонсетом, и есть, на другом кластере. Но тут нужны сетевые политики в которые flannel не умеет.

Dmytro
25.07.2018
22:02:39
Чертов aws блин
там в доке копса написано что это не обазательно
> Calico [since 2.1] supports a new option for IP-in-IP mode where traffic is only encapsulated when it’s destined to subnets with intermediate infrastructure lacking Calico route awareness – for example, across heterogeneous public clouds or on AWS where traffic is crossing availability zones/ regions.