
Maksim
28.07.2017
12:19:10
мне все равно не нравится идея, что сервисы получаю адреса из реальной сети

Sergey
28.07.2017
12:19:23
в случае ipv6 например - вообще мастхев, но пока с этим трудности, емнип.

kvaps
28.07.2017
12:19:39
@spuzirev а кинь ссылочку где ты нашел, что так можно делать

Maksim
28.07.2017
12:19:41
ipv6 пока не так сильно работает...

Google

Sergey
28.07.2017
12:19:52

Maksim
28.07.2017
12:19:55

kvaps
28.07.2017
12:20:03
:))

Sergey
28.07.2017
12:20:06

Maksim
28.07.2017
12:20:16

Sergey
28.07.2017
12:20:35

Maksim
28.07.2017
12:20:45
и какую сеть ты на сервисы отводишь?

Sergey
28.07.2017
12:21:13

kvaps
28.07.2017
12:21:21
это был воторой вопрос, пока выбираю между weave и host-gw

Maksim
28.07.2017
12:21:30
с другой стороны у тебя адресса 10.0.0.0 в реалиях кубера существуют только на нодах с кубер-прокси
что?
сколько полезных битов сети на сервисах?

Sergey
28.07.2017
12:22:06

Google

Maksim
28.07.2017
12:22:16
да

Sergey
28.07.2017
12:22:17
ответ - такого какого нужно.

Maksim
28.07.2017
12:22:28
и это публичные адресса?

Sergey
28.07.2017
12:22:36
это публичные в пределах инфраструктуры адреса.
в случае большой v4-паблик сети - это были бы публичные белые адреса.

Maksim
28.07.2017
12:23:13
Я бы тебя задушил на месте сетевогоАрхитектора)

Sergey
28.07.2017
12:23:24
v4 сосет здесь.
его надо обкладывать костылями:
1) наты
2) динамическая маршрутизация (или перерасход адресов)
3) так и до Route-Reflector'ов во внутренней инфраструктуре дойдем
v6 позволяет выделить столько адресов на физическую ноду, сколько хватит не просто навечно, а до скончания веков.

Maksim
28.07.2017
12:24:55
Это ты сейчас v6 рекламируешь?)

Sergey
28.07.2017
12:25:11
это я сейчас страдаю и жалуюсь, что k8s c v6 пока дружит условно

Maksim
28.07.2017
12:25:43
Если я к своим сетевикам пойду с v6, то бежать отних я буду быстро))
и уворачиваться от разных снарядов)))

Max
28.07.2017
12:26:01
Плохо

Sergey
28.07.2017
12:26:05
нормальные сетевики примут тебя с распростертыми и скажут "давно бы"
а потом скажут "давай нахуй выпилим v4"

Maksim
28.07.2017
12:26:53
Тут столько нужно выпилить, что моим внукам хватит работы по перестройки сети
я на чуточку в крупнешей российском компании работаю)

Max
28.07.2017
12:27:29

Maksim
28.07.2017
12:27:32
тут одного оборудования нужно закуптьи на 1/3 ВВП страны

Google

Maksim
28.07.2017
12:27:44
Зелёной такой

Ivan
28.07.2017
12:27:50

Maksim
28.07.2017
12:28:03
в каждом городе по дцать штук

Max
28.07.2017
12:28:04
А, где карту получали, туда и идите

Maksim
28.07.2017
12:28:10
Ага

Sergey
28.07.2017
12:28:11
а сбрф это лидер индустрии
ничего личного, но это не очень аргумент.

Maksim
28.07.2017
12:28:39
Я ен про стороить) я про перестраивать

Max
28.07.2017
12:28:49
А сколько своих дц у сбера?

Sergey
28.07.2017
12:28:52
если вы до сих пор на v4 и у вас нет адской боли - значит вы не такие уж и крупные

Ivan
28.07.2017
12:28:56

Maksim
28.07.2017
12:28:59
строить с нуля проще, чем переделывать эту чуртову фигню

Max
28.07.2017
12:29:33
Ну так интересно, про крупнейшее ИТ в России послушать)

Maksim
28.07.2017
12:30:02

Max
28.07.2017
12:30:18
Ну ок ок)
Я ещё слышал про эпический конфиг нджинкс на фронте сбер онлайна)

Maksim
28.07.2017
12:30:54
Но сети тут не мало) а заморочек ещё больше

Google

Sergey
28.07.2017
12:31:15

Max
28.07.2017
12:31:25
На 300 с лишним локейшнов, с копипастой

Maksim
28.07.2017
12:31:33

Sergey
28.07.2017
12:31:39

Max
28.07.2017
12:31:46

Sergey
28.07.2017
12:31:46
copypaste - ваш друг

Max
28.07.2017
12:31:58

Sergey
28.07.2017
12:32:14
Это я слушал уже)
https://code.facebook.com/posts/360346274145943/introducing-data-center-fabric-the-next-generation-facebook-data-center-network/
оно правда не про ipv6, но без ipv6 такие сети становится тяжеловато делать. собственно, фейсбук уехал.

Admin
ERROR: S client not available

Роман
28.07.2017
12:47:30
Запустить нужные сервисы на новой ноде и переписать конфиги у кублетов)
Вот, сгенерил я сертификаты на одной из нод (назовём её node-test), используя ca.crt. Подкинул манифесты с мастера на эту ноду. В итоге, смотрю get pods с мастера - реплики etcd-node-test, kube-apiserver-node-test, kube-controller-node-test и kube-scheduler-node-test. Смотрю get на node-test - ничего нет, только svc/kubernetes. Подтолкните в нужном направлении.

Maksim
28.07.2017
12:48:45
nodeSelector?

Роман
28.07.2017
12:51:47

Maksim
28.07.2017
12:52:01
а дай деплой одно из

Роман
28.07.2017
12:54:06

Maksim
28.07.2017
12:54:42
ты же из kubeadm разворачивал усё?


Роман
28.07.2017
12:54:54
apiVersion: v1
kind: Pod
metadata:
annotations:
scheduler.alpha.kubernetes.io/critical-pod: ""
creationTimestamp: null
labels:
component: etcd
tier: control-plane
name: etcd
namespace: kube-system
spec:
containers:
- command:
- etcd
- —listen-client-urls=http://127.0.0.1:2379
- —advertise-client-urls=http://127.0.0.1:2379
- —data-dir=/var/lib/etcd
image: gcr.io/google_containers/etcd-amd64:3.0.17
livenessProbe:
failureThreshold: 8
httpGet:
host: 127.0.0.1
path: /health
port: 2379
scheme: HTTP
initialDelaySeconds: 15
timeoutSeconds: 15
name: etcd
resources: {}
volumeMounts:
- mountPath: /etc/ssl/certs
name: certs
- mountPath: /var/lib/etcd
name: etcd
- mountPath: /etc/kubernetes
name: k8s
readOnly: true
hostNetwork: true
securityContext:
seLinuxOptions:
type: spc_t
volumes:
- hostPath:
path: /etc/ssl/certs
name: certs
- hostPath:
path: /var/lib/etcd
name: etcd
- hostPath:
path: /etc/kubernetes
name: k8s
status: {}


Maksim
28.07.2017
12:55:31
failureThreshold: 8 Ого)
поробуй как раз nodeSelector добавить...

Google

Maksim
28.07.2017
12:57:12
но меня не покидает чувству курицы и Яйца
etcd это осное хранилище, без которого кубер не воркает
но оно живёт в самом кубере)
- hostPath:
path: /var/lib/etcd - Эти данные перенёс?

Роман
28.07.2017
12:59:31
Ого. Точно. Сейчас попробую...

Maksim
28.07.2017
13:00:00
скорее всего утебя всё упадёт..
и не сработает. там же схема что они все пишут и читают из etcd

kvaps
28.07.2017
13:00:22

Sergey
28.07.2017
13:00:42

Maksim
28.07.2017
13:00:44

Sergey
28.07.2017
13:00:47
это нетривиальный кейс, не слушай меня

kvaps
28.07.2017
13:01:26
у меня как раз такой, все хосты в одном L2-сегменте

Maksim
28.07.2017
13:01:55
и нужным тебе сервисам назначать ClusterIP=IP на интерфейсе
правда вопрос как работает таблица маршрутизации...когда IP вести и в DNAT таблице и в Route таблицы
что там в ip route ) и адресации пакета в ядре оси)
но это проблема внутреннего трафика не внешнего, внешнему всё ок

kvaps
28.07.2017
13:04:16
думаю все будет прекрасно работать, сейчас реализовал это с помощью pipework, но хочу по нормальному переделать
то есть когда контейнер стартует, на хосте создается veth интерфейс, который одним концом в бридж - другим в контейнер
и ip на него вешается

Maksim
28.07.2017
13:05:19
не не
контейнер стратует в своей overlay сети