@kubernetes_ru

Страница 222 из 958
Maksim
28.07.2017
12:19:10
мне все равно не нравится идея, что сервисы получаю адреса из реальной сети

Sergey
28.07.2017
12:19:23
в случае ipv6 например - вообще мастхев, но пока с этим трудности, емнип.

kvaps
28.07.2017
12:19:39
@spuzirev а кинь ссылочку где ты нашел, что так можно делать

Maksim
28.07.2017
12:19:41
ipv6 пока не так сильно работает...

Google
Sergey
28.07.2017
12:19:52
Maksim
28.07.2017
12:19:55
kvaps
28.07.2017
12:20:03
:))

Sergey
28.07.2017
12:20:06
Maksim
28.07.2017
12:20:16
@spuzirev а кинь ссылочку где ты нашел, что так можно делать
Мне кажется что если это услышат разрабы кубера, они с инфартом попадают)

эт как посмотреть.
Это где посмотреть)

Sergey
28.07.2017
12:20:35
Maksim
28.07.2017
12:20:45
и какую сеть ты на сервисы отводишь?

kvaps
28.07.2017
12:21:21
это был воторой вопрос, пока выбираю между weave и host-gw

Maksim
28.07.2017
12:21:30
с другой стороны у тебя адресса 10.0.0.0 в реалиях кубера существуют только на нодах с кубер-прокси

что?
сколько полезных битов сети на сервисах?

Sergey
28.07.2017
12:22:06
сколько полезных битов сети на сервисах?
ты о чем спрашиваешь? какого размера подсеть отвести на "сервисы"?

Google
Maksim
28.07.2017
12:22:16
да

Sergey
28.07.2017
12:22:17
ответ - такого какого нужно.

Maksim
28.07.2017
12:22:28
и это публичные адресса?

Sergey
28.07.2017
12:22:36
это публичные в пределах инфраструктуры адреса.

в случае большой v4-паблик сети - это были бы публичные белые адреса.

Maksim
28.07.2017
12:23:13
Я бы тебя задушил на месте сетевогоАрхитектора)

Sergey
28.07.2017
12:23:24
v4 сосет здесь. его надо обкладывать костылями: 1) наты 2) динамическая маршрутизация (или перерасход адресов) 3) так и до Route-Reflector'ов во внутренней инфраструктуре дойдем v6 позволяет выделить столько адресов на физическую ноду, сколько хватит не просто навечно, а до скончания веков.

Maksim
28.07.2017
12:24:55
Это ты сейчас v6 рекламируешь?)

Sergey
28.07.2017
12:25:11
это я сейчас страдаю и жалуюсь, что k8s c v6 пока дружит условно

Maksim
28.07.2017
12:25:43
Если я к своим сетевикам пойду с v6, то бежать отних я буду быстро))

и уворачиваться от разных снарядов)))

Max
28.07.2017
12:26:01
Плохо

Sergey
28.07.2017
12:26:05
нормальные сетевики примут тебя с распростертыми и скажут "давно бы"

а потом скажут "давай нахуй выпилим v4"

Maksim
28.07.2017
12:26:53
Тут столько нужно выпилить, что моим внукам хватит работы по перестройки сети

я на чуточку в крупнешей российском компании работаю)

Maksim
28.07.2017
12:27:32
тут одного оборудования нужно закуптьи на 1/3 ВВП страны

Google
Maksim
28.07.2017
12:27:44
Зелёной такой

Ivan
28.07.2017
12:27:50
а потом скажут "давай нахуй выпилим v4"
А на выходе 6to4 запилить, ага

Maksim
28.07.2017
12:28:03
в каждом городе по дцать штук

Max
28.07.2017
12:28:04
А, где карту получали, туда и идите

Maksim
28.07.2017
12:28:10
Ага

Sergey
28.07.2017
12:28:11
я на чуточку в крупнешей российском компании работаю)
действительно, ведь никто другой не умеет ничего строить.

а сбрф это лидер индустрии

ничего личного, но это не очень аргумент.

Maksim
28.07.2017
12:28:39
Я ен про стороить) я про перестраивать

Max
28.07.2017
12:28:49
А сколько своих дц у сбера?

Sergey
28.07.2017
12:28:52
если вы до сих пор на v4 и у вас нет адской боли - значит вы не такие уж и крупные

Ivan
28.07.2017
12:28:56
Maksim
28.07.2017
12:28:59
строить с нуля проще, чем переделывать эту чуртову фигню

чёт нет
Сарказм? Не не слышали)

Max
28.07.2017
12:29:33
Ну так интересно, про крупнейшее ИТ в России послушать)

Maksim
28.07.2017
12:30:02
Max
28.07.2017
12:30:18
Ну ок ок)

Я ещё слышал про эпический конфиг нджинкс на фронте сбер онлайна)

Maksim
28.07.2017
12:30:54
Но сети тут не мало) а заморочек ещё больше

Google
Sergey
28.07.2017
12:31:15
Ну так интересно, про крупнейшее ИТ в России послушать)
https://events.yandex.ru/lib/talks/380/ https://events.yandex.ru/lib/talks/2391/

Max
28.07.2017
12:31:25
На 300 с лишним локейшнов, с копипастой

Maksim
28.07.2017
12:31:33
Sergey
28.07.2017
12:31:39
Sergey
28.07.2017
12:31:46
copypaste - ваш друг

Max
28.07.2017
12:31:58
ничего страшного
Нене, соль не в количестве

Sergey
28.07.2017
12:32:14
Это я слушал уже)
https://code.facebook.com/posts/360346274145943/introducing-data-center-fabric-the-next-generation-facebook-data-center-network/

оно правда не про ipv6, но без ipv6 такие сети становится тяжеловато делать. собственно, фейсбук уехал.

Admin
ERROR: S client not available

Роман
28.07.2017
12:47:30
Запустить нужные сервисы на новой ноде и переписать конфиги у кублетов)
Вот, сгенерил я сертификаты на одной из нод (назовём её node-test), используя ca.crt. Подкинул манифесты с мастера на эту ноду. В итоге, смотрю get pods с мастера - реплики etcd-node-test, kube-apiserver-node-test, kube-controller-node-test и kube-scheduler-node-test. Смотрю get на node-test - ничего нет, только svc/kubernetes. Подтолкните в нужном направлении.

Maksim
28.07.2017
12:48:45
nodeSelector?

Роман
28.07.2017
12:51:47
nodeSelector?
У них нет nodeSelector

Maksim
28.07.2017
12:52:01
а дай деплой одно из

Роман
28.07.2017
12:54:06
а дай деплой одно из
Они, я так понял, из манифестов создаются. Сейчас.

Maksim
28.07.2017
12:54:42
ты же из kubeadm разворачивал усё?

Роман
28.07.2017
12:54:54
apiVersion: v1 kind: Pod metadata: annotations: scheduler.alpha.kubernetes.io/critical-pod: "" creationTimestamp: null labels: component: etcd tier: control-plane name: etcd namespace: kube-system spec: containers: - command: - etcd - —listen-client-urls=http://127.0.0.1:2379 - —advertise-client-urls=http://127.0.0.1:2379 - —data-dir=/var/lib/etcd image: gcr.io/google_containers/etcd-amd64:3.0.17 livenessProbe: failureThreshold: 8 httpGet: host: 127.0.0.1 path: /health port: 2379 scheme: HTTP initialDelaySeconds: 15 timeoutSeconds: 15 name: etcd resources: {} volumeMounts: - mountPath: /etc/ssl/certs name: certs - mountPath: /var/lib/etcd name: etcd - mountPath: /etc/kubernetes name: k8s readOnly: true hostNetwork: true securityContext: seLinuxOptions: type: spc_t volumes: - hostPath: path: /etc/ssl/certs name: certs - hostPath: path: /var/lib/etcd name: etcd - hostPath: path: /etc/kubernetes name: k8s status: {}

Maksim
28.07.2017
12:55:31
failureThreshold: 8 Ого)

поробуй как раз nodeSelector добавить...

Google
Maksim
28.07.2017
12:57:12
но меня не покидает чувству курицы и Яйца

etcd это осное хранилище, без которого кубер не воркает

но оно живёт в самом кубере)

- hostPath: path: /var/lib/etcd - Эти данные перенёс?

Роман
28.07.2017
12:59:31
Ого. Точно. Сейчас попробую...

Maksim
28.07.2017
13:00:00
скорее всего утебя всё упадёт..

и не сработает. там же схема что они все пишут и читают из etcd

kvaps
28.07.2017
13:00:22
внезапно его кстати можно вывесить на интерфейсы и это начнет работать
@spuzirev, сорри, не так тебя понял, то есть ты имел ввиду вручную вывесить на интерфейс? - или kubernetes это умеет сам делать?

Sergey
28.07.2017
13:00:42
@spuzirev, сорри, не так тебя понял, то есть ты имел ввиду вручную вывесить на интерфейс? - или kubernetes это умеет сам делать?
вручную конечно. и не просто вывесить, но еще и обеспечить роутинг этого трафика к месту, где вывесил.

Sergey
28.07.2017
13:00:47
это нетривиальный кейс, не слушай меня

kvaps
28.07.2017
13:01:26
у меня как раз такой, все хосты в одном L2-сегменте

Maksim
28.07.2017
13:01:55
у меня как раз такой, все хосты в одном L2-сегменте
тогда при разворачивания можешь написать это l2 сегмент как сеть сервисов

и нужным тебе сервисам назначать ClusterIP=IP на интерфейсе

правда вопрос как работает таблица маршрутизации...когда IP вести и в DNAT таблице и в Route таблицы

что там в ip route ) и адресации пакета в ядре оси)

но это проблема внутреннего трафика не внешнего, внешнему всё ок

kvaps
28.07.2017
13:04:16
думаю все будет прекрасно работать, сейчас реализовал это с помощью pipework, но хочу по нормальному переделать

то есть когда контейнер стартует, на хосте создается veth интерфейс, который одним концом в бридж - другим в контейнер

и ip на него вешается

Maksim
28.07.2017
13:05:19
не не

контейнер стратует в своей overlay сети

Страница 222 из 958