
Paul
24.03.2017
10:35:36
ну вот у брокады есть 32G порты - http://www.brocade.com/en/backend-content/pdf-page.html?/content/dam/common/documents/content-types/datasheet/brocade-x6-directors-ds.pdf
это слегка потормознее, но все равно уделывает локальный диск, как стоячего

yolkov
24.03.2017
10:36:55
Мультимастер не совсем корректное название, это в терминах СУБД имеется ввиду что можно одновремнно писать в разные, более корректо говорить высокодоступный кластер
и вот дока https://kubernetes.io/docs/admin/high-availability/
может поэтому чувак из гугла на коференции говорил что не существует мултимастера?

Google

Denis
24.03.2017
11:01:59
да :)
401й
омг

Anton
24.03.2017
12:02:07
взял испортил идилию

Denis
24.03.2017
12:08:44
Ад для перфекциониста?

Anton
24.03.2017
12:08:56
?

Andrey
24.03.2017
12:16:11
404 ждем

Alexander
24.03.2017
12:55:30

Paul
24.03.2017
12:57:41
даже 16гбит низколатентного хранилища быстрее локального диска. Мы спорим о терминологии, а вопрос-то по существу

Dmitry
24.03.2017
13:02:29
мастер - это etcd, apiserver, scheduler и controller-manager. при недоступности etcd, если это был единственный инстанс, не будет работать ничего. при падении apiserver сервисы, поды и все остальное продолжит работать, но никто не сможет использовать API кубов. если не работает scheduler или controller-manager - все изменения в конфигурации кластера не будут применяться и будут висеть в pending состоянии. я правильно написал?

Maksim
24.03.2017
13:05:46
они будут в том состоянии в котором умер schelduler и controller-manager

Dmitry
24.03.2017
13:18:13
если приложения в кубах активно с apiserver не взаимодействуют, то временная недоступность apiserver - ничего страшного?
пытаюсь понять, нужен ли мне HA setup

Google

Maksim
24.03.2017
13:29:38
Да в принцепе если и общаются...просто не смогут получать данные...типо ingress не будетполучать новые данные..
Имхо HA больше нужно для распределения нагрузки при большом кластере.

Dmitry
24.03.2017
13:43:12
спасибо

Zon
24.03.2017
15:19:29
Кто-то уже посмотрел на новое детище CoreOS + Helm https://github.com/app-registry?
Kubernetes Application Registry
Quay has been expanded to hold not only container images but entire applications as Helm charts. We collaborated with the Helm team (via SIG-Apps) to establish the new app-registry project and Helm plugin. The Application Registry allows you to pull an application/chart from Quay and then use it with Helm to deploy on Kubernetes.

M
25.03.2017
18:11:33
энибади, кто может объяснить как с помощью даемонсет работают калико или фланнел? сейчас у меня первым запускается фланнел, а потом докер использует его интерфей бриджом, как это может работать из ds? если докер уже запущен

Andrew
26.03.2017
08:08:05
Там есть разные подключения контейнеров к сети. Есть хостовые, которые работают как если без докера, и другие, которые уже используют фланнел и калико

M
26.03.2017
09:31:35

Andrew
26.03.2017
09:39:05
Каликошный демонсет нужен чтоб на каждой ноде был бгп, и всё
А бриджинг для упрощения доставки трафика к поду

Paul
26.03.2017
13:34:43
а видео со второго московского митапа убрано окончательно? Больше доступно не будет?

yolkov
27.03.2017
09:44:42
будет вроде, его монтируют, через недельку примерно

Fike
27.03.2017
23:12:05
https://www.habitat.sh а пользовал кто?

Denis
28.03.2017
06:33:47
Лендинг отличный)
Ребят, а кто как менеджит секреты с Kubernetes? Есть ли опыт работы с Vault?

Max
28.03.2017
07:28:22
я немного работал с Vault
но только чуть-чуть
(откровенно говоря думаю что он никакого особого толку не дает)

Paul
28.03.2017
09:12:58

Google

yolkov
28.03.2017
09:20:58
можно вот так
https://github.com/kelseyhightower/vault-controller
https://github.com/Boostport/kubernetes-vault

Paul
28.03.2017
09:55:51
спасибо. Но фраза "This is a prototype. Do not use this in production." слегка нервирует

yolkov
28.03.2017
09:56:21
там есть вторая ссылка, вообще у куба много беты, это не смущает?
и тут описана схема, мы ее дорабатывали

Paul
28.03.2017
10:51:54
нет, бета не смущает. Бета - это нормальный сервис, просто оттестирован слабо. Но когда пишут prototype - это значит, что там совсем все плохо.
коллеги, напомните пжлст, как снимать с ноды нагрузку. Способ был какой-то очень простой, но не могу сейчас вспомнить

Denis
28.03.2017
10:58:58

Paul
28.03.2017
10:59:59
хранение пользовательских ключей (они выдаются через vault), аудит доступа к ключам, CA.

Fike
28.03.2017
11:07:49

Paul
28.03.2017
11:08:11
да
он, спасибо

Fike
28.03.2017
11:13:19
я на самом деле только по докам с дрейном знаком D:

Paul
28.03.2017
11:16:32
ноды не мейнтейнишь принципиально? :)

Fike
28.03.2017
11:17:25
я сейчас работаю со всякой штукой из прошлого века. куб для меня (пока) остался только в доках.

Old
28.03.2017
11:23:39
Опубликовали видео со второго митапа https://habrahabr.ru/company/avito/blog/325026/

Михаил
28.03.2017
11:27:50
На следующем митапе будут обсуждать OpenShift и Ceph, не пропускайте!
уф
это че, писать придется доклад да?)

Old
28.03.2017
11:29:57
:) это скорее к Денису вопрос, в чатике выше вроде эти темы анонсировали, за что купил, за то и продал

Дмитрий
28.03.2017
12:12:09
Привет! Хотел спросить, кто нибудь с подобным сталкивался?
https://stackoverflow.com/questions/42852046/how-is-kubernetes-node-name-set

Google

Denis
28.03.2017
12:13:50

Михаил
28.03.2017
12:14:05

Paul
28.03.2017
12:21:38
коллеги, использующие weave и/или daemonset - подскажите пжлст, как пересоздать контейнеры после неудачного удаления pod?
сейчас система выглядит вот так: NAMESPACE NAME DESIRED CURRENT READY NODE-SELECTOR AGE
kube-system weave-net 3 3 0 <none> 1m

Maksim
28.03.2017
12:22:43
пуе зщ
get po
delete po/<podname>

Paul
28.03.2017
12:23:13
weave нету, сразу скажу
они просто не создаются

Maksim
28.03.2017
12:23:35
так покажи что с подами
ds пишет что 3 готово


Paul
28.03.2017
12:23:49
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system dnsmasq-411420702-zlb6g 1/1 Running 3 6d
kube-system dnsmasq-autoscaler-1155841093-jtznk 0/1 ContainerCreating 0 8m
kube-system kube-apiserver-app1 1/1 Running 4 6d
kube-system kube-apiserver-app2 1/1 Running 8 6d
kube-system kube-apiserver-app3 1/1 Running 11 6d
kube-system kube-controller-manager-app1 1/1 Running 9 6d
kube-system kube-controller-manager-app2 1/1 Running 13 6d
kube-system kube-controller-manager-app3 1/1 Running 18 6d
kube-system kube-proxy-app1 1/1 Running 168 1h
kube-system kube-proxy-app2 1/1 Running 174 5d
kube-system kube-proxy-app3 1/1 Running 181 5d
kube-system kube-scheduler-app1 1/1 Running 13 6d
kube-system kube-scheduler-app2 1/1 Running 12 6d
kube-system kube-scheduler-app3 1/1 Running 17 6d
kube-system kubedns-3830354952-nlkp5 0/3 Completed 0 22m
kube-system kubedns-autoscaler-54374881-rcswj 0/1 ContainerCreating 0 8m
kube-system kubernetes-dashboard-3203962772-cl3rs 0/1 Error 0 23m
должны быть weave
а их нет
CURRENT 3, READY - 0


Maksim
28.03.2017
12:25:00
да да , из-за смещения ошибся
describe ds weave-net
что там пишет?

Paul
28.03.2017
12:26:30
Name: weave-net
Image(s): weaveworks/weave-kube:1.9.4,weaveworks/weave-npc:1.9.4
Selector: name=weave-net
Node-Selector: <none>
Labels: name=weave-net
Desired Number of Nodes Scheduled: 3
Current Number of Nodes Scheduled: 3
Number of Nodes Misscheduled: 0
Pods Status: 0 Running / 0 Waiting / 0 Succeeded / 0 Failed
No events.

Denis
28.03.2017
12:26:58
wave?
Вроде же медленные

Google

Paul
28.03.2017
12:27:04
weave

Denis
28.03.2017
12:27:25
ну вдруг прокатит)
Где-нибудь там, далеко, могло бы прокатить, а у нас сказал - значит сделал :)

Paul
28.03.2017
12:27:35
когда я туда вытащу пользователей - переделывать будет поздно

Maksim
28.03.2017
12:32:22
я бы пошёл читать логи
мне ещё смушает 168 рестатротов на kube-proxy за 1 час

Paul
28.03.2017
12:32:54
ничего нет в логов
ну правильно - сети-то нет
он будет перегружаться, пока она не появится
и это не за час а всего

Maksim
28.03.2017
12:37:12
priviledged контейнеры разрешены?