@kubernetes_ru

Страница 148 из 958
Paul
24.03.2017
10:35:36
ну вот у брокады есть 32G порты - http://www.brocade.com/en/backend-content/pdf-page.html?/content/dam/common/documents/content-types/datasheet/brocade-x6-directors-ds.pdf это слегка потормознее, но все равно уделывает локальный диск, как стоячего

yolkov
24.03.2017
10:36:55
Мультимастер не совсем корректное название, это в терминах СУБД имеется ввиду что можно одновремнно писать в разные, более корректо говорить высокодоступный кластер

и вот дока https://kubernetes.io/docs/admin/high-availability/

может поэтому чувак из гугла на коференции говорил что не существует мултимастера?

Google
Denis
24.03.2017
11:01:59
да :)

401й

омг

Anton
24.03.2017
12:02:07
взял испортил идилию

Denis
24.03.2017
12:08:44
Ад для перфекциониста?

Anton
24.03.2017
12:08:56
?

Andrey
24.03.2017
12:16:11
404 ждем

Alexander
24.03.2017
12:55:30
ну вот у брокады есть 32G порты - http://www.brocade.com/en/backend-content/pdf-page.html?/content/dam/common/documents/content-types/datasheet/brocade-x6-directors-ds.pdf это слегка потормознее, но все равно уделывает локальный диск, как стоячего
Конвергентная сеть ? Ну 32Гб слишком дорого. В FC сетях все равно ставят по две карточки. У меня еще лет 7 назад было во всех серверах 2 карты по два порта. И того 4*4=16Gb на сервер

Paul
24.03.2017
12:57:41
даже 16гбит низколатентного хранилища быстрее локального диска. Мы спорим о терминологии, а вопрос-то по существу

Dmitry
24.03.2017
13:02:29
мастер - это etcd, apiserver, scheduler и controller-manager. при недоступности etcd, если это был единственный инстанс, не будет работать ничего. при падении apiserver сервисы, поды и все остальное продолжит работать, но никто не сможет использовать API кубов. если не работает scheduler или controller-manager - все изменения в конфигурации кластера не будут применяться и будут висеть в pending состоянии. я правильно написал?

Maksim
24.03.2017
13:05:46
они будут в том состоянии в котором умер schelduler и controller-manager

Dmitry
24.03.2017
13:18:13
если приложения в кубах активно с apiserver не взаимодействуют, то временная недоступность apiserver - ничего страшного?

пытаюсь понять, нужен ли мне HA setup

Google
Maksim
24.03.2017
13:29:38
Да в принцепе если и общаются...просто не смогут получать данные...типо ingress не будетполучать новые данные..

Имхо HA больше нужно для распределения нагрузки при большом кластере.

Dmitry
24.03.2017
13:43:12
спасибо

Zon
24.03.2017
15:19:29
Кто-то уже посмотрел на новое детище CoreOS + Helm https://github.com/app-registry?

Kubernetes Application Registry Quay has been expanded to hold not only container images but entire applications as Helm charts. We collaborated with the Helm team (via SIG-Apps) to establish the new app-registry project and Helm plugin. The Application Registry allows you to pull an application/chart from Quay and then use it with Helm to deploy on Kubernetes.

M
25.03.2017
18:11:33
энибади, кто может объяснить как с помощью даемонсет работают калико или фланнел? сейчас у меня первым запускается фланнел, а потом докер использует его интерфей бриджом, как это может работать из ds? если докер уже запущен

Andrew
26.03.2017
08:08:05
Там есть разные подключения контейнеров к сети. Есть хостовые, которые работают как если без докера, и другие, которые уже используют фланнел и калико

M
26.03.2017
09:31:35
Там есть разные подключения контейнеров к сети. Есть хостовые, которые работают как если без докера, и другие, которые уже используют фланнел и калико
спасибо, таким образом тот компонент, что объединяет докеры в бридж он не является обязательным? докер интерфейс может запуститься со своей стандартной сеткой 172.17 и все будет работать? или эти даемосеты настраиваются как дополнения к первым?

Andrew
26.03.2017
09:39:05
Каликошный демонсет нужен чтоб на каждой ноде был бгп, и всё

А бриджинг для упрощения доставки трафика к поду

Paul
26.03.2017
13:34:43
а видео со второго московского митапа убрано окончательно? Больше доступно не будет?

yolkov
27.03.2017
09:44:42
будет вроде, его монтируют, через недельку примерно

Fike
27.03.2017
23:12:05
https://www.habitat.sh а пользовал кто?

Denis
28.03.2017
06:33:47
Лендинг отличный)

Ребят, а кто как менеджит секреты с Kubernetes? Есть ли опыт работы с Vault?

Max
28.03.2017
07:28:22
я немного работал с Vault

но только чуть-чуть

(откровенно говоря думаю что он никакого особого толку не дает)

Paul
28.03.2017
09:12:58
Ребят, а кто как менеджит секреты с Kubernetes? Есть ли опыт работы с Vault?
Я работаю с волт, но он у меня отдельно, как скрестить с кубом пока не понимаю

Google
yolkov
28.03.2017
09:20:58
можно вот так https://github.com/kelseyhightower/vault-controller https://github.com/Boostport/kubernetes-vault

Paul
28.03.2017
09:55:51
спасибо. Но фраза "This is a prototype. Do not use this in production." слегка нервирует

yolkov
28.03.2017
09:56:21
там есть вторая ссылка, вообще у куба много беты, это не смущает?

и тут описана схема, мы ее дорабатывали

Paul
28.03.2017
10:51:54
нет, бета не смущает. Бета - это нормальный сервис, просто оттестирован слабо. Но когда пишут prototype - это значит, что там совсем все плохо. коллеги, напомните пжлст, как снимать с ноды нагрузку. Способ был какой-то очень простой, но не могу сейчас вспомнить

Denis
28.03.2017
10:58:58
Я работаю с волт, но он у меня отдельно, как скрестить с кубом пока не понимаю
А какие волт покрывает задачи? ключи SSH он регенерирует?

Paul
28.03.2017
10:59:59
хранение пользовательских ключей (они выдаются через vault), аудит доступа к ключам, CA.

Paul
28.03.2017
11:08:11
да

он, спасибо

имеется в виду дрейн или что-то другое?
для возвращения обратно достаточно uncordon сделать?

Fike
28.03.2017
11:13:19
я на самом деле только по докам с дрейном знаком D:

Paul
28.03.2017
11:16:32
ноды не мейнтейнишь принципиально? :)

Fike
28.03.2017
11:17:25
я сейчас работаю со всякой штукой из прошлого века. куб для меня (пока) остался только в доках.

Old
28.03.2017
11:23:39
Опубликовали видео со второго митапа https://habrahabr.ru/company/avito/blog/325026/

Михаил
28.03.2017
11:27:50
На следующем митапе будут обсуждать OpenShift и Ceph, не пропускайте!

уф

это че, писать придется доклад да?)

Old
28.03.2017
11:29:57
:) это скорее к Денису вопрос, в чатике выше вроде эти темы анонсировали, за что купил, за то и продал

Дмитрий
28.03.2017
12:12:09
Привет! Хотел спросить, кто нибудь с подобным сталкивался? https://stackoverflow.com/questions/42852046/how-is-kubernetes-node-name-set

Google
Denis
28.03.2017
12:13:50
Михаил
28.03.2017
12:14:05
А ты думал избежать? :)
ну вдруг прокатит)

Paul
28.03.2017
12:21:38
коллеги, использующие weave и/или daemonset - подскажите пжлст, как пересоздать контейнеры после неудачного удаления pod? сейчас система выглядит вот так: NAMESPACE NAME DESIRED CURRENT READY NODE-SELECTOR AGE kube-system weave-net 3 3 0 <none> 1m

Maksim
28.03.2017
12:22:43
пуе зщ

get po

delete po/<podname>

Paul
28.03.2017
12:23:13
weave нету, сразу скажу

они просто не создаются

Maksim
28.03.2017
12:23:35
так покажи что с подами

ds пишет что 3 готово

Paul
28.03.2017
12:23:49
NAMESPACE NAME READY STATUS RESTARTS AGE kube-system dnsmasq-411420702-zlb6g 1/1 Running 3 6d kube-system dnsmasq-autoscaler-1155841093-jtznk 0/1 ContainerCreating 0 8m kube-system kube-apiserver-app1 1/1 Running 4 6d kube-system kube-apiserver-app2 1/1 Running 8 6d kube-system kube-apiserver-app3 1/1 Running 11 6d kube-system kube-controller-manager-app1 1/1 Running 9 6d kube-system kube-controller-manager-app2 1/1 Running 13 6d kube-system kube-controller-manager-app3 1/1 Running 18 6d kube-system kube-proxy-app1 1/1 Running 168 1h kube-system kube-proxy-app2 1/1 Running 174 5d kube-system kube-proxy-app3 1/1 Running 181 5d kube-system kube-scheduler-app1 1/1 Running 13 6d kube-system kube-scheduler-app2 1/1 Running 12 6d kube-system kube-scheduler-app3 1/1 Running 17 6d kube-system kubedns-3830354952-nlkp5 0/3 Completed 0 22m kube-system kubedns-autoscaler-54374881-rcswj 0/1 ContainerCreating 0 8m kube-system kubernetes-dashboard-3203962772-cl3rs 0/1 Error 0 23m

должны быть weave

а их нет

CURRENT 3, READY - 0

Maksim
28.03.2017
12:25:00
да да , из-за смещения ошибся

describe ds weave-net

что там пишет?

Paul
28.03.2017
12:26:30
Name: weave-net Image(s): weaveworks/weave-kube:1.9.4,weaveworks/weave-npc:1.9.4 Selector: name=weave-net Node-Selector: <none> Labels: name=weave-net Desired Number of Nodes Scheduled: 3 Current Number of Nodes Scheduled: 3 Number of Nodes Misscheduled: 0 Pods Status: 0 Running / 0 Waiting / 0 Succeeded / 0 Failed No events.

Denis
28.03.2017
12:26:58
wave?

Вроде же медленные

Google
Paul
28.03.2017
12:27:04
weave

Denis
28.03.2017
12:27:25
ну вдруг прокатит)
Где-нибудь там, далеко, могло бы прокатить, а у нас сказал - значит сделал :)

Paul
28.03.2017
12:27:35
Вроде же медленные
предлагаешь калико? я могу попробовать, пока кластер пустой

когда я туда вытащу пользователей - переделывать будет поздно

Maksim
28.03.2017
12:32:22
я бы пошёл читать логи

мне ещё смушает 168 рестатротов на kube-proxy за 1 час

Paul
28.03.2017
12:32:54
ничего нет в логов

ну правильно - сети-то нет он будет перегружаться, пока она не появится

и это не за час а всего

Maksim
28.03.2017
12:37:12
priviledged контейнеры разрешены?

Страница 148 из 958