
Sergey
11.12.2017
18:53:40
всмысле в стороночке на виртуалочке...? )

Anton
11.12.2017
18:54:23
Анонс видел, в aws теперь managed master ноды для к8с. Можно вообще с себя эти вопросы снять

Сергей
11.12.2017
18:54:38
мне на запрос дать потыкать даже не ответили

Google

Anton
11.12.2017
18:55:25
а куда его деть то?
В контейнере или стэнд алон. Имеется в виду не управлять кубером деплойментом етцд

Сергей
11.12.2017
18:56:31
https://github.com/aws/amazon-ecs-cni-plugins интеренсо будут ли они свой же плагин там юзать
там ipvlan - выглядит интересно

Sergey
11.12.2017
18:57:29

Volodimir
11.12.2017
19:07:28
Подскажите как запустить один под на один воркер без daemonset

Vitaliy
11.12.2017
19:19:54
1 под на любую 1 ноду?
Или сформируй вопрос правильно

Volodimir
11.12.2017
19:21:45

Oleg
11.12.2017
19:22:03

Vitaliy
11.12.2017
19:22:16
Ты не поверишь, Kind: Pod

Google

Paul
11.12.2017
19:22:27

Oleg
11.12.2017
19:22:45

Paul
11.12.2017
19:23:03

Evgeniy
11.12.2017
19:23:21

Volodimir
11.12.2017
19:23:40

Oleg
11.12.2017
19:23:54

Paul
11.12.2017
19:24:16

Volodimir
11.12.2017
19:24:29
Задача например обновить 10% pods

Oleg
11.12.2017
19:25:04

Paul
11.12.2017
19:26:06
Ceph хорош оказался?
значительно лучше гластера. Работает быстрее, большое коммюнити, активная разработка
очень много документации, хорошая система отладки и управления правами доступа

Oleg
11.12.2017
19:26:25
сильно сложнее развернуть?
и automatic provisoning есть?

Paul
11.12.2017
19:27:13
пока что - не нарадуюсь.
нет, не сильно. Там есть специальный инструмент, он здорово облегчает процесс развертывания. По цефу есть прекрасная книга, рекомендуется прочитать как минимум для общего развития.
да, storage class есть и работает отлично
цеф очень мощный и гибкий инструмент, главное – не лезть в него глубоко без четкого понимания, чего хочется добится. Он из коробки вполне неплохо работает
особенно, если кластер небольшой. Цеф очень чувствителен к качеству внутренней сети (по которой он синхронизируется). Гигабит возможен только, если кластер маленький. Если кластер большой - десятка будет маст хэв

Vitaliy
11.12.2017
19:29:33

Oleg
11.12.2017
19:32:35

Paul
11.12.2017
19:32:49

Google

Paul
11.12.2017
19:33:12
вам никто не мешает взять три машины, между собой связать их десяткой а до контейнеров кинуть единичку
просто при фейле диска у вас начнется пересинхронизация томов. Всех томов

Oleg
11.12.2017
19:34:08
ну это явно решение для приватного облака на своем железе

Paul
11.12.2017
19:35:14
не обязательно облако. Ну да
если у вас публичное облако - покупаете провайдера стораджа просто
зачем вам его реализовывать?
готовое же есть

Oleg
11.12.2017
19:36:10
ну я вообще за то чтобы от проприетарщины вендора не зависеть

Paul
11.12.2017
19:37:45

Oleg
11.12.2017
19:38:40
я скорее за то чтобы покупать ноды

Sergey
11.12.2017
19:43:54

Paul
11.12.2017
19:47:07

Paul
11.12.2017
19:47:27
по-хорошему нужно ставить три машины под цеф, три под мастер и N+1 под ноды

Sergey
11.12.2017
19:51:26
ясно, спасибо.

Сергей
11.12.2017
19:52:09
цеф любит память кушать. особенно на процессе ребаланса
так что его совмещать на одной ноде с воркер нодами кубера - так себе затея

Paul
11.12.2017
19:52:23

Сергей
11.12.2017
19:52:33
оом похуй что килять

Paul
11.12.2017
19:52:35
у меня просто их физически три - не дали больше под испытания
я лимиты лапками рихтую, благо нагрузка плевая. Будет нормальная нагрузка - воркеры уедут

Google

Сергей
11.12.2017
19:53:48
ну я больше для тех, кто решит ceph с кубером в один кластер на проде собирать

Paul
11.12.2017
19:54:05
да, замечание верное

Sergey
11.12.2017
19:54:06

Paul
11.12.2017
19:54:19
лучше уж воркеров на на мастерах запускать :)))

Сергей
11.12.2017
19:54:27
хотя я знаю одного извращенца, который через сигруппу ограничил потребление памяти дл яосд (ссзб) и вырубил на процесс osd oom

Sergey
11.12.2017
19:54:30

Paul
11.12.2017
19:54:32

Сергей
11.12.2017
19:55:28

Admin
ERROR: S client not available

Paul
11.12.2017
19:55:37

Сергей
11.12.2017
19:55:37
я одну ноду из кластера погасил

Sergey
11.12.2017
19:55:57

Сергей
11.12.2017
19:56:22

Paul
11.12.2017
19:56:26

Сергей
11.12.2017
19:56:40

Paul
11.12.2017
19:56:54

Сергей
11.12.2017
19:56:55
плюс и нюанс был - пошли сыпатьс ядиски на других нодах
осд выжрали всю память, а потом кластер сказал - ой все

Google

Paul
11.12.2017
19:58:11
ну кластеры вообще не любят, когда из ОСД табуретки выдергивают

Сергей
11.12.2017
19:59:13
ну таб было желание в пяток нод вообще воткнуть тер рав места, слава богу оно обосралось на этапе тестирования
проблема метса в стойках, руководство хотело сыкономить

Ihor
11.12.2017
20:30:31
ну как по мне, что ыб им начать приводить документацию в порядок, надо на какой-то момент сделать фича фриз и договориться об апи
Feature freeze у нас происходит каждый релиз-цикл.
Если под feature freeze вы имеете ввиду приостановку работы над фичами проекта вообще, то такого не будет, по вполне очевидным причинам. Тем более что за последний год мы сильно сдвинулись в сторону вынесения всего по максимуму из core. Абсолютное большинство новых фич в последних релизах - это экстеншны.
Сам core API вполне стабилен, последние крупных изменения - именно в 1.9, с Workloads API, где она стал стабильным.
Стабильные API менять точно не будут, как минимум до 2.0 (который мы еще даже не планируем).


Сергей
11.12.2017
20:40:46
или желания
или людей
да на гитхабе в ишь/ много чего можно найти - но это не документация)


Ihor
11.12.2017
20:42:01
или людей
this.
Со временем и желанием все более чем хорошо. Поэтому если есть желание контрибьютить - велкам.
К слову, о документации.
Мы планируем делать документацию Kubernetes доступной не только на английском языке, и сейчас уже ее переводят на китайский.
Если у кого-то есть желание запустить эту же инициативу для русского (или других языков) - дайте мне знать.

Сергей
11.12.2017
20:44:12
Ну я пока не имею. Какого-то практического опыта сильно выходящего за пределы той части ты документации что есть
Пора учить английский


Volodimir
11.12.2017
20:52:33
В гугле есть вся инфа на этот счет
Да я не прошу в деталях. Мне просто направление дайте.
1. Задача запускать ворке на одной ноду.
тоесть один под один хост (при этом всё скейлиться ) тоесть при добавление ноды
на ней автоматически запускаеться pod. чем лучше такой функцилонал использовать?
2. При выше сказанном нужна возможнсть обновлять эти поды в процентном или количественном соотношении.
я понимая что кубер это всё умеет например daemonset он мне подходит даже очень
но судя по докам https://kubernetes.io/docs/tasks/manage-daemon/update-daemon-set/ он не умеет canary update
Значит что то другое. А replication монжно как то заставить делать под под на одну ноду при условии автоскейла?

Anatoliy
11.12.2017
21:03:23

Volodimir
11.12.2017
21:04:24

Anatoliy
11.12.2017
21:05:00
это к кому вопрос?
к вам) у вас же написано что умеет, вот интересно как. я в принципе могу себе представить подобеную ситуацию, но там поизвращаться немного придется

Volodimir
11.12.2017
21:05:23
daemonset
разве нет ?