
Igor
10.12.2017
10:12:53

Evgeniy
10.12.2017
11:00:02
спасибо. Посмотрю

Алексей
10.12.2017
12:32:50
господа, тут есть люди бросившие сварм ? если есть почему бросили и перешли на кубернетис?

Сергей
10.12.2017
12:37:47

Google

Алексей
10.12.2017
12:38:12
тот который старый скучен.

Сергей
10.12.2017
12:38:23

Алексей
10.12.2017
12:38:41
это недостаточно альтернативный вопрос.

Сергей
10.12.2017
12:38:58
чем старый сварм скучен?
чего в нем не хватает?

Алексей
10.12.2017
12:39:21
тем что никак не относится к заданному вопросу.

Сергей
10.12.2017
12:40:49
в вопросе нет разделения на сварм стэндэлон и сварм мод (который свармкит)

Алексей
10.12.2017
12:41:20
мне ответ на вопрос а не полемику. спасибо.

Сергей
10.12.2017
12:42:10
херовая реализация рафт протокола в сварм моде, когда при большом колличестве нод выбор нового лидера занимал порядка 40 минут
колличество нод было чуть меньше 100
такой ответ устроит?

Алексей
10.12.2017
12:42:45
да. можно ссылку ?

Сергей
10.12.2017
12:43:06
при чем самих мастеров было 3

Google

Сергей
10.12.2017
12:43:16
это тупо свое внутренее тестирование было
у людей еще были приколы, когда из трех мастеров выпадало два и калстер вообще развалилвался
хотя один мастер был еще жив
у них выбор мастера не заканчивался
на сколько я помню, даже ишью было на эту тему

Bsod
10.12.2017
12:45:43
мне просто кубер удобнее юзать нежели сварм

Алексей
10.12.2017
12:46:08
вот я как раз про ишью. ибо в докере часто бывает что то то не поняли и сделали не так. или есть граничные условия почему оно ведет себя так а не иначе

Сергей
10.12.2017
12:47:01
хотя у докера есть фича спромоутить воркер в мастер
плюс был момент с увеличением шедулинга с ростом колличества сервисов в кластере
это я видел по ишью на гитхабе

Paul
10.12.2017
13:04:09

Алексей
10.12.2017
13:04:40
можно чуть больше букв ?

Paul
10.12.2017
13:05:29
он крайне нестабильно работал у меня: постоянно происходили перевыборы мастера, падали ноды. Очень сильно жрался проц на сетевых взаимодействиях, вообще меж-нодная сеть работала очень плохо

Алексей
10.12.2017
13:06:00
плохо это медленно или плохо это потери ?

Paul
10.12.2017
13:06:22
медленно и потери. и проц жрется очень

Evgeniy
10.12.2017
14:54:07

Алексей
10.12.2017
14:54:29
что там за жесть ?

Evgeniy
10.12.2017
14:55:50
А есть где-то мануал как локально поднять kubespray на вагранте? Чтобы на ноуте взлетело.
Я вроде когда-то видел видео, где один индус подобное делал. Но сейчас не могу найти.
А в kubespray нет папочки vagrant/config.rb.default или подобного шаблона
что там за жесть ?
Ну, мы еще systemd внутри контейнеров гоняли. Что тоже не есть тру вей. Но постоянно ложило digitalocean.
Локально тоже иногда докер ложил систему.
Там было много всяких фишек.
Но самая главная, которая запомнилась: запустить docker-compose.yml, потом подправить этот файлик и попробовать через докер-композе остановить контейнеры.
В обще, если хочется заморочиться, то крайне советую)))

Google

Evgeniy
10.12.2017
15:04:39
Или не нужен vagrant/config.rb ? Я просто уже не сильно и помню как вагрант конфигурится? Но что-то не вижу, чтобы что-то из конфига бралось.

Sergey
10.12.2017
15:17:53
что там за жесть ?
Не то чтобы жесть, но и не сахар.
Помимо очевидных вещей в духе организации отказоустойчивости своими силами (деплой двух виртуалок с докер компосе), отсуствия сервис дискавери и единой шины логов, docker-compose регулярно подглючивал при редеплое контейнера (не мог консистентно потушить старый stateless контейнер). Имел с таким дело на latest centos7 чуть более года назад.

Evgeniy
10.12.2017
15:19:50
А новый вагрант на старый vb не сядет, да?
Ну, вот кто рубишные проекты продвигает в стандарты разработки?
Нужно сразу говорить: "Нет, дорогой, переведи-ка на Go или хотя бы на python, а потом приходи"))

Sergey
10.12.2017
15:24:21
может быть вам в девпос_ру или клауд_флуд?

Evgeniy
10.12.2017
15:24:45
А при запуске kubespray на vagrant тачках, ansible дергается внутри какой-то из них, правильно?
Просто выдало ошибку https://dpaste.de/Df4z/raw .
Или это на локальной тачке дернулся плейбук?
https://dpaste.de/7a5j/raw - правильно ли я понимаю, что master в kubespray не работает?
У кого-нибудь был положительный опыт запуска kubespray на vagrant тачках?
На какой версии получилось?
Потому что с версией HEAD detached at v2.3.0 тоже есть проблемы....

Let Eat
10.12.2017
21:25:34
Расстрелять все инсталлеры. Поднять пять демонов и прописать их друг в друга должен уметь каждый

Paul
10.12.2017
23:20:54

Alexey
11.12.2017
07:39:28
Кто знает - можно ли использовать перменные в volumes?
что-то вроде такого
volumes:
- name: data
hostPath:
path: /opt/cluster/$HOSTNAME
чтоб монтировалась папка и именем пода

Anton
11.12.2017
07:48:11
так точно не взлетит

Alexey
11.12.2017
08:59:15
Посоны, может кто-нибудь здесь игрался со scheduler policies или знает очень хорошо как работает scheduler. Как мне замутить так, чтобы k8s разворачивал поды только на одной ноде до конца всех ресурсов(allocatable resources) на ней, а уже потом начинал разворачивать на другой ноде и так по порядку. Типа есть 4 ноды. Сначала он берёт какую-то одну, потом если вдруг нужно ещё докинуть подов, он забивает первую полностью, потом берёт вторую и т.д.

Sergey
11.12.2017
09:00:10

Dmitry
11.12.2017
09:03:23
из своего опыта скажу что в документации кубера нет описаний подобной практики, там наоборот стараются размазать поды равномерно по всем нодам

Maksim
11.12.2017
09:04:55

Dmitry
11.12.2017
09:04:57
смотри как можно сделать, дело в том что шедулер не знает сколько ресурсов займет под, эти ресурсы указываешь ты сам в конфиге, тогда если их ты сам указываешь ты можешь сам и указать конкретную ноду где запустить этот под

Alexey
11.12.2017
09:04:57
@dmitrz Но есть кейсы с автоскейлингом и есть priority функция MostRequestedPriority. Проблема в том, что она работает немного не так как надо. Она сначала размажет несолько подов по всем нодам, а потом пойдёт добивать ноды.

Google

Let Eat
11.12.2017
09:07:01

Alexey
11.12.2017
09:07:15
@dmitrz У меня просто автоскейлинг нод работает. Хочется оптимизировать потребление и не сжигать деньги.

Dmitry
11.12.2017
09:08:11
а нельзя его сделать средствами самого облака?
чтоб когда на виртуалки заканчивались ресурсы запускалась новая, и там кубелет автоматом добавляет ее в кластер
и вот новые поды запускаются на новой ноде

Let Eat
11.12.2017
09:09:28

Anatoliy
11.12.2017
09:25:16

Admin
ERROR: S client not available

Let Eat
11.12.2017
09:26:48

Anatoliy
11.12.2017
09:27:13
а зачем разворачивать новую ноду на 50% ?

Let Eat
11.12.2017
09:27:59
Поды на статичны

Anatoliy
11.12.2017
09:28:03
есть 10 нод, все загружены на 20%, грузятся на 30-40 и т.д. до 95 в среднем. В этом случае добавляем еще одну ноду, и среднее значение проседает

Let Eat
11.12.2017
09:28:47

Anatoliy
11.12.2017
09:29:01
так уберите 4 лишние и будет вам то что вы хотите
остальные поды ведь поднимутся автоматом на других нодах, их нагрузка вырастет
что не так? просто считаем именно среднюю нагрузку по всему кластеру
автоскейлинг ведь должен на что-то опираться, так?)

Let Eat
11.12.2017
09:38:01

Anatoliy
11.12.2017
09:38:31
Я согласен что не старается, но если у него варианта нет он их что, запускать перестанет?

Google

Alexey
11.12.2017
09:40:57
Нет, всё работает прекрасно, когда происходит scale up. И scale down отрабатывает отлично. Проблема вот в чём: у меня в некоторых случаях поднимается, например 200 подов. По выставленным реквестам им нужно 4 ноды. Они поднимаются и всё круто. Но потом, если фигачить каждый раз по 10 подов, например, они будут размазываться по всем машинам. У google cluster autoscaler политики такие, что там scale down происходит с 10 минутным запаздыванием. Когда есть хоть какая-то нагрзука на ноду — таймер сбрасывается. И получается так, что когда у меня сначала проходит задача с большой нагрузкой, то запускается большой кластер, но когда у меня маленькие задачки, мне достаточно одной ноды. Но по вышеописанной причине scale down не происходит. Только когда в течение 10 минут не происходит никаких действий и подов вообще нет.


Let Eat
11.12.2017
09:43:37

Alexey
11.12.2017
09:44:56
Вы пробовали? С подкрученым конфигом?
Да, пробовал. У меня правда проблемка, что всё крутится в GKE и там явно нельзя передать полиси. Поэтому собирал scheduler сам и запускал поды с собственным, прокинув полиси.

Let Eat
11.12.2017
09:44:59
Единственная причина по которой задранный в небеса приоритет не срабатывает, это то что,какой-то предикат блокирует выбор
Включите отладку, —v=4, должно быть видно

Alexey
11.12.2017
09:46:30
@rossmohax О, кстати, как вариант. За --v=4 отдельное спасибище.

Let Eat
11.12.2017
10:11:46
Радость: в hyperkube вернули /bin/bash

Evgeniy
11.12.2017
10:40:38
А есть вообще какая-нибудь дока, как развернуть kubernetes на виртуалках ubuntu 16.04 ?

Stas
11.12.2017
10:52:09

Evgeniy
11.12.2017
10:52:39
в доках куба не нашел?
Нет. Нашел только нормальный видос, но для rhel https://www.youtube.com/watch?v=lTyKeNRopqY

Stas
11.12.2017
10:54:40
http://containertutorials.com/get_started_kubernetes/index.html

Evgeniy
11.12.2017
10:55:54

Fike
11.12.2017
11:06:36
если использовать поиск по чату, то вылезут
- kubernetes the hard way
- kubespray
- evil martians chef cookbook
- kops
и прочее

Evgeniy
11.12.2017
11:17:57
если использовать поиск по чату, то вылезут
- kubernetes the hard way
- kubespray
- evil martians chef cookbook
- kops
и прочее
kubernetes the hard way - там только установка только базового варианта (если речь об этом https://github.com/kelseyhightower/kubernetes-the-hard-way)
- kubespray - vagrant версия не работает. Описывал выше. Не пробовал еще описывать через свой инвентори, но смысл, мне кажется будет тот же. Плейбук то один.
- evil martians chef cookbook - ну, как бы не мануал, а кукбук. Т.е. трудно найти и понять какие вещи базовые и нужны обязательно, а какие опционально. И не видно как запускать на виртуалках.
- kops - еще не юзал. Но тоже не вижу там мануалов. (https://github.com/kubernetes/kops - если речь об этом). И не видно как запускать на виртуалках.

Fike
11.12.2017
11:19:28
что такое не базовый вариант?

Evgeniy
11.12.2017
11:22:14

Paul
11.12.2017
11:24:00
марсианский кук самый приличный, не без тараканов, но он хотя бы работает