@kubernetes_ru

Страница 354 из 958
Sergey
11.12.2017
18:53:40
всмысле в стороночке на виртуалочке...? )

Anton
11.12.2017
18:54:23
Анонс видел, в aws теперь managed master ноды для к8с. Можно вообще с себя эти вопросы снять

Сергей
11.12.2017
18:54:38
мне на запрос дать потыкать даже не ответили

Google
Anton
11.12.2017
18:55:25
а куда его деть то?
В контейнере или стэнд алон. Имеется в виду не управлять кубером деплойментом етцд

Сергей
11.12.2017
18:56:31
Зачем анонсили тогда ?
ну навряд им интересен синг ван вася пупкин с корпорацией хом)

https://github.com/aws/amazon-ecs-cni-plugins интеренсо будут ли они свой же плагин там юзать

там ipvlan - выглядит интересно

Sergey
11.12.2017
18:57:29
Анонс видел, в aws теперь managed master ноды для к8с. Можно вообще с себя эти вопросы снять
ну эти вопросы можно было снять и при помощи GKE. Но по факту даже kops вопросы все не снимает...

В контейнере или стэнд алон. Имеется в виду не управлять кубером деплойментом етцд
ясно. Но когда много мелких кластеров, хочется сэкономить и поплотнее утилизировать...

Volodimir
11.12.2017
19:07:28
Подскажите как запустить один под на один воркер без daemonset

Vitaliy
11.12.2017
19:19:54
1 под на любую 1 ноду?

Или сформируй вопрос правильно

Volodimir
11.12.2017
19:21:45
1 под на любую 1 ноду?
Да один под одна нода

Vitaliy
11.12.2017
19:22:16
Ты не поверишь, Kind: Pod

Google
Paul
11.12.2017
19:22:27
мой ман https://medium.com/@olegsmetanin/kubernetes-recipe-kubernetes-kubespray-glusterfs-gluster-kubernetes-letsencrypt-kube-lego-595794665459
от себя добавлю, что гластер по-возможности использовать не стоит

Paul
11.12.2017
19:23:03
почему и что стоит?
потому, что он медленный (особенно на запись) и ломается :)

Evgeniy
11.12.2017
19:23:21
мой ман https://medium.com/@olegsmetanin/kubernetes-recipe-kubernetes-kubespray-glusterfs-gluster-kubernetes-letsencrypt-kube-lego-595794665459
Ну, так у меня не завелся kubespray. Через вагрант. Вручную дернуть плейбук не пробовал, потому что в вагранте вроде так же дергается

Volodimir
11.12.2017
19:23:40
Ты не поверишь, Kind: Pod
А можно делать update canary ?

Paul
11.12.2017
19:24:16
какой выбор?
NFS или ceph rbd. я выбрал второе.

Volodimir
11.12.2017
19:24:29
Задача например обновить 10% pods

Oleg
11.12.2017
19:25:04
Paul
11.12.2017
19:26:06
Ceph хорош оказался?
значительно лучше гластера. Работает быстрее, большое коммюнити, активная разработка

очень много документации, хорошая система отладки и управления правами доступа

Oleg
11.12.2017
19:26:25
сильно сложнее развернуть?

и automatic provisoning есть?

Paul
11.12.2017
19:27:13
пока что - не нарадуюсь. нет, не сильно. Там есть специальный инструмент, он здорово облегчает процесс развертывания. По цефу есть прекрасная книга, рекомендуется прочитать как минимум для общего развития.

да, storage class есть и работает отлично

цеф очень мощный и гибкий инструмент, главное – не лезть в него глубоко без четкого понимания, чего хочется добится. Он из коробки вполне неплохо работает

особенно, если кластер небольшой. Цеф очень чувствителен к качеству внутренней сети (по которой он синхронизируется). Гигабит возможен только, если кластер маленький. Если кластер большой - десятка будет маст хэв

Vitaliy
11.12.2017
19:29:33
Задача например обновить 10% pods
В гугле есть вся инфа на этот счет

Paul
11.12.2017
19:32:49
Google
Paul
11.12.2017
19:33:12
вам никто не мешает взять три машины, между собой связать их десяткой а до контейнеров кинуть единичку

просто при фейле диска у вас начнется пересинхронизация томов. Всех томов

Oleg
11.12.2017
19:34:08
ну это явно решение для приватного облака на своем железе

Paul
11.12.2017
19:35:14
не обязательно облако. Ну да

если у вас публичное облако - покупаете провайдера стораджа просто

зачем вам его реализовывать?

готовое же есть

Oleg
11.12.2017
19:36:10
ну я вообще за то чтобы от проприетарщины вендора не зависеть

Paul
11.12.2017
19:37:45
ну я вообще за то чтобы от проприетарщины вендора не зависеть
нет, если вы используете чужое облако - вам имеет смысл использовать возможности этого облака. Если вы строите свое решение (как это делаю я) - вам придется все компоненты делать самому. Это нормально

Oleg
11.12.2017
19:38:40
я скорее за то чтобы покупать ноды

Sergey
11.12.2017
19:43:54
вам никто не мешает взять три машины, между собой связать их десяткой а до контейнеров кинуть единичку
у вас ceph живет на специально выделенном кластере(нодах)? или совместили с k8s

Paul
11.12.2017
19:47:07
у вас ceph живет на специально выделенном кластере(нодах)? или совместили с k8s
сейчас вместе с кубом, но у меня кластер - одно название, 3 машины. В дальнейшем будет жить отдельно

Paul
11.12.2017
19:47:27
по-хорошему нужно ставить три машины под цеф, три под мастер и N+1 под ноды

Sergey
11.12.2017
19:51:26
ясно, спасибо.

Сергей
11.12.2017
19:52:09
цеф любит память кушать. особенно на процессе ребаланса

так что его совмещать на одной ноде с воркер нодами кубера - так себе затея

Paul
11.12.2017
19:52:23
Сергей
11.12.2017
19:52:33
оом похуй что килять

Paul
11.12.2017
19:52:35
у меня просто их физически три - не дали больше под испытания

я лимиты лапками рихтую, благо нагрузка плевая. Будет нормальная нагрузка - воркеры уедут

Google
Сергей
11.12.2017
19:53:48
ну я больше для тех, кто решит ceph с кубером в один кластер на проде собирать

Paul
11.12.2017
19:54:05
да, замечание верное

Sergey
11.12.2017
19:54:06
цеф любит память кушать. особенно на процессе ребаланса
сколько в среднем надо для ребаланса скажем 1TB ?

Paul
11.12.2017
19:54:19
лучше уж воркеров на на мастерах запускать :)))

Сергей
11.12.2017
19:54:27
хотя я знаю одного извращенца, который через сигруппу ограничил потребление памяти дл яосд (ссзб) и вырубил на процесс osd oom

Sergey
11.12.2017
19:54:30
Paul
11.12.2017
19:54:32
сколько в среднем надо для ребаланса скажем 1TB ?
при таких размерах можно вообще ни о чем не думать

Сергей
11.12.2017
19:55:28
сколько в среднем надо для ребаланса скажем 1TB ?
могу сказать, что на полупетобайтном кластере рав места, при 70% занятого места, на нодах с 64 гигами памяти - память выжрало всю

Admin
ERROR: S client not available

Сергей
11.12.2017
19:55:37
я одну ноду из кластера погасил

Sergey
11.12.2017
19:55:57
при таких размерах можно вообще ни о чем не думать
я хочу с гластера тоже спрыгнуть на ceph. Но мне большой обьем не нужен. (там где нужен - там кассандра)

Paul
11.12.2017
19:56:26
могу сказать, что на полупетобайтном кластере рав места, при 70% занятого места, на нодах с 64 гигами памяти - память выжрало всю
подозрительно много. Петабайт ребалансился в 32 гигах оперативы - влез. Но там есть настройки, можно поэкспериментировать

Paul
11.12.2017
19:56:54
это был редиз 0,8 еще
с тех пор стало сильно лучше :)

Сергей
11.12.2017
19:56:55
плюс и нюанс был - пошли сыпатьс ядиски на других нодах

осд выжрали всю память, а потом кластер сказал - ой все

Google
Paul
11.12.2017
19:58:11
ну кластеры вообще не любят, когда из ОСД табуретки выдергивают

Сергей
11.12.2017
19:59:13
ну таб было желание в пяток нод вообще воткнуть тер рав места, слава богу оно обосралось на этапе тестирования

проблема метса в стойках, руководство хотело сыкономить

Ihor
11.12.2017
20:30:31
у кубера НЕТ документации. Некий минимум есть на сайте. Дальше ручками
У Kubernetes есть документация. Если есть пожелания по тому, чего не хватает - пишите сюда https://github.com/kubernetes/website/issues Если есть что добавить - сюда https://github.com/kubernetes/website/pulls

ну как по мне, что ыб им начать приводить документацию в порядок, надо на какой-то момент сделать фича фриз и договориться об апи
Feature freeze у нас происходит каждый релиз-цикл. Если под feature freeze вы имеете ввиду приостановку работы над фичами проекта вообще, то такого не будет, по вполне очевидным причинам. Тем более что за последний год мы сильно сдвинулись в сторону вынесения всего по максимуму из core. Абсолютное большинство новых фич в последних релизах - это экстеншны. Сам core API вполне стабилен, последние крупных изменения - именно в 1.9, с Workloads API, где она стал стабильным. Стабильные API менять точно не будут, как минимум до 2.0 (который мы еще даже не планируем).

Ihor
11.12.2017
20:42:01
или людей
this. Со временем и желанием все более чем хорошо. Поэтому если есть желание контрибьютить - велкам.

К слову, о документации. Мы планируем делать документацию Kubernetes доступной не только на английском языке, и сейчас уже ее переводят на китайский. Если у кого-то есть желание запустить эту же инициативу для русского (или других языков) - дайте мне знать.

Сергей
11.12.2017
20:44:12
Ну я пока не имею. Какого-то практического опыта сильно выходящего за пределы той части ты документации что есть

Пора учить английский

Volodimir
11.12.2017
20:52:33
В гугле есть вся инфа на этот счет
Да я не прошу в деталях. Мне просто направление дайте. 1. Задача запускать ворке на одной ноду. тоесть один под один хост (при этом всё скейлиться ) тоесть при добавление ноды на ней автоматически запускаеться pod. чем лучше такой функцилонал использовать? 2. При выше сказанном нужна возможнсть обновлять эти поды в процентном или количественном соотношении. я понимая что кубер это всё умеет например daemonset он мне подходит даже очень но судя по докам https://kubernetes.io/docs/tasks/manage-daemon/update-daemon-set/ он не умеет canary update Значит что то другое. А replication монжно как то заставить делать под под на одну ноду при условии автоскейла?

Anatoliy
11.12.2017
21:05:00
это к кому вопрос?
к вам) у вас же написано что умеет, вот интересно как. я в принципе могу себе представить подобеную ситуацию, но там поизвращаться немного придется

Volodimir
11.12.2017
21:05:23
daemonset

разве нет ?

Страница 354 из 958