@kubernetes_ru

Страница 524 из 958
bebebe
18.04.2018
17:58:57
Vfork уронил мак ос

Ноут ребутнулся)))

С ошибкой написанной на разных языках

Так эпично у меня мак не падал ещё)))

Google
bebebe
18.04.2018
17:59:06
20 минут назад :)

Banschikov
18.04.2018
18:03:18
Люди, подскажите, есть кто юзает Gitlab в кубере?

у меня пути реп. вот так вот выглядят

http://gitlab-78bf779845-gfg2x/denis/test.git

подскажите как изменит параметры поды без его пересоздания?

Fike
18.04.2018
18:35:59
Скорее всего никак. Но что подразумевается под изменением параметров пода?

Andrey
18.04.2018
18:36:38
Приложение должно уметь перечитывать env/config file/consul/etcd. Куб доставляет свежие секреты/конфиги, а дальше не его забота

Banschikov
18.04.2018
18:38:01
Скорее всего никак. Но что подразумевается под изменением параметров пода?
Мне нужно к примеру поправить переменные знанчения в поде к примеру.

Andrey
18.04.2018
18:49:22
Banschikov
18.04.2018
18:50:11
Confd, если мы говорим о настройках приложения
понял. я думал может есть что то похожее на docker-compose up -d —build

а кто знает в calico поды как резолвят друг друга?

по умолчанию это не работает

Dmytro
18.04.2018
19:21:19
ну... можно, я это сделал мягко, но класстер существует, для его разработки. И вариант с увеличением памяти на нодах, не подходит, т.к. они дороже, а поэтому нужно использовать всю свободную память и он будет это делать, т.к. он типа "думает о рентабельности проекта")
если он хочет юзать всю память ноды т.к. "рентабельность" то может всем в команде будет легче если его уволить? Явно квалификация у него не очень если он не понимает зачем нужна свободная память всегда на ноде и какие последствия для приложения при включении свопа

Google
Dmytro
18.04.2018
19:31:49
Для памяти надо ставитт requests == limits, т.к. память не резиновая , в отличии от процессора
да и для проца не помешает, иначе будут непонятные паузы в работе приложения (хотя они и так могут быть - смотря какие квоты и настройки CFS)

ну и? суть вопроса в том, что человеку хочется всю свободную память, что есть на ноде. У него нет внутреннего софтового лимита. Если я поставлю определённое количество - приложение по достижению этого числа будет тупо дропаться.
ну и все, пусть менеджат память правильно в приложении, а какие еще варианты? ну ок выжрал он память системы и система либо зависла либо если стоит panic on oom и reboot on panic то ребутнулась - это лучше разве?

Let Eat
18.04.2018
19:34:58
да и для проца не помешает, иначе будут непонятные паузы в работе приложения (хотя они и так могут быть - смотря какие квоты и настройки CFS)
вроде паузы как раз от limit выставленного, при превышении квоты. без квоты искусственных пауз нет

Dmytro
18.04.2018
19:40:14
хммм даже в случае overcommit когда другие процессы выжрали все ядра?

имхо всем подам надо ставить requests == limits для памяти и проца и тогда будет ожидаемое поведение всегда

Andrey
18.04.2018
19:41:04
Глупый вопрос: есть подсеть, к примеру /27, чем можно организовать аналог expose deployment в gke, но на bare metal? Чтобы ip из пула назначался автоматом. Руками понятно: nodeport и node selector для сервиса. (про metallb читал)

Dmytro
18.04.2018
19:43:09
история про тимлида мне напоминает моего бывшего начальника - он напихал в кронтаб говна что каждую минуту стартовало 600 процессов а потом удивлялся что это линукс не может столько процессов сразу запустить? Человек с тайтлами CTO и Head of Engineering

Глупый вопрос: есть подсеть, к примеру /27, чем можно организовать аналог expose deployment в gke, но на bare metal? Чтобы ip из пула назначался автоматом. Руками понятно: nodeport и node selector для сервиса. (про metallb читал)
а можно чуть поподробнее? я не настоящий сварщик, но насколько помню calico и romana могут анонсить по BGP айпишник, т.е. можно сделать повесить сервис на айпи и потом его двигать с ноды на ноду если что

Pavel
18.04.2018
19:48:14
У меня тоже такой косяк был, так то джобы хоть и много но в разное время запускались, а вот после перезапуска машины резко все вместе стартовали и падало всё...

Andrey
18.04.2018
19:50:15
а можно чуть поподробнее? я не настоящий сварщик, но насколько помню calico и romana могут анонсить по BGP айпишник, т.е. можно сделать повесить сервис на айпи и потом его двигать с ноды на ноду если что
Я до этого гуглом пользовался, там при expose deployment сервис вывешивается наружу и ему присваивается внешний же ip. Про bgp хорошо, но чую hetzner будет против) (сеть да, calico) Про romana читал, но палкой не тыкал.

Dmytro
18.04.2018
19:53:00
не уверен что значит romana "для network security" - у calico тоже есть network policies

Andrey
18.04.2018
19:53:23
Речь о Romana VIPs? Оно использует MetalLB, он ещё в альфе. Кто-то уже юзал?

Dmytro
18.04.2018
19:53:28
600 процессов в одну секунду стартовали - нода умирала

в чате есть люди кто юзают romana и анонсят айпишники с помощью calico через BGP - пусть лучше они ответят, а то я сейчас буду рабиновичем который напел

Andrey
18.04.2018
19:59:39
Логично, спасибо! :)

Dmytro
18.04.2018
20:00:23
кстати, раз зашла речь про сеть - скину статью интересную из другого чата https://blog.hasura.io/debugging-tcp-socket-leak-in-a-kubernetes-cluster-99171d3e654b

Спасибо, очень доступно объяснили
у меня вот 24 инсталляции 8 разных приложений в 5 разных кластерах, плюс всякие мониторинг приложения один на кластер и т.п. - без хелма я бы не знаю что делал

Google
Let Eat
18.04.2018
20:13:10
хммм даже в случае overcommit когда другие процессы выжрали все ядра?
я глубоко не смотрел, но мне кажется если limit стоит, то по превышении квоты, процесс снимают с процессора на сколько-то там миллисекунд и ничего его туда раньше вернут не может. если же нету limit, но процессор всем нужен, то наш процесс ждет конечно и тоже не выполняется, но эта задережка может быть и меньше, если другие процессы добровольно снялись с процессора (достигли preemption point)

Dmytro
18.04.2018
20:15:01
ага, ну то есть примерно как я и думал - надо всем раздавать requests == limits и тогда хотя бы паузы будут от самого приложения а не от шумных соседей

Let Eat
18.04.2018
20:15:47
600 процессов в одну секунду стартовали - нода умирала
у меня как то было эпичное замедление, когда много разом стартовало. репу долго чесал, оказалось энтропии нехватало для рандомизации стэка или чего-то там :)

Dmytro
18.04.2018
20:16:19
и тогда уже это скорее проблемы девов сделать процессы/потоки так чтобы не выжирали квоты раньше времени если n_proc = requests= limits

Andrey
18.04.2018
20:17:17
https://github.com/cloudnativelabs/kube-router
А оно умеет без bgp, просто выдавать ip из заданной подсети?

66271
18.04.2018
20:17:50
Andrey
18.04.2018
20:18:51
Спасибо! Почитаю завтра

А никто, случаем, не в курсе как hetzner относится к запросам вида «давайте настроим bgp”? У них из ближайшего только floating ip есть, который через костыли можно к кубу прикрутить

Anton
18.04.2018
20:21:46
Это тебе в @pro_hosting.

Let Eat
18.04.2018
20:24:03
кстати, раз зашла речь про сеть - скину статью интересную из другого чата https://blog.hasura.io/debugging-tcp-socket-leak-in-a-kubernetes-cluster-99171d3e654b
хорошая статья. с некоторых пор если непонятная херня творится, иду смотреть в netdata, там куча проверок на подобные штуки

вот например алерт на случай из статьи: https://github.com/firehol/netdata/blob/master/conf.d/health.d/tcp_mem.conf

Andrey
18.04.2018
20:40:53
«Раз уж речь зашла про сеть» (с) Есть что почитать на тему закрытия нод фаерволом? Без куба был автосписок правил из chef + списки серверов в ipset. А тут вопрос как зарезать всё, оставив доступ только своим ip и 80/443 в паблик, не похерив правила куба при обновлении своих

Andrey
18.04.2018
21:22:38
А как это поможет закрыть ssh и прочие сервисы?

Let Eat
18.04.2018
21:28:27
а, вы про штуки вне куба. ну не запускайте их)) ssh можно хоть в инет выставлять впринципе

Dmytro
18.04.2018
21:30:08
(ссш где ключи а не пароли наверное имеется ввиду)

Google
Dmytro
18.04.2018
21:35:01
да это в рабочем слаке

Banschikov
19.04.2018
04:39:42
Всем привет!

Поделитесь пожалуйста своим опытом, как вы организовываете высокую доступность баз данных в k8s?

Mikhail
19.04.2018
04:52:28
Поделитесь пожалуйста своим опытом, как вы организовываете высокую доступность баз данных в k8s?
В основном держат вне кубера. Тех кто держит внутри называют героем.

Banschikov
19.04.2018
04:56:07
В основном держат вне кубера. Тех кто держит внутри называют героем.
Тоже думал об этом. Я как понимаю базы данных нужно выносить к примеру в облачное хранилище по типу AzureDisk или AWSElasticBlockStore и отдавать как PersistentVolumeClaim подам с базами данных?

В основном держат вне кубера. Тех кто держит внутри называют героем.
Просто у нас нет ресурсов что бы поднять свой кластер ceph и т.д

Mikhail
19.04.2018
04:59:50
Mikhail
19.04.2018
05:06:35
Т.е базы данных поднимать вне кластера k8s?
Зависит от важности данных и объема. Но в общем случае так.

Banschikov
19.04.2018
05:19:38
Зависит от важности данных и объема. Но в общем случае так.
Если выносить на свое железо , то на этом железе точно так же нужно будет организовать высокую доступность этих баз данных. Это хорошее решение на мо взгляд когда есть свой собственный мини-цод или дполнительные облачные инстансы, на которых собственно и можно развернуть все экземпляры БД.

Зависит от важности данных и объема. Но в общем случае так.
Мне бы хотелось хранить сами базы данных в облаке и отдавать их подам как постоянные диски. Это рабочее решение?

Кстать у Ажура есть дата-центы в России?

Сергей
19.04.2018
05:25:00
Кстать у Ажура есть дата-центы в России?
Нет, и в ближайшее время не будет

Alexey
19.04.2018
05:26:01
Нет, и в ближайшее время не будет
вроде как я слышал инфу, что мс планирует строить свой цод на территории россии

Banschikov
19.04.2018
05:27:15
Или поды тоже в облаке.
Все верно. Поды будут в облаке.

Или поды тоже в облаке.
Можно это все развернуть в Ажуре или AWS, но проблема в том что нужно что бы это все было на территрии РФ

Sergey
19.04.2018
05:46:05
Все верно. Поды будут в облаке.
если базы и кубер в пределах одного ДЦ, то почему бы и нет

Banschikov
19.04.2018
06:02:34
если базы и кубер в пределах одного ДЦ, то почему бы и нет
А нет информации у кого в РФ лучше это сделать?

Google
Sergey
19.04.2018
06:03:54
А нет информации у кого в РФ лучше это сделать?
в РФ ничего не ставлю кстати а почему в РФ

Banschikov
19.04.2018
06:04:33
в РФ ничего не ставлю кстати а почему в РФ
Да это юридические особенности. Типа перс данные и все такое.

Sergey
19.04.2018
06:05:07
А нет информации у кого в РФ лучше это сделать?
"лучше" понятие растяжимое, у Selectel каких нибудь:)

Dmitri
19.04.2018
06:05:55
Подтверждаю, Селектел в последнее время неплох

Banschikov
19.04.2018
06:10:20
"лучше" понятие растяжимое, у Selectel каких нибудь:)
Таже смотрел в их сторону. Спасибо

Valeriy
19.04.2018
06:14:23
Подтверждаю, Селектел в последнее время неплох
Они тут недавно растянутый кластер на 2 цода запустили. На VMware + vsan

Dmitri
19.04.2018
06:15:07
собственно, я их и хвалю. Мне лично ихний vscale.io вполне зашел

kvaps
19.04.2018
07:49:42
Речь о Romana VIPs? Оно использует MetalLB, он ещё в альфе. Кто-то уже юзал?
Я использую, работает хорошо, по сути все что делает romana-vip - это вешает extarnal-ip сервиса на ноду

MetalLB для него не нужен

Andrey
19.04.2018
07:50:55
Я использую, работает хорошо, по сути все что делает romana-vip - это вешает extarnal-ip сервиса на ноду
А если подсеть и так висит на ноде, но нужно просто выдать ip из пула и повесить сервис на этот ip?

Без ingress ов и прочего

kvaps
19.04.2018
07:51:30
Ага, в том то и прикол

Нет, стоп, я не так понял

В общем от вас только одно требуется - создать сервис с нужным annotation и externalip

Andor
19.04.2018
07:54:03
ну ок, вешает оно адрес на ноду

только один?

а если мне надо балансить нагрузку?

kvaps
19.04.2018
07:54:23
Если у вас подсеть с этим IP уже настроенна на ноде, то оно будет сразу доступно

Andor
19.04.2018
07:54:30
я бы это сделал anycast'ом например

ну для входящих подключений снаружи конечно

Страница 524 из 958