@kubernetes_ru

Страница 487 из 958
Dmytro
23.03.2018
13:49:11
похоже, у телеграм eventual consistency

вот теперь вижу сообщение а тогда не видел

сорри

Google
Alexey B
23.03.2018
13:50:43
Народ, какие есть бестпраксис по работе сервисов с базами данных? Стоит ли на кажждый сервис поднимать свою базу? Или использовать нескольками одну?

Fike
23.03.2018
13:52:06
Это зависит скорее от ваших внутренних требований. По феншую каждый микросервис может упасть, но не должен тянуть остальные, поэтому микросервисная архитектура подразумевает базу-на-микросервис, но тут могут быть весьма понятные сложности.

Dmytro
23.03.2018
13:52:46
+1 - это обычный подход, но вот если расширить базу на редис то уже не так однозначно

довольно часто один "микросервис" апдейтит кеш в редисе для другого

Fike
23.03.2018
13:53:24
редис не база

?

Dmytro
23.03.2018
13:53:53
ну тут кто как считает

Dmitry
23.03.2018
13:53:55
база-на-микросервис скорее для того чтобы не было желания заинтегрировать несколько сервисов между собой через базу

Alexey B
23.03.2018
13:55:29
Если делать разные, то с одной стороны сервисы и данные изолированны друг от друга,

но с другой со всех баз делать бекапы, отдельные persistant volumes ... и тд

Но, это, возможно, всего лишь лень :)

Dmytro
23.03.2018
13:56:59
ну бекапы ж не вручную делать, а сколько копий скрипта бекапа бежит где-то - какая разница?

главное чтобы они куда-то репортили удалось забекапить или нет

Google
Alexey B
23.03.2018
13:59:47
в принципе да, репорты я делаю через ci скрипты туда же, падения видны

а мариядб много ресурсов не ест, в принципе можно запускать много экземпляров

Dmytro
23.03.2018
14:12:19
а мариядб много ресурсов не ест, в принципе можно запускать много экземпляров
только обратите внимание на лимиты если будет много мускулей на одной ноде бежать https://www.percona.com/blog/2017/10/12/open_files_limit-mystery/

у меня есть CI сервер где стартует 15 инстансов чтобы интеграционные тесты в 15 потоков бежали, кажется уже после 10 начинаются проблемы с лимитами (но это от количества таблиц зависит и других параметров базы, насколько я понимаю)

Fike
23.03.2018
14:14:23
база-на-микросервис скорее для того чтобы не было желания заинтегрировать несколько сервисов между собой через базу
если у вас в команде разрабы, которым нужно специальное заграждение от запретных желаний, то я даже не знаю, что сказать, но проблема все-таки скорее не в базе

Dmytro
23.03.2018
14:16:10
эх, хотел бы я работать там где разрабы не такие :(

вот например на этой неделе обнаружилось прекрасное, раскатал я nginx-ingress на все проды, а там по дефолту body max size 1 мегабайт, прибежали из другой команды что теперь они получают 413 Request Entity Too Large когда шлют данные в мои сервисы. В итоге выяснили что надо этот body max size поднять до 32 метра. На совет что ребята json payload на 32 метра это немного дохера и вообще 413 хорошо бы обрабатывать получил стандартный ответ - но вдеь раньше все прекрасно работало!

Evgeny
23.03.2018
14:20:06
я вот считаю что база доя приложения кластера должна выглядеть как "сервис", вне зависимости от архитектуры

ну то есть, приложение должно понимать что вот туда можно писать, но где она находится, это неважно

зачем базу в кубике держать? ну особенно, когда мы говорим про мускуль

Stanislav
23.03.2018
14:22:20
http://rahmonov.me/posts/nginx-ingress-controller/

Serhio
23.03.2018
14:22:22
эх, хотел бы я работать там где разрабы не такие :(
солидарен с Вами) такая же фигня. Средний градус по больнице говорит разраб нынче пошёл не тот

Andor
23.03.2018
14:34:16
микросервисы и мегаданные

читай "бигдата"

Stanislav
23.03.2018
14:34:49
Это json таков

Dmytro
23.03.2018
14:50:13
точно, надо нашим сказать что мы с бигдата работаем ?

хотя лучше не надо, а то решат что 32 метра это еще маловато

Paul
23.03.2018
16:03:02
@schors, как я понимаю. Пруфцы вроде как есть уже: https://t.me/zatelecom/4070 Правда, как всегда всё переврали.
пишут, что это эксперимент, но... Блэкхолинг, вся сетка амазона... Это выстрел себе в ногу из танковой пушки

Deep Sea
23.03.2018
16:06:15
Не вся

Google
Paul
23.03.2018
16:07:39
даже часть – это будет весьма ярко

Deep Sea
23.03.2018
16:09:47
Есть такое

Dmytro
23.03.2018
17:26:49
вот и пруфы понадежнее подоспели https://www.vedomosti.ru/technology/articles/2018/03/23/754777-roskomnadzor-amazon

Robert
23.03.2018
17:51:11
Кто-то уже разворачивал инфраструктуру (sql базы, веб серверы, почты и т.д.) в контейнерах?

Paul
23.03.2018
17:51:45
я. Сейчас переделываю

Robert
23.03.2018
17:52:32
Прям боевую?

Какие есть в ней компоненты и с какими сложностями и удобствами столкнулись?

Будет ли в вашей архитектуре обеспечиваться высокая доступность?

Paul
23.03.2018
17:54:23
внутреннюю. Основная проблема в том, что по-хорошему приложение должно быть ориентировано на работу в микросервисах. Если нет – сюрпризы и сложности будут. Цели обеспечить высокую доступность нет, но это в общем-то реально

Евгений
23.03.2018
17:55:28
Кто-то уже разворачивал инфраструктуру (sql базы, веб серверы, почты и т.д.) в контейнерах?
В кубернетесе? Или просто в докере? У меня в докере весь продакшон, стейджинг и дев окружения

Yuriy
23.03.2018
17:56:47
Всем привет , сделал джоин worker нод к кластеру , нужно как то их назначить воркерами или нет

Paul
23.03.2018
17:56:53
нет

Yuriy
23.03.2018
17:57:12


Почему они тогда none

Igor
23.03.2018
17:57:20
И базы в докере?
у меня базы в докере

Евгений
23.03.2018
17:58:02
И базы в докере?
В докере, но данные в эксторнал волюмах

Но это офтопик, тут про k8s чат. Го в девупсовский какой-нибудь

Yuriy
23.03.2018
18:01:04
Воркеры role none это нормально, или это тэг , ??? Фото выше

Roman
23.03.2018
18:32:21
уже 1.9.6.... аа

Google
Gleb
23.03.2018
18:33:17
базы не в докере и там точно не будут )

Yuriy
23.03.2018
18:44:21
Ну дак кто-нибудь мне поможет в моем вопросе

[none] это нормально ??? Для ноды в ролях

Mikhail
23.03.2018
18:46:31
[none] это нормально ??? Для ноды в ролях
$ kubectl get nodes NAME STATUS ROLES AGE VERSION ams03.azalio.net Ready <none> 11d v1.9.3 ams04.azalio.net Ready <none> 11d v1.9.3 vpn.azalio.net Ready <none> 71d v1.9.3

$ kubectl get nodes NAME STATUS ROLES AGE VERSION 10.126.126.10 Ready <none> 113d v1.7.4-2+eb9172c211dc41

возможно в некоторых инсталяциях роль играет роль, но как видите не везде

Yuriy
23.03.2018
18:47:48
Ок спасибо

Понял

Виталий
23.03.2018
18:48:02
[none] это нормально ??? Для ноды в ролях
С помощью kubeadm деплоили? Это нормально. Есть фича-реквест: https://github.com/kubernetes/kubeadm/issues/486

Yuriy
23.03.2018
18:48:16
Это просто тег значит

Да через kubedmin join

Roman
23.03.2018
19:23:39
Никто не заморачивался ролинг-рестартом подов, но без деплоймента?

Anton
23.03.2018
19:26:50
Апдейтишь то что поддерживает rolling update и вот тебе рестарт

Anton
23.03.2018
21:03:24
Надо чекать Ready на поде, оно само включает ready всех контейнеров. Контейнер без readinessProbe очень удобно будет Ready если запущен
не могу найти Ready на поде, только в контейнерах есть. Но в контейнере ready может быть true, при этом state — terminated

Let Eat
23.03.2018
21:06:30
не могу найти Ready на поде, только в контейнерах есть. Но в контейнере ready может быть true, при этом state — terminated
Ну я про вывод kubectl , там ready ) еще все статусы подом аггрегируются в статусе деплоймента

rt
23.03.2018
21:10:55
Есть вопрос. Ставлю кубер по официальному ману ручками в вагрант, чтобы разобраться как компоненты взаимодействуют. Там написано, что на нодах нужно сделать bridge интерфейс с подсеткой из которой будут выдаваться адреса подам ну и докер уведомить об этом через ключ —bridge=cbr0. Я правильно понимаю, что нужно cni поставить и сконфигурить там интерфейс?) Или какие-то еще опции есть?

Anton
23.03.2018
21:16:36
Ну я про вывод kubectl , там ready ) еще все статусы подом аггрегируются в статусе деплоймента
ну там ready как раз-таки про контейнеры, а не про под, а под там running/termianting/whatever

Google
Yuriy
24.03.2018
00:00:16
Flannel лучше ставить как демона , а не отдельным подом

Andrey
24.03.2018
07:23:56
А как вы мониторите события в k8s?

Usagi
24.03.2018
08:09:33
#freelance Нужно настроить репликацию Postgres внутри Kubernetes.

Gleb
24.03.2018
08:19:40
Реплики постгри в кубере.. опасно

Usagi
24.03.2018
08:23:03
Реплики постгри в кубере.. опасно
похоже из-за этого и проблемы :)

Nikita
24.03.2018
10:08:28
Как понять в чем проблема если докер перестал запускаться при использовании btrfs в качестве бекенда (вопрос выбора бекенда — отдельный вопрос)? Все что у меня есть это invalid argument [mainnika@localhost docker]$ sudo /usr/bin/dockerd-current --containerd /run/containerd.sock --storage-driver=btrfs -D WARN[0000] could not change group /var/run/docker.sock to docker: group docker not found DEBU[0000] Listener created for HTTP on unix (/var/run/docker.sock) DEBU[0000] Using default logging driver json-file DEBU[0000] Golang's threads limit set to 42480 DEBU[0000] Cleaning up old mountid : start. Error starting daemon: invalid argument Но именно на этой конфигурации у меня все работало два дня назад, и после рестарта докера он перестал запускаться с этой ошибкой. Я пробовал пересоздать файловую систему бекенда — безуспешно. С overlay2 запускается.

Andrey
24.03.2018
10:26:04
group docker not found?

проверяли?

хотя это ворнинг

Страница 487 из 958