
Евгений
23.03.2018
13:48:21

Dmytro
23.03.2018
13:49:11
похоже, у телеграм eventual consistency
вот теперь вижу сообщение а тогда не видел
сорри

Google

Alexey B
23.03.2018
13:50:43
Народ, какие есть бестпраксис по работе сервисов с базами данных?
Стоит ли на кажждый сервис поднимать свою базу? Или использовать нескольками одну?

Fike
23.03.2018
13:52:06
Это зависит скорее от ваших внутренних требований. По феншую каждый микросервис может упасть, но не должен тянуть остальные, поэтому микросервисная архитектура подразумевает базу-на-микросервис, но тут могут быть весьма понятные сложности.

Dmytro
23.03.2018
13:52:46
+1 - это обычный подход, но вот если расширить базу на редис то уже не так однозначно
довольно часто один "микросервис" апдейтит кеш в редисе для другого

Fike
23.03.2018
13:53:24
редис не база
?

Dmytro
23.03.2018
13:53:53
ну тут кто как считает

Dmitry
23.03.2018
13:53:55
база-на-микросервис скорее для того чтобы не было желания заинтегрировать несколько сервисов между собой через базу

Alexey B
23.03.2018
13:55:29
Если делать разные, то
с одной стороны сервисы и данные изолированны друг от друга,
но с другой со всех баз делать бекапы, отдельные persistant volumes ... и тд
Но, это, возможно, всего лишь лень :)

Dmytro
23.03.2018
13:56:59
ну бекапы ж не вручную делать, а сколько копий скрипта бекапа бежит где-то - какая разница?
главное чтобы они куда-то репортили удалось забекапить или нет

Google

Alexey B
23.03.2018
13:59:47
в принципе да, репорты я делаю через ci скрипты туда же, падения видны
а мариядб много ресурсов не ест, в принципе можно запускать много экземпляров

Dmytro
23.03.2018
14:12:19
у меня есть CI сервер где стартует 15 инстансов чтобы интеграционные тесты в 15 потоков бежали, кажется уже после 10 начинаются проблемы с лимитами (но это от количества таблиц зависит и других параметров базы, насколько я понимаю)

Fike
23.03.2018
14:14:23

Dmytro
23.03.2018
14:16:10
эх, хотел бы я работать там где разрабы не такие :(
вот например на этой неделе обнаружилось прекрасное, раскатал я nginx-ingress на все проды, а там по дефолту body max size 1 мегабайт, прибежали из другой команды что теперь они получают 413 Request Entity Too Large когда шлют данные в мои сервисы. В итоге выяснили что надо этот body max size поднять до 32 метра. На совет что ребята json payload на 32 метра это немного дохера и вообще 413 хорошо бы обрабатывать получил стандартный ответ - но вдеь раньше все прекрасно работало!

Evgeny
23.03.2018
14:20:06
я вот считаю что база доя приложения кластера должна выглядеть как "сервис", вне зависимости от архитектуры
ну то есть, приложение должно понимать что вот туда можно писать, но где она находится, это неважно
зачем базу в кубике держать? ну особенно, когда мы говорим про мускуль

Stanislav
23.03.2018
14:22:20
http://rahmonov.me/posts/nginx-ingress-controller/

Serhio
23.03.2018
14:22:22

Vadim
23.03.2018
14:28:08

Andor
23.03.2018
14:34:16
микросервисы и мегаданные
читай "бигдата"

Stanislav
23.03.2018
14:34:49
Это json таков

Dmytro
23.03.2018
14:50:13
точно, надо нашим сказать что мы с бигдата работаем ?
хотя лучше не надо, а то решат что 32 метра это еще маловато

Paul
23.03.2018
16:03:02

Deep Sea
23.03.2018
16:06:15
Не вся

Google

Paul
23.03.2018
16:07:39
даже часть – это будет весьма ярко

Deep Sea
23.03.2018
16:09:47
Есть такое

Dmytro
23.03.2018
17:26:49
вот и пруфы понадежнее подоспели https://www.vedomosti.ru/technology/articles/2018/03/23/754777-roskomnadzor-amazon

Robert
23.03.2018
17:51:11
Кто-то уже разворачивал инфраструктуру (sql базы, веб серверы, почты и т.д.) в контейнерах?

Paul
23.03.2018
17:51:45
я. Сейчас переделываю

Robert
23.03.2018
17:52:32
Прям боевую?
Какие есть в ней компоненты и с какими сложностями и удобствами столкнулись?
Будет ли в вашей архитектуре обеспечиваться высокая доступность?

Paul
23.03.2018
17:54:23
внутреннюю. Основная проблема в том, что по-хорошему приложение должно быть ориентировано на работу в микросервисах. Если нет – сюрпризы и сложности будут. Цели обеспечить высокую доступность нет, но это в общем-то реально

Евгений
23.03.2018
17:55:28

Robert
23.03.2018
17:56:19

Yuriy
23.03.2018
17:56:47
Всем привет , сделал джоин worker нод к кластеру , нужно как то их назначить воркерами или нет

Paul
23.03.2018
17:56:53
нет

Yuriy
23.03.2018
17:57:12
Почему они тогда none

Igor
23.03.2018
17:57:20

Евгений
23.03.2018
17:58:02
Но это офтопик, тут про k8s чат. Го в девупсовский какой-нибудь

Yuriy
23.03.2018
18:01:04
Воркеры role none это нормально, или это тэг , ??? Фото выше

Roman
23.03.2018
18:32:21
уже 1.9.6.... аа

Google

Gleb
23.03.2018
18:33:17
базы не в докере и там точно не будут )

Yuriy
23.03.2018
18:44:21
Ну дак кто-нибудь мне поможет в моем вопросе
[none] это нормально ??? Для ноды в ролях

Mikhail
23.03.2018
18:46:31
[none] это нормально ??? Для ноды в ролях
$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
ams03.azalio.net Ready <none> 11d v1.9.3
ams04.azalio.net Ready <none> 11d v1.9.3
vpn.azalio.net Ready <none> 71d v1.9.3
$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
10.126.126.10 Ready <none> 113d v1.7.4-2+eb9172c211dc41
возможно в некоторых инсталяциях роль играет роль, но как видите не везде

Yuriy
23.03.2018
18:47:48
Ок спасибо
Понял

Виталий
23.03.2018
18:48:02

Yuriy
23.03.2018
18:48:16
Это просто тег значит
Да через kubedmin join

Roman
23.03.2018
19:23:39
Никто не заморачивался ролинг-рестартом подов, но без деплоймента?

Anton
23.03.2018
19:26:50
Апдейтишь то что поддерживает rolling update и вот тебе рестарт

Anton
23.03.2018
21:03:24

Let Eat
23.03.2018
21:06:30

rt
23.03.2018
21:10:55
Есть вопрос. Ставлю кубер по официальному ману ручками в вагрант, чтобы разобраться как компоненты взаимодействуют. Там написано, что на нодах нужно сделать bridge интерфейс с подсеткой из которой будут выдаваться адреса подам ну и докер уведомить об этом через ключ —bridge=cbr0. Я правильно понимаю, что нужно cni поставить и сконфигурить там интерфейс?) Или какие-то еще опции есть?

Anton
23.03.2018
21:16:36

Aleksandr
23.03.2018
23:10:37

Yuriy
23.03.2018
23:53:31

Google

Yuriy
24.03.2018
00:00:16
Flannel лучше ставить как демона , а не отдельным подом

Andrey
24.03.2018
07:23:56
А как вы мониторите события в k8s?

Ihor
24.03.2018
07:28:15

Paul
24.03.2018
07:47:50

Usagi
24.03.2018
08:09:33
#freelance
Нужно настроить репликацию Postgres внутри Kubernetes.

Paul
24.03.2018
08:18:57

Gleb
24.03.2018
08:19:40
Реплики постгри в кубере.. опасно

Usagi
24.03.2018
08:23:03

Nikita
24.03.2018
10:08:28
Как понять в чем проблема если докер перестал запускаться при использовании btrfs в качестве бекенда (вопрос выбора бекенда — отдельный вопрос)?
Все что у меня есть это invalid argument
[mainnika@localhost docker]$ sudo /usr/bin/dockerd-current --containerd /run/containerd.sock --storage-driver=btrfs -D
WARN[0000] could not change group /var/run/docker.sock to docker: group docker not found
DEBU[0000] Listener created for HTTP on unix (/var/run/docker.sock)
DEBU[0000] Using default logging driver json-file
DEBU[0000] Golang's threads limit set to 42480
DEBU[0000] Cleaning up old mountid : start.
Error starting daemon: invalid argument
Но именно на этой конфигурации у меня все работало два дня назад, и после рестарта докера он перестал запускаться с этой ошибкой. Я пробовал пересоздать файловую систему бекенда — безуспешно. С overlay2 запускается.

Andrey
24.03.2018
10:26:04
group docker not found?
проверяли?
хотя это ворнинг