
Антон
15.10.2018
18:53:41

Sergey
15.10.2018
18:54:09

Антон
15.10.2018
18:54:40

Google

Yaroslav
15.10.2018
18:54:53

Gor
15.10.2018
18:56:12
Я бы сказал недопонимание зачем это нужно
ну или так. по сути проблема остается за кадром. что вполне ожидаемо. Все же это было ранее в обязаностях админа. А при движении в devops, когда нагрузка на создание окружения ложится на програмистов, это выходит за границы фокуса. Впрочем если быть обьективным до конца, то и не каждый админ озабочивается далее чем регулярный yum update

Sergey
15.10.2018
18:56:55
или все на админе?

Антон
15.10.2018
19:00:29
Как-то так)))с птаем аналогично, но это решение нач.депа, я только за

Sergey
15.10.2018
19:01:36
ну прост проблема в источнике

Антон
15.10.2018
19:01:55

Sergey
15.10.2018
19:01:57
они опять говнякают, может как то люди пресекают это
как то на разрабов воздействуете чтобы говнякали секурно?

Ilya
15.10.2018
19:06:28
Привет ops'ам.
Скажите ктото очень плотно занимается amazonи его инструментами?

Sergey
15.10.2018
19:06:31
или пускай тимлид разрабов линейкой по рукам бьет за обход ИБ подходов?

Ilya
15.10.2018
19:08:07
Изза того что нет-нет да и амазоновские ip попадают в ркн
Они мне выделили пул приватных-реальных ip, которые не попадут туда.

Google

Ilya
15.10.2018
19:08:21
А цель навесить реальник, и разобрать трафик
NLB - неумеет в ssl
ALB - неумеет в реальники

Gor
15.10.2018
19:30:06
вот пример. вышла CVE-2018-1999011. Должно проверить что ffmpeg на сборках используется не подверженный этой уязвимости. и если нет, то не пропускать билд
ну и соответственно при первом же обновлении в prod должно стоять уже ffmpeg нужной версии. соответственно должны быть обкатаны механизмы обновления прода в контесте CVE и CI/CD

Vitalii
15.10.2018
19:45:22
где то была дока по такому решению
https://aws.amazon.com/ru/blogs/networking-and-content-delivery/using-static-ip-addresses-for-application-load-balancers/
вот собственно
но сам не подымал

Sergey
15.10.2018
19:48:51

Sergey
15.10.2018
19:57:40

Demuz
15.10.2018
19:58:46

Sergey
15.10.2018
19:59:11

Demuz
15.10.2018
20:00:09
Там уже и так etcd, haproxy, patroni, corosync, ещё баунсер прикручивать. ? Почитаю ещё. Спасибо.

Sergey
15.10.2018
20:03:48

Никита
15.10.2018
20:13:29

Demuz
15.10.2018
20:14:32
Коросинка нет же.
На кластере у меня есть, для виртуального ip, который мигрирует между серверами. Там то нет, в библиотеке)))
Имел ввиду, на кластере и так уже многовато кластерных сервисов, ещё один прикручивать не канает. Один мелкий сбой и задолбаешься восстанавливать кластер ?

Никита
15.10.2018
20:18:54

Google

Gor
15.10.2018
20:19:13

Demuz
15.10.2018
20:21:04
Как я понял, генератор кофига хапрокси просто парсит данные через апи patroni, определяет истинные слейвы pgsql и на них проксирует запросы только для чтения. Жаль что приходится "учить" этому само приложение. Что есть адрес рид онли.

Никита
15.10.2018
20:26:29

Demuz
15.10.2018
20:28:29
Короче заказчикам мало юзать сервы для отказоустойчивости, ещё нужно эти же серверы в балансировке запросов к бд использовать
При чем так, что сам мидлвар должен направлять запрос, в зависимости от того селект это или инсерт в базу. ?

Sergey
15.10.2018
20:31:07

Никита
15.10.2018
20:32:20

Demuz
15.10.2018
20:32:51
Даже если пинги и скорость бешеная до сервака, хоть они в одной машине находятся, все равно задержка обработки в базе сильно отличается, особенно если это тяжвесный проект. Даже если стоит режим "ждать ответ от одной любой из реплик".

Никита
15.10.2018
20:34:53

Sergey
15.10.2018
20:35:07

Demuz
15.10.2018
20:36:10

Никита
15.10.2018
20:36:20

Demuz
15.10.2018
20:36:39
Сегодня еще база не поняла, что на ее мастере обновили 8 гигабайт информации ???
Как так вобще получается, я фигею просто.

Никита
15.10.2018
20:37:26
Грешновато.

Google

Demuz
15.10.2018
20:40:03
Не, там дофига конечно тонкостей, типа wal файлов, стрим репликации, но ёлки палки, заказчик проверял кластер, выключил одну ноду, тупо затер базу на оставшихся нодах, одна из них уже заняла место мастера, затем, записал огромную базу в эти включенные сервы. После всех этих операций включили самый первый сервак, который потерял мастерство)) и чё? Он просто стоял и даже не понимал что изменилось 8 мать их гигов инфы в бд. Это жопа полная была
Ну я ему объяснил что редко бывает такое, что у тебя вся база затирается на мастере, перезаписывается и включается старый мастер, который вообще нихера не понял, что произошло.

Никита
15.10.2018
20:41:39
Ну вот и зачем такое на ночь рассказывать? (:

Demuz
15.10.2018
20:42:35
Да потому что жопа, что в мускуле с этим ндб кластером есть косяки, что в этом посгре тоже свои заморочки. Человеческий фактор. Ошибки везде есть, а вот заказчику тяжело объяснить.

Никита
15.10.2018
20:45:40
Я имел в виду конфиг для pg_bouncer!
Pg_pool не нужен.

Евгений
15.10.2018
20:49:56

Никита
15.10.2018
20:51:21

Vasiliy
15.10.2018
20:52:41
Господа, а есть кто-то, кто может подсказать - где поискать - как docker-compose определяет уникальность конейнера чтобы его пересоздать ?
Я хочу из одного docker-compose при помощи env-переменных создавать разные окружения (dev и staging), задаю им container_name и image, зависящие от этой переменной, но после docker-compose up -d - контейнер из другого env убивается.
Хочу понять почему так - всё разное же.
Или дело в том, что docker-compose не изменился ?

Anton
15.10.2018
20:55:02
-p

Andrey
15.10.2018
20:57:32
Народ просветите. Стоит заббикс 3.0 сервер. Хочу мониторить jvm, которое поднято как микросервис в кубернетис. Что мне нужно для проксирования до jvm? Zabbix-proxy?читал нужен Java gateway. Но не пойму нужно ли его с прокси скрещивать или он уже туда встроен?

Никита
15.10.2018
20:59:24

Andrey
15.10.2018
20:59:57

Vasiliy
15.10.2018
21:00:12

Roman
15.10.2018
21:00:18

Andrey
15.10.2018
21:02:27
Тогда в чем проблема?
Как спроксиповать внешний заббикс до jvm которая в контейнере в кубернетис. Я не шибко с заббикс знаком. Вычитал что есть jmx Java gateway но не понял как его поднять. Или он просто как часть заббикс прокси.

Vasiliy
15.10.2018
21:02:53

Никита
15.10.2018
21:06:04
Запущенный в кубернетесе под можно разными способами опубликовать, это делается через сервисы.

Google

Andrey
15.10.2018
21:08:40

Никита
15.10.2018
21:10:27
Как опубликовать сервис в кубернетесе есть тут:
https://kubernetes.io/docs/tasks/access-application-cluster/service-access-application-cluster/
NodePort перенаправляет трафик, пришедший на один из портов на любой из твоих кубернетес-нод, на порт твоего пода.
Но вообще, для мониторинга всего-всего в кубернетесе проще и приятнее использовать Prometheus, с ним стоит ознакомиться.

Andrey
15.10.2018
21:14:36
Это я настроил. Получается мне в сервисе приложения нужно настраивать jvm порт на котором оно слушает?

Roman
15.10.2018
21:16:57

Никита
15.10.2018
21:17:18
Ну и да, там вот сообщество хорошее, правда, про Заббикс лучше не упоминать)