@docker_ru

Страница 1117 из 1375
Андрей
16.03.2019
08:27:08
САМ ОБРАЗ НЕ МЕНЯЕТСЯ ВООБЩЕ , для этого есть специальные команды связанные с работой с самим образом на прямую...непосреднественно

и слоями приложений которые в нем расположенны, как предустановки при сборке

@AnatolyUser ,  вопросы ?

Anatoly
16.03.2019
08:29:05
@AnatolyUser ,  вопросы ?
Вроде всё понятно :) Пойду дальше ковырять докер и php

Google
Андрей
16.03.2019
08:29:10
?

Андрей
16.03.2019
08:34:06
Всем привет! А кто нибудь пробовал настраивать tarantul master-master внутри docker swarm overlay network ? Цель запустить 3 ноды с тарантулом мастером на географически разнесенных серверах с репликацией по docker overlay сети с енкрипцией То есть я немного не понимаю, как сформировать конфиги для тарантула. Там надо будет указать инстанции друг друга, базируясь на DNS - те что докер выдаст внутри сети

Как будут адресоваться разные экземпляры тарантула на разных нодах

Андрей
16.03.2019
08:43:09
по идее тебе надо всего один мастер, но маштабирование

трижды

scale

а докер сам. разрулит.. кому что посылать..

чтоб не накладывалось

Андрей
16.03.2019
09:02:06
нет, мне надо 3 мастера, в разных гео точках чтобы была копия всех данных и работоспособность системы поддерживалась при отключении 2-ух других мастеров

без докера я умею настраивать

хочу использовать от него оверлейную сеть

Alexey
16.03.2019
09:03:36
docker swarm крайне нестабильная штука. Не стоит. Серьёзно.

Google
Андрей
16.03.2019
09:04:07
Спасибо. Я честно говоря в ней сомневаюсь

Сейчас вот запустил 3 мастера swarm

а они запутались между собой - не могут 3 реплики запусить)

Вообщем тогда расскажу схему

я научился настраивать mesh VXLAN - чтобы сервисы внутри между собой могли общаться

но хочу наложить encription

и не понимаю как

Stefan
16.03.2019
09:05:42
swarm который мы заслужили

Alexey
16.03.2019
09:06:25
Я бы использовал consul connect вместо оверлейной сети.

Андрей
16.03.2019
09:06:48
он легковесный?

Alexey
16.03.2019
09:07:22
да

Андрей
16.03.2019
09:07:52
у меня сервис - 3 виртуалки 1CPU и 1GB ram Туда все прекрасно влазит пока не начинаешь пихать докер и тому подобное

Alexey
16.03.2019
09:08:04
это service discovery и куча всего ещё. В том числе connect. Connect шифрованный.

Андрей
16.03.2019
09:08:15
он памяти не отожрет?

просто есть альтернатива прокинуть ssh тунели

consul децентрализован? или у него есть единая точка отказа?

Alexey
16.03.2019
09:09:53
VIRT RES 175988 20112 клиент косула

Андрей
16.03.2019
09:10:08
175 Мб зажрал?

Alexey
16.03.2019
09:10:09
виртуальной

Google
Андрей
16.03.2019
09:10:22
20 RAM ?

Спасибо за совет, рискну потестировать

Alexey
16.03.2019
09:11:10
https://learn.hashicorp.com/consul/getting-started/install

Это kv ещё. Может вам и тарантул не нужен xD

Андрей
16.03.2019
09:12:32
kv - какого размера?

kv - для конфигурации сервисов - это одна нагрузка, а tarantool - для распределенной базы это другая

kv мне нужно действительно, для динамической переконфигурации

Alexey
16.03.2019
09:14:10
consul-template сверху софт. Генерит конфиг, перезапускает что скажут

Или если у вас все в докере, то можно посмотреть nomad. Это на порядок лучше swarm

Андрей
16.03.2019
09:15:00
Я читал про него. Он мне тяжеловатым показался

Alexey
16.03.2019
09:15:09
он крайне легкий.

Андрей
16.03.2019
09:15:34
https://www.nomadproject.io/guides/operations/requirements.html

Alexey
16.03.2019
09:15:59
физ памяти 90MB у воркера на проде для примера

Андрей
16.03.2019
09:16:11
а единая точка отказа?

Alexey
16.03.2019
09:16:19
нет

Андрей
16.03.2019
09:16:20
3 ноды по 1 GB ram

Alexey
16.03.2019
09:16:33
только там raft

2n+1

будет норм если одна из 3 умрёт

Андрей
16.03.2019
09:16:51
в каждую ноду надо 1. WebSocket сервер / HTTPS сервер/ Tarantool

Google
Андрей
16.03.2019
09:17:03
надо чтобы все умерли и все ок

то есть 1 выживет - и достаточно

ноды идентичные

Yaroslav
16.03.2019
09:17:25
он крайне легкий.
смотря для чего. если чтоб легаси сшить - нормально, а если свое писать, то лишняя и тяжелая обвязка.

Alexey
16.03.2019
09:17:40
после nomad только k8s. Ну ок, есть k3s, но это рисково

ноды идентичные
ну процессы будут жить. Просто не будет кворума и все замрёт.

Yaroslav
16.03.2019
09:18:27
отпять же трафик какой - плюшевый http api раз в секунду или бинарные потоки.

Alexey
16.03.2019
09:18:55
nomad шедулит койнеры на хосте. Какой трафик?

там нет оверлейной сети или ещё чего. Это не его проблемы.

Андрей
16.03.2019
09:19:59
вообщем смысл такой. В одном сервере 1Gb/1CPU все это прекрасно работает (по 10000 SSL/WebSocket коннектов тянет каждый). И не хотелось бы ради оверлейной сети городить избыточную инфраструктуру.

То есть простейшее решение: ssh туннели

если consul это решит проще + даст KV, то супер

Alexey
16.03.2019
09:20:27
Андрей
16.03.2019
09:20:35
Согласен

Андрей
16.03.2019
09:21:01
отл. А для nomad я пока не созрел, но он как я понял поверх консула работает ведь?

Слушайте, а кто нибудь тут soltstack знает?

Alexey
16.03.2019
09:21:33
отл. А для nomad я пока не созрел, но он как я понял поверх консула работает ведь?
нет, может без него. Но consul делает service discovery и healtcheck, это очень полезно.

Google
Андрей
16.03.2019
09:21:51
service discovery и healtcheck - да, именно это и надо

жалко он на Go написан, а не на C

Alexey
16.03.2019
09:22:30
если у вас статические контейнеры - не испольйте докер.

используте ansible и все.

не используйте nomad*

Андрей
16.03.2019
09:23:01
Я сейчас выбираю между ansible и soltstack

контейнеры статичны - да

Alexey
16.03.2019
09:23:43
https://docs.ansible.com/ansible/latest/modules/docker_container_module.html https://docs.ansible.com/ansible/latest/modules/consul_module.html

таск на docker run, таск на регистрацию service - пару строк и хорошо.

https://github.com/brianshumate/ansible-consul хорошая роль

Андрей
16.03.2019
09:25:04
спасибо

Alexey
16.03.2019
09:25:46
node_exporter тоже стоит на хосты ставить

https://github.com/cloudalchemy/ansible-node-exporter хорошая роль =) и у них же prometheus для мониторинга

Андрей
16.03.2019
10:08:27
@devops_ru
Спасибо

Игорь
16.03.2019
10:25:42
Вопрос. Было приложение монолит с Celery и MongoDB. Без докера. Теперь Celery и Mongo рассованы каждый в свой контенер. Но появилась проблема. Celery делало дампы монго по расписанию с помощью mongodump. Но так, как монго теперь крутиться в отдельном контейнере, то у Celery больше нет доступа к утилите. Как быть в этой ситуации?

George
16.03.2019
11:05:35
вообще не пользоваться mongodump

использовать бекап на хост машине при помощи LVM snapshot

?

Страница 1117 из 1375