@docker_ru

Страница 647 из 1375
Mikalai
18.06.2018
06:18:10
это имеешь ввиду?

Dima
18.06.2018
06:19:37
Ты можешь пингом или курлом проверить в одной ли сети находятся контейнеры. Обращаться нужно по имени сервиса.

Mikalai
18.06.2018
06:29:47
пробую другой ip вписать cqlsh: image: cassandra:latest container_name: maildb_init entrypoint: cqlsh cassandra restart: always links: - cassandra command: ["-e ok 10.30.30.243"]а он дальше пробует maildb_init | Connection error: ('Unable to connect to any servers', {'172.20.0.2': error(111, "Tried connecting to [('172.20.0.2', 9042)]. Last error: Connection refused")})

Google
Volodimir Fedorov
18.06.2018
06:45:53
добавить ип либо % юзеру root в таблице mysql.users и сделать flush privileges

Boris
18.06.2018
07:06:37
Всем привет! Подскажите, как расшарить директорию с одного контейнера на другой в aws ecs? Нужно nginx дать возможность отдавать статику. При любом способе у меня просто монтируется пустая директория

Григорий
18.06.2018
07:11:11
https://traefik.io/ такую штуку кто-нибудть использует у себя?

Алексей
18.06.2018
07:17:28
кто нибудь использует

Григорий
18.06.2018
07:24:29
да
а для чего, если не секрет? к нему динамически подключать/отключать контейнеры можно? например в контейнере web1 - 172.17.0.5 живет site1.domain.com, web2 - 0.6 - site2 итд

unknown
18.06.2018
07:25:33
Всем привет. Такой вопрос, уже мозг сломал. Такая ситуация. Через docker-machine поднимаем пару машин и объединяем в сварм. После этого запускаем там допустим контейнер с понтейнером. И внутри сети все отлично. То есть в локалке спокойно могу подключится. Но сделать проброс портов на мир не могу. Поскольку разные подсети. Попытался на манагера добавить интерфейс бриджем. Нашел скрипт. Не помогло. Кто сталкивался? Вся заковырка именно в сети. Не знаю как побороть.

Т.е. суть задачи вообще как сделать через docker-machine сразу ВМку с сетью в которой и сам хост лежит.

Denis
18.06.2018
07:32:00
? MOSCOW KUBERNETES MEETUP 3 5 месяцев?! Друзья, коллеги, мы не встречались целую вечность! Хватит, хватит это терпеть! 20 июня, офис Ingram Micro. Kubernetes, Москва, снова вместе. Kubernetes стал стандартом де-факто в мире кластером. Чат русскоговорящего сообщества Kubernetes в Telegram ( https://t.me/kubernetes_ru ) перегрет горячими обсуждениями. Нас уже более 1500 участников. Казалось бы, всё уже обсудили, но нет. На этот раз, наш ждёт что-то новое. Выходим за границы привычного. Впервые у нас в гостях англоязычный спикер. Поэтому, отменяйте планы на среду, приглашайте с собой коллег и готовьтесь погрузиться в новый большой мир. Настала пора обсудить – куда же мы все пришли за последние 15 месяцев? ПРОГРАММА: 19:00 - 19:20 Socializing 19:20 - 19:35 Welcome & digest, some fun 19:35 - 20:15 Networking and security in Kubernetes (Emil Gągała, VMware, EMEA Network and Security Architect) Do I need something more than Flannel? Flannel seems to be most popular networking option in Kubernetes. Is it the only choice? How to implement namespaces, services, ingress controller, network policy in more efficient way? And not forget about 2 day operations simplicity? Join my session to see live demo of K8S networking with VMware NSX. Bio: Emil Gągała – network consultant, enthusiast of cloud technology and cloud native applications. Graduate of telecommunications at Warsaw University of Technology. Three years ago he joined VMware team as EMEA Network & Security Architect. Involved in NSX projects in areas of Kubernetes, OpenStack and Cloud. Previously he worked as Senior System Engineer in Juniper Networks. He has expertise in area of core networks, data centers and security. VCIX-NV, AWS-CSA and JNCIE certified. 20:15 - 20:55 Kubernetes Bare Metal (Михаил Жучков, Neuron Digital, SRE Team Lead) В данном докладе Михаил расскажет о том, как жить с Kubernetes на "железных" серверах без облаков. Про L3 сети, про Calico, про его дружбу с OSPF. Поднимутся проблемы написания своих плейбуков для установки кластера и обсудим плюсы-минусы такого подхода. Био: Михаил – "классический" админ с 10-летним стажем, нырнувший пару лет назад в модный стек технологий. С радостью познаёт новые технологии и с болью смотрит на то, как их познают другие. Известен своими провокациями про OpenStack vs Kubernetes. ? 20:55 - 21:15 Кофе-брейк, чай-пати, горячие дискуссии 21:15 - 22:00 Обзор Kubernetes как сервиса от облачной платформы Mail.Ru (Дмитрий Лазаренко, Mail.Ru Group, Product Manager) Недавно компания Mail.Ru Group запустила Kubernetes как услугу в облаке Mail.Ru Cloud Solutions, которая позволяет быстро создавать и масштабировать кластеры Kubernetes, включая multi master. В докладе Дмитрий расскажет о том, что под капотом этого решения - про функциональную начинку и системную архитектуру, про интеграцию с IaaS-платформой на базе OpenStack (приватные сети, блочные и NFS Persistent Volumes и PVC, LoadBalancer), а также про модель безопасности. Био: Дмитрий отвечает за PaaS-сервисы B2B-облака Mail.Ru, включая контейнерные решения на базе Kubernetes. До этого, в течение 6 лет работал в Jelastic, отвечал за разработку и развитие контейнерной PaaS-платформы. Эксперт в построении высоконагруженных сервисов. 22:00 - 6:00 Afterpaty? ? УСЛОВИЯ УЧАСТИЯ: 1. Мероприятие бесплатное. 2. Регистрация по ссылке - https://www.meetup.com/Moscow-Kubernetes-Meetup/events/251806061/ 3. Вход строго по регистрации. ВНИМАНИЕ! Необходимо обязательно указать в настройках профайла на Meetup.com свои имя и фамилию. ВОПРОСЫ? Появились вопросы или готовы выступить с докладом на следующем митапе? Пишите в Telegram: - https://t.me/DenisIzmaylov Или на e-mail: events@axept.co

Алексей
18.06.2018
07:32:31
Вы издеваетесь?

Андрей
18.06.2018
07:33:46
? MOSCOW KUBERNETES MEETUP 3 5 месяцев?! Друзья, коллеги, мы не встречались целую вечность! Хватит, хватит это терпеть! 20 июня, офис Ingram Micro. Kubernetes, Москва, снова вместе. Kubernetes стал стандартом де-факто в мире кластером. Чат русскоговорящего сообщества Kubernetes в Telegram ( https://t.me/kubernetes_ru ) перегрет горячими обсуждениями. Нас уже более 1500 участников. Казалось бы, всё уже обсудили, но нет. На этот раз, наш ждёт что-то новое. Выходим за границы привычного. Впервые у нас в гостях англоязычный спикер. Поэтому, отменяйте планы на среду, приглашайте с собой коллег и готовьтесь погрузиться в новый большой мир. Настала пора обсудить – куда же мы все пришли за последние 15 месяцев? ПРОГРАММА: 19:00 - 19:20 Socializing 19:20 - 19:35 Welcome & digest, some fun 19:35 - 20:15 Networking and security in Kubernetes (Emil Gągała, VMware, EMEA Network and Security Architect) Do I need something more than Flannel? Flannel seems to be most popular networking option in Kubernetes. Is it the only choice? How to implement namespaces, services, ingress controller, network policy in more efficient way? And not forget about 2 day operations simplicity? Join my session to see live demo of K8S networking with VMware NSX. Bio: Emil Gągała – network consultant, enthusiast of cloud technology and cloud native applications. Graduate of telecommunications at Warsaw University of Technology. Three years ago he joined VMware team as EMEA Network & Security Architect. Involved in NSX projects in areas of Kubernetes, OpenStack and Cloud. Previously he worked as Senior System Engineer in Juniper Networks. He has expertise in area of core networks, data centers and security. VCIX-NV, AWS-CSA and JNCIE certified. 20:15 - 20:55 Kubernetes Bare Metal (Михаил Жучков, Neuron Digital, SRE Team Lead) В данном докладе Михаил расскажет о том, как жить с Kubernetes на "железных" серверах без облаков. Про L3 сети, про Calico, про его дружбу с OSPF. Поднимутся проблемы написания своих плейбуков для установки кластера и обсудим плюсы-минусы такого подхода. Био: Михаил – "классический" админ с 10-летним стажем, нырнувший пару лет назад в модный стек технологий. С радостью познаёт новые технологии и с болью смотрит на то, как их познают другие. Известен своими провокациями про OpenStack vs Kubernetes. ? 20:55 - 21:15 Кофе-брейк, чай-пати, горячие дискуссии 21:15 - 22:00 Обзор Kubernetes как сервиса от облачной платформы Mail.Ru (Дмитрий Лазаренко, Mail.Ru Group, Product Manager) Недавно компания Mail.Ru Group запустила Kubernetes как услугу в облаке Mail.Ru Cloud Solutions, которая позволяет быстро создавать и масштабировать кластеры Kubernetes, включая multi master. В докладе Дмитрий расскажет о том, что под капотом этого решения - про функциональную начинку и системную архитектуру, про интеграцию с IaaS-платформой на базе OpenStack (приватные сети, блочные и NFS Persistent Volumes и PVC, LoadBalancer), а также про модель безопасности. Био: Дмитрий отвечает за PaaS-сервисы B2B-облака Mail.Ru, включая контейнерные решения на базе Kubernetes. До этого, в течение 6 лет работал в Jelastic, отвечал за разработку и развитие контейнерной PaaS-платформы. Эксперт в построении высоконагруженных сервисов. 22:00 - 6:00 Afterpaty? ? УСЛОВИЯ УЧАСТИЯ: 1. Мероприятие бесплатное. 2. Регистрация по ссылке - https://www.meetup.com/Moscow-Kubernetes-Meetup/events/251806061/ 3. Вход строго по регистрации. ВНИМАНИЕ! Необходимо обязательно указать в настройках профайла на Meetup.com свои имя и фамилию. ВОПРОСЫ? Появились вопросы или готовы выступить с докладом на следующем митапе? Пишите в Telegram: - https://t.me/DenisIzmaylov Или на e-mail: events@axept.co
Будет ли трансляция/запись?

Андрэ
18.06.2018
07:33:50
Надо больше нотификейшенов)

Sergey
18.06.2018
07:34:27
Будет ли трансляция/запись?
да должна быть, как вопросы то задавать))

Google
Denis
18.06.2018
07:34:48
Будет ли трансляция/запись?
Пока неизвестно, но если будет, то ссылка будет опубликована в @kubernetes_ru / запись будет точно :)

Mikalai
18.06.2018
07:46:22
Спасибо за помощь. Удалось запустить, но с мостом: ``` version: '2' services: mailweb: container_name: mailweb image: golang:latest volumes: - .:/go/src/mailweb working_dir: /go/src/mailweb command: bash -c "./buildweb.sh; ./mailweb.bin" restart: always links: - cassandra networks: vpcbr: ipv4_address: 10.5.0.4 cassandra: image: cassandra:latest container_name: maildb volumes: - .:/var/lib/maildb working_dir: /var/lib/maildb ports: - '7000:7000' - '7001:7001' - '7199:7199' - '9042:9042' - '9160:9160' networks: vpcbr: ipv4_address: 10.5.0.2 cqlsh: image: cassandra:latest container_name: maildb_init entrypoint: cqlsh cassandra restart: always links: - cassandra volumes: - ./maildb/schema.cql:/schema.cql command: -f schema.cql environment: - CASSANDRA_RPC_ADDRESS=10.5.0.3 networks: vpcbr: ipv4_address: 10.5.0.3 networks: vpcbr: driver: bridge ipam: config: - subnet: 10.5.0.0/26 gateway: 10.5.0.1 ```Извините за глупый вопрос, но как узнать, на каком ip запущены серверы? и можно ли на localhost перенаправить?

Sergey
18.06.2018
07:47:31
а те адреса что у вас прописаны вас не устраивают?

Mikalai
18.06.2018
07:48:12
есть задача curl -X POST localhost:8080/api/message -d '{"email":"mail@example.com","title":"Interview","content":"simple text","magic_number":101}'

c 10.5.0.4 выполнится, но это не до конца то, что требуют

unknown
18.06.2018
07:49:10
Ребзя) Ну как сделать сразу вмки через докер машину в бридже?)

Eugene
18.06.2018
07:53:45
Пока неизвестно, но если будет, то ссылка будет опубликована в @kubernetes_ru / запись будет точно :)
Подскажите, а запись будет тут опубликована, или в группе кубернетес ?

Sergey
18.06.2018
07:56:17
в ютубе:)

Ruslan
18.06.2018
08:11:43
всем привет, я изучаю докер. Нужна Ваша помощь, вопрос легкий. Я остановил вторую машину и у меня весь сервис переехал на первую машину. Когда я запускаю вторую машину, весь сервис остается на первой. Как я могу снова распределить воркеры между нодами?

Ruslan
18.06.2018
08:16:09
до выключения второй машину, у меня там были воркеры

а что подразумевает собой переезд
я хотел чтобы они снова там появились

Sergey
18.06.2018
08:16:38
вы хотите раскидать воркеры между двумя тачками не теряя сервис?

Sergey
18.06.2018
08:17:49
такое возможно?
с Kubernetes возможно все:)

у вас будет сеть контейнеров связанная по API

и реплики контейнеров

Ruslan
18.06.2018
08:19:08
мне бы в докере разобраться)

Sergey
18.06.2018
08:19:51
просто по сути вам нужно будет на несколько хостов как то докером раскидывать

лучше сворм\кубер

Google
Ruslan
18.06.2018
08:20:21
лучше сворм\кубер
у меня swarm сейчас настроен

Sergey
18.06.2018
08:20:54
https://docs.docker.com/network/overlay-standalone.swarm/

оно?

я не совсем понял вопрос, дело в сети или в чем

Ruslan
18.06.2018
08:22:14
я не совсем понял вопрос, дело в сети или в чем
скриншоты наверное помогут. Секунду



Sergey
18.06.2018
08:24:44
ииии?

Ruslan
18.06.2018
08:24:55


Sergey
18.06.2018
08:25:27
что надо то в итоге? вы что куда раскидывать то хотите

докер как запускается

Ruslan
18.06.2018
08:26:09
что надо то в итоге? вы что куда раскидывать то хотите
я хочу чтобы сварм раскидал воркеры между машинами

Sergey
18.06.2018
08:27:27
https://www.upcloud.com/support/docker-swarm-orchestration/

оно?



Ruslan
18.06.2018
08:32:57
@vizdrag единственный способ который я вижу - это убить воркеры и они сами переедут на второй инстанс

Григорий
18.06.2018
08:33:17
Кто может помочь с Docker Plugin в Jenkinsе? В Configure System -> cloud -> docker указал хост докера, на котором должен стартовать контейнеры, образ и лейбл. В jenkinsfile указал ... agent { docker { image 'repo/php-jenkins-slave' label 'php-agent' } ... но конетйнер упорно пытается стартануть на мастере и фейлится, потому что там докера нет

Iskander
18.06.2018
08:35:10
label 'php-agent'

этот лейбл есть на агенте?

рекомендуется отключить сборку на мастере, это рано или поздно приведет к поверждению jenkins_home

Google
Iskander
18.06.2018
08:36:24
https://t.me/jenkins_ru

Григорий
18.06.2018
08:37:39
этот лейбл есть на агенте?
я так понял, что это просто лейбл для докер хоста в самом дженкинсе. потому что мы там можем настроить больше одного докер хоста и уже ссылаться на конкретный хост с помощью этого лейбла из дженкинсфайла

Iskander
18.06.2018
08:38:22
нет, это лейбл для агента

Григорий
18.06.2018
08:40:08
нет, это лейбл для агента
wow, а где на агенте указать лейбл нужно? просто у меня как-то работало раньше, потом я jdk переустановил на агенте и все, больше не работает

Iskander
18.06.2018
08:40:35
в настройках агента, точный путь не помню, но это в основных настройках должно быть

Iskander
18.06.2018
08:41:24
manage nodes -> node

Григорий
18.06.2018
08:42:16
а, погоди, у меня динамические агенты должны быть, существуют только во время билда

в образе с моим приложением стоит jdk и slave.jar, контейнер должен подниматься и подключаться к мастеру как слейв

Iskander
18.06.2018
08:51:28
нужно настройки плагина смотреть

как бутстрапятся твои агенты

и т.д.

Ilgiz
18.06.2018
08:59:32
Кто поднимал nodejs + express + sequelize на докере?

у меня пару вопросов

Alexey
18.06.2018
09:06:14
Так задавай

Ilgiz
18.06.2018
09:07:22
Так задавай
там sequelize создает config папку с config.json как правильнее будет эти конфиги настроить на докере?

без этой папки sequelize не запускает миграции

Alexey
18.06.2018
09:10:39
Так а какие с ними проблемы? Смапь на volume если надо

Ilgiz
18.06.2018
09:11:07
ну придется ручками писать хост имя базы пароль юзера

Google
Ilgiz
18.06.2018
09:12:44
и при гите тоже проблемы будут, свои данные с этого файла чистить и пушать

Yaroslav
18.06.2018
09:15:09
И в чем именно проблема

Ilgiz
18.06.2018
09:15:51
А где sequelize создает, этож орм
смотри, orm создает config папку, и что б запустить миграции надо там свои данные прописывать

Алексей
18.06.2018
09:16:36
services: app: image: ${image} migrate: image: ${image} command: ./node_modules/bin/sequelize db:migrate

Ilgiz
18.06.2018
09:16:41
данные надо что б он брал с .env

Павел
18.06.2018
09:17:04
Привет, ребят. Может кто знает, у letsencrypt-nginx-proxy-companion есть возможность перенаправить все запросы с одного поддомена на другой хост?

Алексей
18.06.2018
09:17:07
так сконфигуряй чтоб sequelize брал данные из env

Yaroslav
18.06.2018
09:17:08
Запускай через coreenv

Все файлы внутрь контейнера

Ilgiz
18.06.2018
09:18:18
так сконфигуряй чтоб sequelize брал данные из env
ты понял проблему? там sequelize-cli ищет папу config.json

Алексей
18.06.2018
09:19:10
ты понял проблему? там sequelize-cli ищет папу config.json
ну так я тебе говорю, запустить приложение твое только подменить запуск вместо приложухи запустить миграцию

у тебя будет все тоже самое что и в приложении сконфигуренное

ты понял решение?

Страница 647 из 1375