
Konstantin
22.03.2017
18:52:10
В идеале очень интересно было бы узнать последовательность деплоя простейшего сервиса. Например: git push ->... ->...->...

Данил
22.03.2017
18:52:27

Nurbek
22.03.2017
18:55:15
и еще расскажите пожалуйста про версионность

Google

Denis
22.03.2017
18:57:11
Сейчас спрошу

Konstantin
22.03.2017
18:59:06

Denis
22.03.2017
19:00:08
Отвечает

Nurbek
22.03.2017
19:08:56
попробую объяснить. Когда исходники сервиса мерджатся с релизной ветки на мастер, то увеличтвается минорная версия. Эта самая версия как то отражается при deploy сервиса на production? Если да, то каким функционалом?

Old
22.03.2017
19:15:50
Спасибо, что пришли! Не забудьте поделиться впечатлениями в анкете обратной связи https://goo.gl/forms/Y01rFDNdWxoIa40v2

Konstantin
22.03.2017
19:17:41
Вопрос такой: неужели никто из представителей компаний не юзает cloud provider'ов? Например Amazon. Ни слова)))

Ivan
22.03.2017
19:22:54
по просьбам — ссылка на dind cluster https://github.com/Mirantis/kubeadm-dind-cluster

Vasily
22.03.2017
19:24:54
Check out @MirantisIT's Tweet: https://twitter.com/MirantisIT/status/844597545779318784?s=09
А в это время Мирантис про helm. Совпадение?...

Vasily
22.03.2017
19:39:53
https://habrahabr.ru/post/324240/

Michail
22.03.2017
19:47:22
https://habrahabr.ru/post/324240/ а про это говорят еще поверх к8с для разработчиков

Google

Denis
22.03.2017
19:49:31
Спасибо всем, кто был и активно участвовал удалённо! Все было круто. До встречи на следующем митапе. ???

yolkov
22.03.2017
20:54:51

Михаил
22.03.2017
20:58:42

yolkov
22.03.2017
20:59:25
я пока понять хочу, а ставить не хочу)
как например в их теплейтах например в одном окружении примонтировть волум у пода, а другом не монтировать
или в одном окружении поднимать дев БД, а в другом использовать адрес внешней БД?

Vasily
22.03.2017
21:03:14
У них есть в доке раздел для разрабов. Готовый кластер в контейнере.
Посмотри да попробуй.

yolkov
22.03.2017
21:07:48
пока во всех примерах которые нашел подставляютя только значения

Denis
22.03.2017
21:09:09
Спасибо Avito за прекрасный тёплый приём и лично Михаилу @oldtuna за активную помощь! ? Фото и видео будут совсем скоро. Много интересного обсудили.
Предварительная программа на следующий митап:
- Kubernetes & OpenShift
- Ceph & Kubernetes
Было бы интересно увидеть доклады про безопасность.

Alexander
22.03.2017
21:16:46
О Серега Василенко -)))))

Denis
22.03.2017
22:20:57
Земля имеет форму чемодана, а в ИТ вообще всё тесно :)

Alexander
22.03.2017
22:21:30
Да мы вместе работали -) Ненавно бухали на встрече выпускников мирантиса -)

Alexey
22.03.2017
23:38:40
@oldtuna еще раз Спасибо)

Vadim
23.03.2017
07:30:12
А кто как именует docker image ? Я так понимаю имя всегда должно быть разное чтобы в kubernetes делать update ?

Vasily
23.03.2017
07:37:52

Artem
23.03.2017
07:42:18

Google

Artem
23.03.2017
07:42:30
appname:v1.1
например

Vadim
23.03.2017
07:43:59
ок спасибо

Max
23.03.2017
09:05:20
О Серега Василенко на митапе был ) надо было ехать)

Andrey
23.03.2017
09:09:10
по поводу деплоя кстати оффтоп: открыл для себя deis, кому интересно настроить деплои в кубик можете его поковырять

M
23.03.2017
09:11:03

Vladimir
23.03.2017
09:12:35

Andrey
23.03.2017
09:12:58
ну просто так в кубер не сдеплоить: надо оборачивать твой код в докер-образ, куда-то этот образ ложить и подменять тег в деплойменте кубика
если делать через helm то примерно то же самое только там еще обмазываешься допконфигами
то есть нужно либо юзать внешнее хранилище контейнеров, либо поднимать приватное... лишние геморы
а deis сам все это делает
по сути это приватный аналог heroku

M
23.03.2017
09:14:26
интересно. а как он опредеяет сколько тебе нужно каких подов? или он для одноконтейнерных приложений?

Andrey
23.03.2017
09:15:56
ты создаешь приложение (неймспейс), задаешь для него переменные окружения (конфиги, см. 12-factor apps), хелсчеки и деплоишь (либо докер, либо пушем в ветку репозитория)
а количество подов нужное задаешь через scale (по сути он проксирует команду к kubectl scale)

Vadim
23.03.2017
09:16:17
@rutsky О спасибо, сейчас почитаю.

Andrey
23.03.2017
09:17:09
https://deis.com/docs/workflow/quickstart/

M
23.03.2017
09:17:20


Andrey
23.03.2017
09:17:36
там нет конфигов, там переменные окружения
"аналог конфигов"
вот я памятку для кодеров написал как создавать и деплоить приложения в кластер (тоже кстати тема - не надо учить кубернетесу и настраивать права, сами деплоят):
`
### setup deis on machine (staging env)
deis git:remote -a portby-staging -r staging
deis keys:add vkfont ~/.ssh/id_rsa.pub
### create application and setup config
deis apps:create portby-staging —no-remote
deis domains:add -a portby-staging api-staging.portby.com
deis config:set -a portby-staging PORT=8080
deis healthchecks:set readiness httpGet 8080 \
-a portby-staging \
—type=web \
—initial-delay-timeout=10 \
—timeout-seconds=5
### deploy application
git push staging [somebranch|sometag]
### rollback application
deis releases
deis rollback -a portby-staging v7
### observe multiple logs
stern -t -s 10s -n portby-staging portby
stern -t -s 1s -e NETWORK mongodb
`
`


M
23.03.2017
09:26:21
выглядитт не очень сложно, но обычно это же делает CI ?
### setup deis on machine (staging env)
deis git:remote -a portby-staging -r staging
deis keys:add vkfont ~/.ssh/id_rsa.pub
deis наверняка менее гибок в отношении тестов и прочего перед выкладкой

Andrey
23.03.2017
09:28:00
deis это не про CI... он ничего не знает про тесты, интеграцию и прочее, это просто инструмент для выкладки, и его ты уже интегрируешь куда надо

Google

Andrey
23.03.2017
09:28:44
для меня плюс в том что не надо доступ к кубику давать людям... просто добавил из ssh-ключ на сервер, прописал remote-ветку в их .git/config и они уже могут деплоить (ну или на CI так сделал)

M
23.03.2017
09:29:36

Andrey
23.03.2017
09:29:48
???

Max
23.03.2017
11:28:18
Привет! Коллеги, может кто подсказать как работает токен дискавери в etcd?
Собственно, генерим токен https://discovery.etcd.io/new?size=n
запускаем 3 инстанса например
если их пришибить и запустить новые с другими адресами - нихрена не работает
вопрос - где эта хрень хранит инфу о ранее подключеных нодах?

M
23.03.2017
12:15:19
https://discovery.etcd.io/14a1f073d888681283f772ffd81a5d35

Max
23.03.2017
12:16:00
уже нашёл

Max
23.03.2017
12:20:41
вопрос к залу, не связанный с к8s -кто то использует tarantool (и можно ли сделать 3-хнодовый мастер-мастер) ?

M
23.03.2017
12:21:08

Max
23.03.2017
12:22:00
без кластера полно решений ) тот же редис. Мне бы сделать кластер из 3-х причем можно забить на транзакционность - это на уровне приложения будет
(галеру не предлагать!)

Dorian
23.03.2017
12:23:33

Fike
23.03.2017
12:25:54
вам нужно k/v хранилище с отказоустойчивостью?

Max
23.03.2017
12:27:49
ну давайте подробнее. есть 3 "зоны" - географически распределнные локации. Нужна "труба" между ними - что бы в случае обыва связи/задержек (а это интерент) - доставить данные. Будет ли это SQL или k/v или файлы rsync-ом не важно по сути
Меня можно и нужно на "ты"

Google

yolkov
23.03.2017
12:28:57
https://telegram.me/tarantoolru

Max
23.03.2017
12:29:10
Конечно для этого можно использовать что-то вроде RabbitMQ - но я не уверен что это хорошо

Paul
23.03.2017
12:29:11

Max
23.03.2017
12:29:50
за что банить?

yolkov
23.03.2017
12:30:01
да, я тоже не понял

Fike
23.03.2017
12:30:59

Max
23.03.2017
12:32:37
если связь оборвалась и обновили одну и ту же то оставить неконсистентные данные (если можно - пометить как потенциально ненадежную)
но эта ситуация невозможно на уровне приложения
(например писать в префиксе хостней источника записи)

Fike
23.03.2017
12:34:44
с условием префикса вообще что угодно можно брать, тарантул должен подойти, хотя не знаю, как он реагирует на WAN

Max
23.03.2017
12:35:33
Я могу просто игнорировать эту ситуацию потому что приложение спроектировано так что это никогда не произойдет

Fike
23.03.2017
12:36:41
кассандра точно на уровне самой себя знает про то, что некоторые вещи могут находиться в другом дц и должна абсолютно спокойно к таким вещам относиться

Max
23.03.2017
12:37:45
блин Cassandra мне не мила - был нехороший опыт 3 года назад. Понимаю что за это время все могло измениться