
Михаил
10.10.2018
09:39:28

Dmytro
10.10.2018
09:40:05

Михаил
10.10.2018
09:40:30

Maxim
10.10.2018
09:41:06

Google

Dmytro
10.10.2018
09:41:14

bebebe
10.10.2018
09:41:46
это наверное вопрос к @Andorka ^^^

Ilia
10.10.2018
09:41:50

Dmytro
10.10.2018
09:42:35
уж лучше вы в столицу переезжайте)

Andor
10.10.2018
09:44:32

bebebe
10.10.2018
09:45:13

Andor
10.10.2018
09:45:43
У меня нет нжинкса там

bebebe
10.10.2018
09:46:28
ну и то хорошо.

Maxim
10.10.2018
09:51:51
Кто-нибудь настраивал OVH LoadBalancer (failover ip) для работы с Kubernetes Service type: LoadBalancer ?
https://www.ovh.com/world/solutions/load-balancer/

Айбелив
10.10.2018
09:54:18

Fike
10.10.2018
09:55:41
свой куб

Google

Artem
10.10.2018
09:56:21

Fike
10.10.2018
09:56:43
статика на S3

Artem
10.10.2018
09:57:33
статика на S3
А теперь представим, что ваши разработчики запускают по экземпляру такого приложения на каждый коммит

Fike
10.10.2018
09:57:56
ну пусть в дев-окружении ttl будет минимальный

Artem
10.10.2018
09:58:00
+ для qa по 1

Vadim
10.10.2018
09:59:03

Айбелив
10.10.2018
10:00:26
у меня тоже есть мысли увозить в S3 всю статику. Только вот проблема, что статики на 50Гб и по несколько коммитов ежедневно.
+ несколько окружений с разными ветками.
хз как разруливать эту порочность

Artem
10.10.2018
10:00:50

Сергей
10.10.2018
10:01:09
помогите как с этим бороться, очень срочно
This cluster is currently Updating; areas that interact directly with it will not be available until the API is ready.
[controlPlane] Failed to bring up Control Plane: Failed to verify healthcheck: Failed to check https://localhost:6443/healthz for service [kube-apiserver] on host [95.213.204.90]: Get https://localhost:6443/healthz: read tcp [::1]:51996->[::1]:6443: read: connection reset by peer, log: I1010 09:39:18.830443 1 plugins.go:161] Loaded 3 validating admission controller(s) successfully in the following order: LimitRanger,ServiceAccount,ResourceQuota.
До этого было установлено 2 пода с etcd,plane,worker и один из них удалил и получилось что полчилось(

Fike
10.10.2018
10:01:52
+ для qa по 1
и вообще, как будто вы докер-контейнеры под это не генерите аналогичным образом, которые потом так же очищаете

Anton
10.10.2018
10:03:09

Artem
10.10.2018
10:03:56

Сергей
10.10.2018
10:03:57

Vadim
10.10.2018
10:04:07
чат, играем в игру "почему у меня сеть рвет коннект, никаких деталей"

Сергей
10.10.2018
10:04:13

Andor
10.10.2018
10:07:20

Gleb
10.10.2018
10:09:03

Maxim
10.10.2018
10:11:30
и запушить его на гитхаб... я думаю не я один захостил куб в OVH

Михаил
10.10.2018
10:14:49

Google

Айбелив
10.10.2018
10:17:03
не понял проблему со статикой
проблема в том, что переехав на S3 я теряю систему контроля версий.
Есть статика и есть скрипты. Пока это всё находится в одном git-проекте.

Михаил
10.10.2018
10:18:05

Artem
10.10.2018
10:18:37
не понял проблему со статикой
Проблема со статикой в общем случае: есть приложение на ruby/python/nodejs/... Оно при сборке генерирует ассеты (html, css, fonts ...) очень желательно эту статику сервить отдельно от самого приложения

Михаил
10.10.2018
10:19:22

Сергей
10.10.2018
10:19:22

Айбелив
10.10.2018
10:19:44

Михаил
10.10.2018
10:20:42

Айбелив
10.10.2018
10:21:01

Сергей
10.10.2018
10:21:18
помогите как с этим бороться, очень срочно
This cluster is currently Updating; areas that interact directly with it will not be available until the API is ready.
[controlPlane] Failed to bring up Control Plane: Failed to verify healthcheck: Failed to check https://localhost:6443/healthz for service [kube-apiserver] on host [95.213.204.90]: Get https://localhost:6443/healthz: read tcp [::1]:51996->[::1]:6443: read: connection reset by peer, log: I1010 09:39:18.830443 1 plugins.go:161] Loaded 3 validating admission controller(s) successfully in the following order: LimitRanger,ServiceAccount,ResourceQuota.
До этого было установлено 2 пода с etcd,plane,worker и один из них удалил и получилось что полчилось(

Anton
10.10.2018
10:32:24

Сергей
10.10.2018
10:34:11

Anton
10.10.2018
10:34:34
там про Траблшутинг кластера

Fike
10.10.2018
10:37:14

Михаил
10.10.2018
10:37:45
а не самого кластера куба

Сергей
10.10.2018
10:38:00

Михаил
10.10.2018
10:38:33

Dmytro
10.10.2018
10:41:48
Легаси
понятно что легаси но что мешает вынести редис наружу? это полчаса делов явно

Andor
10.10.2018
10:42:52
да нафиг он сдался, там не шаред кеш и объёмы в районе десятка килобайт

Dmytro
10.10.2018
10:42:58

Google

Andor
10.10.2018
10:42:59
хз зачем он там вообще нужен, не очень вникал

Stas
10.10.2018
10:44:37

Dmytro
10.10.2018
10:47:49
это вы ещё официальный докер контейнер для statsd не видели
там где всея говна внутри включая графану

Alexey
10.10.2018
10:51:31

Fike
10.10.2018
10:52:51
ooooohhhhh

Vadim
10.10.2018
10:52:57
echo "Start soon-to-be zombie processes

Fike
10.10.2018
10:53:23
magento deploy mode
подразумевается еще фронтенд на маженте что ли?

Айбелив
10.10.2018
10:53:34

Сергей
10.10.2018
10:53:48
помогите как с этим бороться, очень срочно
This cluster is currently Updating; areas that interact directly with it will not be available until the API is ready.
[controlPlane] Failed to bring up Control Plane: Failed to verify healthcheck: Failed to check https://localhost:6443/healthz for service [kube-apiserver] on host [95.213.204.90]: Get https://localhost:6443/healthz: read tcp [::1]:51996->[::1]:6443: read: connection reset by peer, log: I1010 09:39:18.830443 1 plugins.go:161] Loaded 3 validating admission controller(s) successfully in the following order: LimitRanger,ServiceAccount,ResourceQuota.

Alexey
10.10.2018
10:53:58

Artem
10.10.2018
10:55:04

Dmytro
10.10.2018
10:55:04
ssh это мощно

Fike
10.10.2018
10:55:05
жорошо

Alexey
10.10.2018
10:55:08
А, ну да, все это magento + frontend на реакт карявейший. Т.е. я с трудом смогу его вынести отдельно, если неделю убью.
ssh это мощно
Они удивились, когда я docker exec сделал... "а так можно было???"

Dmytro
10.10.2018
10:55:50

Сергей
10.10.2018
10:56:33

Google

Artem
10.10.2018
10:57:18

Сергей
10.10.2018
10:57:51

Айбелив
10.10.2018
10:58:58

Сергей
10.10.2018
10:59:35

Айбелив
10.10.2018
11:00:17

Fike
10.10.2018
11:00:22

Айбелив
10.10.2018
11:00:34

Fike
10.10.2018
11:00:58
ну дык деплоить просто с префиксом версии

Andor
10.10.2018
11:01:08

Fike
10.10.2018
11:01:14
поломал что-то в CI - делай новый коммит

Andor
10.10.2018
11:01:20
ну и как обычно нет времени сделать нормально

Alexey
10.10.2018
11:02:15

Сергей
10.10.2018
11:02:58

Айбелив
10.10.2018
11:03:01
ну дык деплоить просто с префиксом версии
это уже нужно приложуху переделывать, что не есть быстро и хорошо. Хотелось бы перейти без каких-либо изменений.
Много легаси (читай проприетарщина, ибо в тот код никто не хочет лезть)