@kubernetes_ru

Страница 877 из 958
Dmytro
10.10.2018
09:40:05
разве тут не было тех, кто в одном image размещает два процесса?)
у меня может под сотню гавноскриптов на пхп бежать, это норма ?

Михаил
10.10.2018
09:40:30
youtu . be/ CgCLPYJRxbU?t=2004
и зачем тут это?)

Maxim
10.10.2018
09:41:06
и зачем тут это?)
Так я дал ответ чуваку на его вопрос

Google
Dmytro
10.10.2018
09:41:14
где-то заплакал devops
хм джанга + gunicorn + nginx/haproxy ок а редис зачем там?

bebebe
10.10.2018
09:41:46
это наверное вопрос к @Andorka ^^^

Ilia
10.10.2018
09:41:50
и зачем тут это?)
это я просил :)

Dmytro
10.10.2018
09:42:35
лети в Прагу \ Вену и часа два на автобусе
да мне тут до праги 5 часов автобусом, потом ещё 2 часа автобусом чот неохота

уж лучше вы в столицу переезжайте)

Andor
10.10.2018
09:44:32
где-то заплакал devops
Хотя бы не в одном контейнере всё!

bebebe
10.10.2018
09:45:13
Хотя бы не в одном контейнере всё!
но подозреваю что nginx/django живут в одном (что-бы статику отдавал nginx)?

Andor
10.10.2018
09:45:43
У меня нет нжинкса там

bebebe
10.10.2018
09:46:28
ну и то хорошо.

Maxim
10.10.2018
09:51:51
Кто-нибудь настраивал OVH LoadBalancer (failover ip) для работы с Kubernetes Service type: LoadBalancer ? https://www.ovh.com/world/solutions/load-balancer/

Fike
10.10.2018
09:55:41
свой куб

Google
Artem
10.10.2018
09:56:21
но подозреваю что nginx/django живут в одном (что-бы статику отдавал nginx)?
К стати, вопрос. Как по феншую такие штуки делать?

Fike
10.10.2018
09:56:43
статика на S3

Artem
10.10.2018
09:57:33
статика на S3
А теперь представим, что ваши разработчики запускают по экземпляру такого приложения на каждый коммит

Fike
10.10.2018
09:57:56
ну пусть в дев-окружении ttl будет минимальный

Artem
10.10.2018
09:58:00
+ для qa по 1

Vadim
10.10.2018
09:59:03
К стати, вопрос. Как по феншую такие штуки делать?
под с двумя контейнерами, в одном джанго слушает локально, во втором nginx отдает на внешнюю например?

Айбелив
10.10.2018
10:00:26
у меня тоже есть мысли увозить в S3 всю статику. Только вот проблема, что статики на 50Гб и по несколько коммитов ежедневно. + несколько окружений с разными ветками. хз как разруливать эту порочность

Сергей
10.10.2018
10:01:09
помогите как с этим бороться, очень срочно This cluster is currently Updating; areas that interact directly with it will not be available until the API is ready. [controlPlane] Failed to bring up Control Plane: Failed to verify healthcheck: Failed to check https://localhost:6443/healthz for service [kube-apiserver] on host [95.213.204.90]: Get https://localhost:6443/healthz: read tcp [::1]:51996->[::1]:6443: read: connection reset by peer, log: I1010 09:39:18.830443 1 plugins.go:161] Loaded 3 validating admission controller(s) successfully in the following order: LimitRanger,ServiceAccount,ResourceQuota. До этого было установлено 2 пода с etcd,plane,worker и один из них удалил и получилось что полчилось(

Fike
10.10.2018
10:01:52
+ для qa по 1
и вообще, как будто вы докер-контейнеры под это не генерите аналогичным образом, которые потом так же очищаете

Сергей
10.10.2018
10:03:57
походу кто то грохнул апи. или etcd =) посмотри хоть что там поверх докера крутится
у меня rancher. да я чистил контейнеры остановленые в подах(

Vadim
10.10.2018
10:04:07
чат, играем в игру "почему у меня сеть рвет коннект, никаких деталей"

Сергей
10.10.2018
10:04:13
Maxim
10.10.2018
10:11:30
Кто-нибудь настраивал OVH LoadBalancer (failover ip) для работы с Kubernetes Service type: LoadBalancer ? https://www.ovh.com/world/solutions/load-balancer/
Нет желающих написать такой контроллер для куба? Не за бесплатно, естессна

и запушить его на гитхаб... я думаю не я один захостил куб в OVH

Google
Айбелив
10.10.2018
10:17:03
не понял проблему со статикой
проблема в том, что переехав на S3 я теряю систему контроля версий. Есть статика и есть скрипты. Пока это всё находится в одном git-проекте.

Artem
10.10.2018
10:18:37
не понял проблему со статикой
Проблема со статикой в общем случае: есть приложение на ruby/python/nodejs/... Оно при сборке генерирует ассеты (html, css, fonts ...) очень желательно эту статику сервить отдельно от самого приложения

Сергей
10.10.2018
10:19:22
походу кто то грохнул апи. или etcd =) посмотри хоть что там поверх докера крутится
есть варианты спасения всего этого? потому что я уже и восстановил бекап и ничего(

Айбелив
10.10.2018
10:19:44
в s3 было версионирование емнип
на AWS есть. В моём случае речь о minio, в котором этого по дизайну нет

Айбелив
10.10.2018
10:21:01
Придется ехать на ceph )
ну уж нет) Всегда есть костыли: https://github.com/s3git/s3git

Сергей
10.10.2018
10:21:18
помогите как с этим бороться, очень срочно This cluster is currently Updating; areas that interact directly with it will not be available until the API is ready. [controlPlane] Failed to bring up Control Plane: Failed to verify healthcheck: Failed to check https://localhost:6443/healthz for service [kube-apiserver] on host [95.213.204.90]: Get https://localhost:6443/healthz: read tcp [::1]:51996->[::1]:6443: read: connection reset by peer, log: I1010 09:39:18.830443 1 plugins.go:161] Loaded 3 validating admission controller(s) successfully in the following order: LimitRanger,ServiceAccount,ResourceQuota. До этого было установлено 2 пода с etcd,plane,worker и один из них удалил и получилось что полчилось(

Сергей
10.10.2018
10:34:11
https://www.youtube.com/watch?v=LhYkPmPfMQ0
там что то подобное есть или ты просто так скинул?)

Anton
10.10.2018
10:34:34
там про Траблшутинг кластера

Fike
10.10.2018
10:37:14
Для этого у нас https://github.com/spotify/docker-gc есть
И в чем проблема подчищать другие артефакты? У вас все равно есть механизм постоянной очистки, за которым вы следите

Михаил
10.10.2018
10:37:45
https://www.youtube.com/watch?v=LhYkPmPfMQ0
я очень быстро протыкал, но там же рассказывается про траблшутинг подов в кластере

а не самого кластера куба

Михаил
10.10.2018
10:38:33
вот именно
знатное говноедство

Dmytro
10.10.2018
10:41:48
Легаси
понятно что легаси но что мешает вынести редис наружу? это полчаса делов явно

Andor
10.10.2018
10:42:52
да нафиг он сдался, там не шаред кеш и объёмы в районе десятка килобайт

Google
Andor
10.10.2018
10:42:59
хз зачем он там вообще нужен, не очень вникал

Dmytro
10.10.2018
10:47:49
это вы ещё официальный докер контейнер для statsd не видели

там где всея говна внутри включая графану

Fike
10.10.2018
10:52:51
ooooohhhhh

Vadim
10.10.2018
10:52:57
echo "Start soon-to-be zombie processes

Fike
10.10.2018
10:53:23
magento deploy mode

подразумевается еще фронтенд на маженте что ли?

Айбелив
10.10.2018
10:53:34
а в чем проблема? 50гб для S3 это ниочём
несколько окружений, разные ветки в git-е, blue-green

Сергей
10.10.2018
10:53:48
помогите как с этим бороться, очень срочно This cluster is currently Updating; areas that interact directly with it will not be available until the API is ready. [controlPlane] Failed to bring up Control Plane: Failed to verify healthcheck: Failed to check https://localhost:6443/healthz for service [kube-apiserver] on host [95.213.204.90]: Get https://localhost:6443/healthz: read tcp [::1]:51996->[::1]:6443: read: connection reset by peer, log: I1010 09:39:18.830443 1 plugins.go:161] Loaded 3 validating admission controller(s) successfully in the following order: LimitRanger,ServiceAccount,ResourceQuota.

Alexey
10.10.2018
10:53:58
подразумевается еще фронтенд на маженте что ли?
они балансер не смогли и поделили нагрузку на 2 части по двум доменам. На клиентов и менеджеров.

Dmytro
10.10.2018
10:55:04
ssh это мощно

Fike
10.10.2018
10:55:05
жорошо

Alexey
10.10.2018
10:55:08
А, ну да, все это magento + frontend на реакт карявейший. Т.е. я с трудом смогу его вынести отдельно, если неделю убью.

ssh это мощно
Они удивились, когда я docker exec сделал... "а так можно было???"

Dmytro
10.10.2018
10:55:50
несколько окружений, разные ветки в git-е, blue-green
разные бакеты, но с minio как это бывает я конечно хз, с обычным S3 нормально всё

Сергей
10.10.2018
10:56:33
Google
Artem
10.10.2018
10:57:18
в логах не понятно что написано
С таким подходом тебе куб не поднять

Сергей
10.10.2018
10:57:51
С таким подходом тебе куб не поднять
каким таким?) я просто не пойму проблемы в логах даже

Айбелив
10.10.2018
10:58:58
разные бакеты, но с minio как это бывает я конечно хз, с обычным S3 нормально всё
да понятно, что разные бакеты, но если нужно откатить какое-то изменение, то это жесть. Либо rsync, либо ещё один бакет с 50-ю гигами. Буду думать, короч.

Сергей
10.10.2018
10:59:35
С таким подходом тебе куб не поднять
просто я делаю даже откат сервера в рабочее состояние и всё равно тоже самое

Айбелив
10.10.2018
11:00:17
ssh это мощно
я тюрьмы делаю с ssh, вполне удобно)

Fike
10.10.2018
11:00:58
ну дык деплоить просто с префиксом версии

Andor
10.10.2018
11:01:08
у нас истерика. ты парализовал работу отдела
лично я туда только haproxy_exporter добавил

Fike
10.10.2018
11:01:14
поломал что-то в CI - делай новый коммит

Andor
10.10.2018
11:01:20
ну и как обычно нет времени сделать нормально

Alexey
10.10.2018
11:02:15
каким таким?) я просто не пойму проблемы в логах даже
ты сам мастера админишь - не облачный сервис? тогда заходи на мастер и смотри логи с kube-apiserver

Айбелив
10.10.2018
11:03:01
ну дык деплоить просто с префиксом версии
это уже нужно приложуху переделывать, что не есть быстро и хорошо. Хотелось бы перейти без каких-либо изменений. Много легаси (читай проприетарщина, ибо в тот код никто не хочет лезть)

Страница 877 из 958