@kubernetes_ru

Страница 578 из 958
Andrey
24.05.2018
08:37:57
Можно ли как-то решить эту проблему сейчас? https://github.com/kubernetes/features/issues/536

Banschikov
24.05.2018
09:07:12
Всем привет! Кто эзал для деплоя эластика вот этот helm чарт? https://github.com/kubernetes/charts/tree/master/incubator/elasticsearch

Andor
24.05.2018
09:25:30
хз насколько это известно, но я сюда всё же поделюсь: The reason why we have such a high limit is that we want to keep the tail latencies down. Kubernetes uses 100ms period in the CFQ scheduler. Due to this, if limit is set e.g. 100m, after container has used it's 10ms, it will need to wait for the next slot before it can do any work again. In worst case this can mean that there's 180ms pause in the request. And if we are very unlucky, that 10ms was used by GC and we need to wait another up to 90ms. There's open issue in kubernetes/kubernetes#51135 regarding this and someone finally made patch for it recently, but I don't think it will before 1.1, likely even 1.12.

https://github.com/kubernetes/kubernetes/issues/51135 вот ссылка

Google
bebebe
24.05.2018
09:29:38
да. я уже посмотрел If k8s users want to continue to consume CPU Quota (at their own risk), it's their choice and for that reason I'll no longer stall configuring CPU Quota Period.

Dmytro
24.05.2018
10:53:32
А что значит k8s юзает 100мс период? Ну возьми его на каждой ноде поменяй

Откуда вообще 100мс, что-то не верится что кублет при первом запуске или ещё когда лезет cfs конфигурировать - это же не его парафия

Andor
24.05.2018
10:58:24
Как конкретно оно используется внутри - хз

Dmytro
24.05.2018
10:59:05
В коде чего?

Линукса?

Andor
24.05.2018
10:59:57
Кубелета вроде

Не спрашивай, во внутренности я не вникал

Глянь ссылки по ссылке сам

Dmytro
24.05.2018
11:00:50
Я там как-то не нашёл про это по ссылке

Но если кублет лезет менять настройки CFS на нодах то за такое надо по рукам давать

Andor
24.05.2018
11:01:33
Не по ссылке, а по ссылкам которые по ссылке можно найти

Google
Banschikov
24.05.2018
11:02:14
Подскажите пожалуйста. Kube-proxy работает одинаково с deployment и statefullset?

Dmytro
24.05.2018
11:02:50
Эээ что?

Statefullset тоже надо экспозить через сервис

Anton
24.05.2018
11:03:33
Но если кублет лезет менять настройки CFS на нодах то за такое надо по рукам давать
CFS? Логично, что не нашёл -- такого и правда нет по ссылке.

Dmytro
24.05.2018
11:04:08
А прокси он же траффик роутит на сервис

Тогда тем более не понимаю почему кублет хочет его менять, откуда он знает что у меня за диски на ноде?

Надеюсь там про cfs, иначе вообще как-то ничего непонятно

Banschikov
24.05.2018
11:07:26
Ну на deployment он может проксировать трафик между всеми подами, которые находятся за сервисом. А в statefullset он работает по той же схеме?

Dmytro
24.05.2018
11:09:10
Сервис роутит траффик на все поды которые матчатся по указанному в нем match labels

Он вообще не в курсе про деплоймент и тд

Dmytro
24.05.2018
11:10:23
И даже можно вручную менять в сервисе endpoints (айпишники подов)

Konstantin
24.05.2018
12:37:05
ребят, нужна помощь\совет, чот в отчаянии. Кто собирает образы в Gitlab(другие CI возможно также ведут себя). Как в одной ветке ссылаться на артефакт\образ из другой, чтобы не пересобирать образ для каждой ветки? Прям велосипедить начинаю, явно не туда иду

https://gitlab.com/gitlab-org/gitlab-ce/issues/37157 < - same story

Dmytro
24.05.2018
12:42:31
Звучит очень странно, зачем такое надо? Если чтобы переюзать кеш докера то пулл образа из ветки мастер, stable или какой нужно и потом —cache-from этот локальный образ

Konstantin
24.05.2018
12:47:44
Звучит очень странно, зачем такое надо? Если чтобы переюзать кеш докера то пулл образа из ветки мастер, stable или какой нужно и потом —cache-from этот локальный образ
вопрос не в кеше\цпу\времени сборки, а чистоте релиза. Если образ будет пересобираться после релиза\слияния - то это уже другой образ и его надо опять по всем тестам гонять

Use cases As a developer, when my code is build in dev to create an artifact I want my subsequent environments (qa,stage,prod,etc) to refer to that artifact and use it for deployment instead of creating a new one. либо я не той дорогой пошёл, либо я что-то упускаю в реализации

Pavel
24.05.2018
12:50:39
Konstantin если говорим о image, то почему бы не пушить в registry?

Google
Pavel
24.05.2018
12:50:59
Собственно, это и есть дефолтный путь работы с пайплайнами

Konstantin
24.05.2018
12:51:22
Вопрос - дальше как с этим тегом оперировать, после слияния веток коммит другой, $BUILD_ID другой, ничего общего к чему бы можно было зацепиться, кроме как где-то хранить отдельно

Собственно - как вы собираете, релизите?)

Pavel
24.05.2018
12:55:43
Если я правильн опонимаю вопрос. То вероятно использовать внешнее хранилище. Redis например: Ветка -> tag Но я не знаю зачем такое надо

Pavel
24.05.2018
12:56:46
Каждый мерж порождает запуск пайплайна, билдом исходников, сбором артефактов, билдом имаджа контейнера ну и затем с тестами и тп

Konstantin
24.05.2018
12:58:01
В каждой билдить?

Pavel
24.05.2018
12:59:33
Все зависит от задачи. Если идет мерж в ветку develop (ну или как вы ее назовете), то там еще и в staging выкатка. В master - сразу на прод

Dmytro
24.05.2018
13:00:39
Вопрос - дальше как с этим тегом оперировать, после слияния веток коммит другой, $BUILD_ID другой, ничего общего к чему бы можно было зацепиться, кроме как где-то хранить отдельно
После слияния веток хеш коммита не меняется. Если вы мерджите со сквошем или ещё откуда берётся мердж коммит - откуда уверенность что артефакт из этой ветки выйдет такой же как в той что замерджили?

Konstantin
24.05.2018
13:02:48
После слияния веток хеш коммита не меняется. Если вы мерджите со сквошем или ещё откуда берётся мердж коммит - откуда уверенность что артефакт из этой ветки выйдет такой же как в той что замерджили?
Ну вот в этом моменте я тоже призадумался, но мерж не пройдёт пока все коммиты не пройдут тесты, как я понимаю. У меня одна ветка рабочая и из неё мерж dev>master

Dmytro
24.05.2018
13:04:24
А если тесты пока идут в destination ветку промерджит кто-то другую ветку?

Anton
24.05.2018
13:05:23
Почему может вылазить Failed to pull image "someusername/someimage:dev-334": rpc error: code = Canceled desc = context canceled?

Dmytro
24.05.2018
13:05:36
Тогда артефакт который сбилдится в source ветке будет несоответствать коду в destination ветке

Dmytro
24.05.2018
13:06:50
Поэтому имхо это идея плохая и я бы даже сказал вредная - юзать артефакт который билдился для другой ветки

меняется на хеш мёрж-коммита
Можно мерджить без мердж коммита если не было конфликтов

Andor
24.05.2018
13:07:31
это уже будет не мёрж :)

Dmytro
24.05.2018
13:07:37
И если не делать сквош

Google
Dmytro
24.05.2018
13:07:42
А что?

Andor
24.05.2018
13:08:22
хм, был не прав

Konstantin
24.05.2018
13:08:23
Тогда артефакт который сбилдится в source ветке будет несоответствать коду в destination ветке
я так понимаю это как-то по разному в разных ci? ибо в gitlab у меня коммиты для мерджа складываются в один реквест. brainfck (

Andor
24.05.2018
13:08:32
в любом случае в соседнем чате уже говорили что так себе идея

Рустамыч
24.05.2018
13:12:09
Коллеги подскажите пожалуйста как заставить Service принудительно рвать коннект с клиентом. Например если pod на который смотрит service упал поднялся другой pod с другим ip. А клиент об этом ни чего не знает. Что бы заставить клиента переконектится надо разорвать соединение. А оно висит пока не закончится timeout

Andor
24.05.2018
13:16:04
как настроишь

Dmytro
24.05.2018
13:17:36
Сервис это правило в iptables

Правило коннекшены рвать не умеет

Dmytro
24.05.2018
13:18:25
Вам нужен какой-то прокси перед подами поставить который будет этим заниматься

Andrey
24.05.2018
13:18:29
фу скип сиай

Костя, чет мельчаешь)

dev - это как раз бранч

Konstantin
24.05.2018
13:19:07
фу скип сиай
это тестовый проект, нет времени CI гонять, я с мерджем разбираюсь

Andrey
24.05.2018
13:19:52
поставь точку перед название жобы)

Konstantin
24.05.2018
13:20:29
поставь точку перед название жобы)
поставил, у меня там 20 тасков, но часть нужны для "игр с версиями", вопрос блин не в этом же

Andrey
24.05.2018
13:21:30
https://docs.gitlab.com/ee/ci/yaml/#hidden-keys-jobs

Konstantin
24.05.2018
13:22:36
https://docs.gitlab.com/ee/ci/yaml/#hidden-keys-jobs
вопросов больше нет

Google
Andrey
24.05.2018
13:23:37
squash commits только для элитки, и в целом бажная вещь)

Konstantin
24.05.2018
13:24:52
squash commits только для элитки, и в целом бажная вещь)
неужели я что-то сложное-непонятное спросил, что каждый раз советы вообще из другой области?

Konstantin
24.05.2018
13:26:26
Поэтому имхо это идея плохая и я бы даже сказал вредная - юзать артефакт который билдился для другой ветки
не поделитесь примером как "надо"? Всё же так все и делают - собирают и гоняют одинаковые тесты на каждой ветке?

Andrey
24.05.2018
13:26:29
в самом первом жобе пайплайна собираешь

все остальные используют GIT_STRATEGY: none

Andrey
24.05.2018
13:26:54
это означает, что ты не трогаешь диск

Konstantin
24.05.2018
13:27:12
не поделитесь примером как "надо"? Всё же так все и делают - собирают и гоняют одинаковые тесты на каждой ветке?
мы гоняем все тесты на каждой ветке в гитлабе. маленькие сервисы, маленькие репозитории, быстрые тесты. вот и профит

Andrey
24.05.2018
13:27:16
момент

Konstantin
24.05.2018
13:27:34
в самом первом жобе пайплайна собираешь
ты троллишь меня или серьёзно это всё пишешь?

спасибо

Konstantin
24.05.2018
13:29:11
видимо и мне туда дорога, но это же не то совсем((
можно попробовать вокруг вот этого поплясать: https://docs.gitlab.com/ee/ci/yaml/#cache но это уже такое, dark magic, имхо

Andrey
24.05.2018
13:29:14
в смысле

интеграцию запускаешь на мерже в мастер через only: master

юниты летают на каждый коммит через only: branches

Страница 578 из 958