@kubernetes_ru

Страница 722 из 958
Anton
02.08.2018
18:44:46
Кто нить перешел на .11 куб?

neumeika
02.08.2018
18:44:46
младше 9.3?

Alexey
02.08.2018
18:44:59
Protected Runners Introduced in GitLab 10.0.

neumeika
02.08.2018
18:46:08
хм, т.е. мои влажные мечты всё-таки могут осуществиться... пойду поищу работу, где есть гитлаб больше 10 :)

Google
Alexey
02.08.2018
18:47:21
Да просто разделять ci и cd. Чуть менее удобней, чуть более безопасней.

ssh deploy@service '/app/deploy production'

neumeika
02.08.2018
18:53:54
Кто нить перешел на .11 куб?
я ток ради посмотреть вчера в тесте развернул

Anton
02.08.2018
18:56:38
Всякие кор днс пробовал?

neumeika
02.08.2018
18:57:04
ради него и развернул :)

ipvs они вроде не пофиксили

Andrey
02.08.2018
19:02:31
А зачем для ipvs создается сетевой интерфейс kube-ipvs0?

Я на .11 перешел, кстати. AWS, полет нормальный

neumeika
02.08.2018
19:04:34
тебя смущает имя, или само наличие?

Andrey
02.08.2018
19:05:00
тебя смущает имя, или само наличие?
Функциональное назначение

Вывод ip addr показывает, что все ip сервисов висят на нем

Но вот что-то не догоняю, зачем

ipvs они вроде не пофиксили
А можно подробнее?

Google
neumeika
02.08.2018
19:07:00
да я чё-то мельком на, прошу прощения, хабре, видел

Andrey
02.08.2018
19:07:38
А то у меня все ок

neumeika
02.08.2018
19:08:21
https://habr.com/company/flant/blog/415349/#comment_18854715

Andrey
02.08.2018
19:11:12
А вот это подвох, спасибо

Gleb
02.08.2018
19:17:52
Andrey
02.08.2018
19:18:30
https://habr.com/company/flant/blog/415349/#comment_18854715
Однако, я вижу, уже pr с фиксом есть

Deep Sea
02.08.2018
19:18:43
а как?
https://docs.gitlab.com/ee/user/permissions.html#file-locking-permissions

Gleb
02.08.2018
19:18:52
спасибо

Anton
02.08.2018
20:32:25
ipvs они вроде не пофиксили
Пропустил этот момент, круто будет когда таки поправят, можно будет не париться по поводу оборваных коннектов

neumeika
02.08.2018
20:39:37
Андрея, вон, не парит :)

Andrey
02.08.2018
20:44:32
Андрея, вон, не парит :)
Вполне могу себе позволить

Ну или патч\откат на iptables

neumeika
02.08.2018
20:45:26
типа tcp/udp не балуетесь?

Andrey
02.08.2018
20:50:02
типа tcp/udp не балуетесь?
этого я не говорил

Nerzh
02.08.2018
22:39:18
никто в профильных чатах не отвечает (

уважаемые! никогда докер не юзал, но вот нужно отакое некое поделие сейчас запускается отак run -d -p 8080:8080 --link another_container_server:server super:podelie как мне ему передать вместо another_container_server например 127.0.0.1:9090 ?

чтоб поделие внутри контейнера по алиасу server обращалась на хостовую машину ?

66271
02.08.2018
23:06:32
--net=host

Google
Nerzh
02.08.2018
23:11:03
--net=host
о спасибо, только я не понял что это даст ) поделие внутри контейнера ж будет убращаться к переменной server видимо ж так там код написан ... ?

66271
02.08.2018
23:30:42
добавить 'server' в hosts на хостовой машине, раз заюзали костыли - то по максимуму!

Nerzh
02.08.2018
23:31:21
добавить 'server' в hosts на хостовой машине, раз заюзали костыли - то по максимуму!
блин тупо вот прям сейчас мне тоже самое пришло в голову и я открыл этот файлик )

спасибо те огромное )

сейчас проверю )

Sergey
03.08.2018
03:06:52
сейчас проверю )
Чувак не спамь в три чата больше плиз

Dhinil
03.08.2018
06:15:44
hi any help me to resolve this while create hpa horizontal-pod-autoscaler unable to get metrics for resource cpu: unable to fetch metrics from resource metrics API: the server could not find the requested resource (get pods.metrics.k8s.io)

Ivan
03.08.2018
07:06:22
Всем привет! Подскажите по ситуации. Вчера создал в кубе несколько ингресов (правил роутинга). А сегодня 2 из 10 исчезли непонятным образом. Это вообще нормально? Кто нибудь сталкивался с таким?

Maksim
03.08.2018
07:08:23
—all-namespaces

Ivan
03.08.2018
07:11:06
да, естественно

у меня в каждом неймспейсе было по одному-два правила.

Nerzh
03.08.2018
08:14:20
Чувак не спамь в три чата больше плиз
хз, что тебе ответить, не читай 3 чата

Sergey
03.08.2018
08:14:55
хз, что тебе ответить, не читай 3 чата
я к тому что за спам в стопицот чатов можно в ро попасть

если у тебя проблема, и тем более ты ничего не понимаешь в докере, не надо орать во все каналы чтобы тебе сделали

Nerzh
03.08.2018
08:17:00
я к тому что за спам в стопицот чатов можно в ро попасть
так никто не понимает, потому что никто не может ответить

Sergey
03.08.2018
08:18:14
так никто не понимает, потому что никто не может ответить
а что, теперь модно "а нахрен мне разбираться, за меня другие решат, давай в 100 чатов отправлю, авось за меня сделает кто" ты вообще пробовал сам решить проблему? где вообще логика решать проблемы конкретно докера конкретно в чате кубера

Nerzh
03.08.2018
08:18:52
а кубер не оркестратор докера ?

Anton
03.08.2018
08:19:04
Nerzh
03.08.2018
08:19:10
он что то еще оркестрирует ?

Google
Sergey
03.08.2018
08:19:23
он что то еще оркестрирует ?
твой вопрос не касается кубера ни капли, вот в чем суть

Alexey
03.08.2018
08:19:50
По нормальному поделие просто переделывают, делая так, чтобы можно было через ENV передать нужный url, а не костылить.

docker run —env SERVICE_URL=$(get ip) image

Stanislav
03.08.2018
08:21:01
а кубер не оркестратор докера ?
Он оркестратор контейнеров. Докер - только один из контейнерных движков, включённый по-умолчанию

Nerzh
03.08.2018
08:21:08
твой вопрос не касается кубера ни капли, вот в чем суть
и еще почему вы решили что я не гуглил, а ВРУГ, я именно гуглил, ничего не нашел и потому написал, толеь не в 3, а в 5 чатов ?

Sergey
03.08.2018
08:22:03
и еще почему вы решили что я не гуглил, а ВРУГ, я именно гуглил, ничего не нашел и потому написал, толеь не в 3, а в 5 чатов ?
потому что проблема не сложная и решается базовыми знаниями в докере надо не гуглить решение а в нем поработать

Andor
03.08.2018
08:22:07
но скорее вообще не гуглил

Alexey
03.08.2018
08:22:26
поделие на PHP?

Nerzh
03.08.2018
08:23:11
но скорее вообще не гуглил
вы все пишете что это просто и никто не может дать простой ответ, вы что издеваетесь вопрос то конкретный

поделие на PHP?
поделие на плюсах

Alexey
03.08.2018
08:23:40
я дал просто ответ. Забить. И научить приложение настраиваться через ENV, как все делают

Andor
03.08.2018
08:25:06
кажется вопрос уже потёрли, а я его не запомнил

Alexey
03.08.2018
08:25:41
А иначе идти и перечитывать все доки по сети у докера, ответа по кейсу, который редко кто использует не найти.

Nerzh
03.08.2018
08:25:45
я дал просто ответ. Забить. И научить приложение настраиваться через ENV, как все делают
оно в образе, суть в том что повторюсь есть два контейнера сервер_1 поделие_2 поделие запскается отак run -d -p 8080:8080 --link another_container_server:server super:podelie

но сервер у меня не в контейнере

Alexey
03.08.2018
08:26:25
Идти исправлять образ

Nerzh
03.08.2018
08:26:28
он локальный

Идти исправлять образ
та если бы я писал образ поделия я б его и через socat мог написать а не тольео через ENV

Google
Max
03.08.2018
08:27:40
гайз а как передать внуть конкретного контейнера полное днс имя доставшееся от сервиса я вижу что есть HOSTNAME и там есть только первая часть а вот нейспейса нету тоесть если сервис foo в неймспейсе bar то в HOSTNAME будет foo-1 а я хочу foo-1.bar может при конфигурации можно передать какое нибудь metadata

Alexey
03.08.2018
08:28:02
Ребят, помогите, что то забуксовал совсем я. есть кластер кубера, написал первую таску. Есть несколько вопросов 1) Как вставить таймаут между стартами контейнеров, и строго ли по списку кубер контейнеры стартует, если не строго то как сделать строго, ни как не могу даже упоминания об этом в доке найти. 2) Не понятность: мне нужно крутануть контейнер который инициализирует предыдущий запущенный контейнер(аля батч). Можно ли такое вообще сделать ? 3) DNS и CONFIGMAP- не понятно как реализован поиск контейнеров, везда указал name контейнеров (старт подов описан в деплойменте), но получаю в ответ host not found. Вообще кейс поиска сервисов как реализован, очень не понятно, одни описывают через сервис и поиск как публичных служб, другие описывают прямо IP адреса служб (как я могу узнать их если они в динамике). Короче вообще не понятки.

Nerzh
03.08.2018
08:28:15
Идти исправлять образ
а так у меня даже докер файла от него нет

Max
03.08.2018
08:34:04
через шаблонизацию? а ткните в доку(

Anton
03.08.2018
08:34:51
Ребят, помогите, что то забуксовал совсем я. есть кластер кубера, написал первую таску. Есть несколько вопросов 1) Как вставить таймаут между стартами контейнеров, и строго ли по списку кубер контейнеры стартует, если не строго то как сделать строго, ни как не могу даже упоминания об этом в доке найти. 2) Не понятность: мне нужно крутануть контейнер который инициализирует предыдущий запущенный контейнер(аля батч). Можно ли такое вообще сделать ? 3) DNS и CONFIGMAP- не понятно как реализован поиск контейнеров, везда указал name контейнеров (старт подов описан в деплойменте), но получаю в ответ host not found. Вообще кейс поиска сервисов как реализован, очень не понятно, одни описывают через сервис и поиск как публичных служб, другие описывают прямо IP адреса служб (как я могу узнать их если они в динамике). Короче вообще не понятки.
1) приложения не должны расчитывать на какой то порядок. если тебе нужен порядок старта - пилишь entrypoint который дожидается каких то события и потом стартует апп 2) обычно initcontainer преднастраивает. но вообще есть такая вещь как postStart hook, можно через него выполнить что то после старта https://kubernetes.io/docs/concepts/containers/container-lifecycle-hooks/

Anton
03.08.2018
08:36:17
Ребят, помогите, что то забуксовал совсем я. есть кластер кубера, написал первую таску. Есть несколько вопросов 1) Как вставить таймаут между стартами контейнеров, и строго ли по списку кубер контейнеры стартует, если не строго то как сделать строго, ни как не могу даже упоминания об этом в доке найти. 2) Не понятность: мне нужно крутануть контейнер который инициализирует предыдущий запущенный контейнер(аля батч). Можно ли такое вообще сделать ? 3) DNS и CONFIGMAP- не понятно как реализован поиск контейнеров, везда указал name контейнеров (старт подов описан в деплойменте), но получаю в ответ host not found. Вообще кейс поиска сервисов как реализован, очень не понятно, одни описывают через сервис и поиск как публичных служб, другие описывают прямо IP адреса служб (как я могу узнать их если они в динамике). Короче вообще не понятки.
3) самый простой способ дискаверить сервисы в к8с - через днс. ищешь по именам сервисов. service может быть headless - тоесть будет резолвится во все адреса подов. вариантов много на самом деле.

как я запилю entrypoint, если стартуют разные контейнеры
в каждом entrypoint, тебе ведь не просто sleep нужно между стартами, тебе нужно чтобы был доступен какой то ресурс на момент запуска. база, апи, я хз. эту логику можно упаковать

Страница 722 из 958