@kubernetes_ru

Страница 348 из 958
Сергей
05.12.2017
20:35:53
блядь научитесь в гугле вопрос задавать

Даниил
05.12.2017
20:35:56
17.19 вродь

Сергей
05.12.2017
20:36:22
Continuous integration builds use Docker versions 1.11.2, 1.12.6, 1.13.1, and 17.03.2. These versions were validated on Kubernetes 1.8. However, consult an appropriate installation or upgrade guide before deciding what versions of Docker to use. Docker 1.13.1 and 17.03.2 Shared PID namespace, live-restore, and overlay2 were validated. Known issues The default iptables FORWARD policy was changed from ACCEPT to DROP, which causes outbound container traffic to stop working by default. See #40182 for the workaround. The support for the v1 registries was removed. Docker 1.12.6 Overlay2 and live-restore are not validated. Known issues Shared PID namespace does not work properly. (#207) Docker reports incorrect exit codes for containers. (#41516) Docker 1.11.2 Known issues Kernel crash with Aufs storage driver on Debian Jessie (#27885). The issue can be identified by using the node problem detector. File descriptor leak on init/control. (#275) Additional memory overhead per container. (#21737) Processes may be leaked when Docker is repeatedly terminated in a short time frame. (#41450)

убейте меня нахуй

Google
Anatoliy
05.12.2017
20:36:30
блядь научитесь в гугле вопрос задавать
я "блядь!" когда поверил гуглу в данном вопросе имел интеренсые ошибки которые хрен ловились

Даниил
05.12.2017
20:36:58
Могу в ЛС отписать попозже

Свой конфиг

Сергей
05.12.2017
20:37:05
там сука даже написанно какие приколы в какой версии

Даниил
05.12.2017
20:37:15
Не всегда, дядь

Anatoliy
05.12.2017
20:37:34
там сука даже написанно какие приколы в какой версии
да, вот только мне надо версия после которой мультистейджинг появился в докере.

А про выше 17.05 я не нашел, может плохо искал.

Сергей
05.12.2017
20:39:12
АААААА, мультистейдж появил в докер 17,05, в ченжлоге кубера написанно поддерживаемые версии

1.11.2, 1.12.6, 1.13.1, and 17.03.2.

сопоставляем

включаем мозг

думаем

Anatoliy
05.12.2017
20:40:19
АААААА, мультистейдж появил в докер 17,05, в ченжлоге кубера написанно поддерживаемые версии
Да, а теперь внимательно читаем мой вопрос выше. "Может кто сказать максимальную версию докера с которой работает кубер нормально?" Где здесь слово об офф доках? Я сомневаюсь что тут нет людей которые бы попробовали взять версию выше

Google
Даниил
05.12.2017
20:41:15
17.03 у меня

И кубер последний

Shamil
05.12.2017
20:49:04
800 человек в чате и никто бедолагам не поможет. Что за черствые люди пошли!

Сергей
05.12.2017
20:49:11
ты сука в машину льешь какой бензик, который заявлен производителем или любой

сук возьми и проверь

заработает - окей

все нахуй

Anatoliy
05.12.2017
20:50:51
ну да, конечно, вот так просто взять и обвносить по всему кластеру докер, а потом еще проще выискать что там и как. особенно когда сам не можешь понять из за чего там ошибка.

Anatoliy
05.12.2017
20:53:30
Да все мне понятно, когда сам горишь и темой интересуешь и разбираешься в ней - действительно раздражают "всякие". Сам такой, но в другой области. Но блин когда новую область начинаешь трогать - так ведь всегда.

Shamil
05.12.2017
20:54:57
Вот у тебя какая видеокарта?

Anatoliy
05.12.2017
20:55:05
1080

Shamil
05.12.2017
20:55:31
А у меня Intel

А проц какой?

И памяти сколько?

Anatoliy
05.12.2017
20:56:08
тож интел, 6800

Google
Anatoliy
05.12.2017
20:56:16
32)

Shamil
05.12.2017
20:59:03
Вот прикинь: ты можешь крутить у себя 6 виртуалок, по 4ГБ ОЗУ и у тебя еще останется FarCry 3 запустить.

Shamil
05.12.2017
21:00:50
Подними локально кластер и еби его во все щели, вместо того, чтобы в телеге сидеть. Через месяц еще меня научишь, как там чего.

Anatoliy
05.12.2017
21:01:02
в kubespray наверное можно указать версию докера при инсталляции https://github.com/kubernetes-incubator/kubespray/blob/adcfcc117827d274924783f6dd22247a420dab97/roles/docker/defaults/main.yml
не, это я находил, меня интересовала именно ситуация с тем что бы оно работало, заменить можно. но с моим уровнем знаний я потом не пойму из за чего оишбка(

Oleg
05.12.2017
21:01:20
но вообще не понятно зачем тебе в кубере мультистейдж

это же скорее дженкинса задачка

а он у тебя будет запускаться DiD

Anatoliy
05.12.2017
21:02:44
но вообще не понятно зачем тебе в кубере мультистейдж
потому что в том докерфайле что я пробую собрать - мультистейдж. в принципе я его уже исправил, так что он там сейчас не нужен. но образ с альпином все равно не упаковался( Operation timed out при "RUN apk —no-cache add ca-certificates"

Oleg
05.12.2017
21:04:34
зачем тебе собирать на нодах кластера когда можно поставить правильный дженкинс с нужными причендалами и собирать в нем?

Anatoliy
05.12.2017
21:07:23
зачем тебе собирать на нодах кластера когда можно поставить правильный дженкинс с нужными причендалами и собирать в нем?
затем что я с джинкинсом знаком не больше недели, по тому, что находится в интернетах - идут всякие пайплайны и прочее, да и оно действительно удобно если разобраться. А так да, можно конечно поднять постоянные slave(я ведь прав, вы это имели в виду?) и работать с ними. Но раз уж так начал - то почему нет? Потом проще будет когда потребуется что-то вдруг добавить.

Да и... почему бы и не в кубере? ну будет запускаться пяток секунд - так ну и что?

Алексей
05.12.2017
21:08:50
дался всем дженкинс. Gitlab ставь и запускай пайплайны через gitlab. Там же DiD сборки можно делать, там же всё в одном месте и репы и CI

Anatoliy
05.12.2017
21:09:55
дался всем дженкинс. Gitlab ставь и запускай пайплайны через gitlab. Там же DiD сборки можно делать, там же всё в одном месте и репы и CI
думал, но тупит он, тормозит и вообще очень жирный, имхо конечно. да и если умть только его - то потом на другое фиг перейдешь. а у меня сейчас выходит что потом можно будет привязать что угодно

Oleg
05.12.2017
21:09:58
Рекомендую изучить дженкинс и деплой дженкинса в кубер, чтобы дженкинс-ноды можно было быстро скалировать. Пайплайн и билдинг с мультистейджем.

Shamil
05.12.2017
21:10:28
Идите https://gitter.im/jenkinsci-ru/public

Вот тут ссылка прошла, там наверное про дженкис говорят...

Но это не точно.

Anatoliy
05.12.2017
21:11:32
Хорошо, спасибо, и прошу прощения, из за меня опят ьвсе ушло к дженкинсу

Алексей
05.12.2017
21:14:14
думал, но тупит он, тормозит и вообще очень жирный, имхо конечно. да и если умть только его - то потом на другое фиг перейдешь. а у меня сейчас выходит что потом можно будет привязать что угодно
ну потому что потом понятно становится, что когда всё в одном месте это мегаудобно. Дженкинс может и хороший, но для того чтобы CI запустить - нужно потыркать кнопки, создать, настроить. А для гитлаба ты в конфиге gitlab-ci всё описываешь и весь CI собирается из него. И никаких лишних танцев с бубном, как в дженкинсе. (я и то и другое настраивал, по мне gitlab из них двоих - вне конкуренции)

Google
Shamil
05.12.2017
21:14:59
@Visteras ты просто сбит с толку с терминами

Алексей
05.12.2017
21:17:12
Oleg
05.12.2017
21:19:51
http://www.monkeylittle.com/blog/2017/02/09/autoscaling-jenkins-with-kubernetes.html

Алексей
05.12.2017
21:21:59
Рекомендую изучить дженкинс и деплой дженкинса в кубер, чтобы дженкинс-ноды можно было быстро скалировать. Пайплайн и билдинг с мультистейджем.
Олег я так понимаю ты дженкинс хорошо знаешь. Подскажи, возможно ли организовать в дженкинсе в одном пайпе последовательно сборку и деплой. Но деплой только "по кнопке", когда нужно будет, а не сразу после сборки?

Алексей
05.12.2017
21:23:03
т.е. пайплайн всё это время висит активным?

Anatoliy
05.12.2017
21:23:32
а вот тут не подскажу, скорее всего тоже да. и что будет если "не нажать" на кнопку - тоже не знаю.

Admin
ERROR: S client not available

Oleg
05.12.2017
21:26:55
Олег я так понимаю ты дженкинс хорошо знаешь. Подскажи, возможно ли организовать в дженкинсе в одном пайпе последовательно сборку и деплой. Но деплой только "по кнопке", когда нужно будет, а не сразу после сборки?
Обычно у тебя отдельно сборка, тестирование и пуш в регистри и отдельно деплой. Кроме того еще тестирование ручное, поэтому без колбэков никак.

Алексей
05.12.2017
21:28:01
Обычно у тебя отдельно сборка, тестирование и пуш в регистри и отдельно деплой. Кроме того еще тестирование ручное, поэтому без колбэков никак.
а как это выглядит? Т.е. получается нужно делать пайплайн для сборки, пайплайн для тестов, пайплайн для деплоя? А если деплоить на разные окружения, то соответственно под каждое окружение свой пайплайн?

Oleg
05.12.2017
21:37:20
Вообще лично я не пользуюсь сложными схемами на своих задачах. Пайплайн для сборки, чтобы контейнера дошли до приватных регистри а деплою вообще руками. Но по уму должно быть https://jenkins.io/doc/pipeline/steps/pipeline-input-step/

Алексей
05.12.2017
21:39:17
Попробуйте gitlab. Все эти "сложные" схемы в нём элементарщина встроенная в базовый функционал. Без доп взмахов волшебными палочками и бубнами.

Oleg
05.12.2017
21:39:28


дело в том что с мультистейджем роль дженкинсов в перспективе действительно останется только в части интерактивности с людьми. Ну то есть тестеру надо же на что-то нажать чтобы сказать что все ок.

Алексей
05.12.2017
21:53:19
ну на мой взгляд дженкинс уже очень конкретно недотягивает. Может я просто привык настолько к Gitlab, но в нём действительно всё это просто. К тому же в гитлабе мы описываем весь пайп со всеми стейджами в одном файле, в нём же расставляем зависимости, в нём же определяем какой стейдж автоматом исполняется, а какой руками катать. ну и для сборки там сейчас можно либо образы использовать (DinD), либо как у меня выделенный сборщик, на котором gitlab-runner свои таски выполняет. Самое главное всё же, на мой взгляд - описание пайплайна которое лежит в репе приложения и больше никаких действий, кроме описания этого конфига, для создания пайплайна не требуется.

Oleg
05.12.2017
21:54:25
ну на мой взгляд дженкинс уже очень конкретно недотягивает. Может я просто привык настолько к Gitlab, но в нём действительно всё это просто. К тому же в гитлабе мы описываем весь пайп со всеми стейджами в одном файле, в нём же расставляем зависимости, в нём же определяем какой стейдж автоматом исполняется, а какой руками катать. ну и для сборки там сейчас можно либо образы использовать (DinD), либо как у меня выделенный сборщик, на котором gitlab-runner свои таски выполняет. Самое главное всё же, на мой взгляд - описание пайплайна которое лежит в репе приложения и больше никаких действий, кроме описания этого конфига, для создания пайплайна не требуется.
"описание пайплайна которое лежит в репе приложения и больше никаких действий, кроме описания этого конфига, для создания пайплайна не требуется." ну считай что в дженкинсе тоже самое

Let Eat
05.12.2017
22:05:45
imagePullPolicy помогает (извиняюсь если уже было)

можно что то в этом духе сообразить https://gist.github.com/ChesterFie1d/7da47a00ebfdf8ed93f8143876b4d48a
Если основной процесс не pid1 - жди беды. Надо notify в & а Nginx чотко exec в конце

Google
Let Eat
05.12.2017
22:11:48
Всем привет кто нибудь подымал kubernets с поддержкой nvidia gpu. Желательно kops реализация. ?
В kube-aws точно NVidia из коробки делали, костылищи, можете подглядеть

1.11.2, 1.12.6, 1.13.1, and 17.03.2.
Я на кстати 17.09 завелся, пока дышит

bebebe
06.12.2017
04:07:14
Попробуйте gitlab. Все эти "сложные" схемы в нём элементарщина встроенная в базовый функционал. Без доп взмахов волшебными палочками и бубнами.
Расскажите как правильно из одного пайплайна дергать другой Расскажите как сделать депенды таким образом чтобы они не ждали окончания предыдущего стейджа полностью, а начинали запускаться по окончанию конкретных джоб

Впрочем это оффтопик

Dmitry
06.12.2017
04:37:13
Ребят, до сих пор не понимаю как все используя кубера не столкнулись с такой проблемой, если один под обращается по clusterIP с другим подом и они случайно оказались на одном хосте то Коннект больше не установится

Под1 10.0.0.1/24, под2 10.0.0.2/24, под1 обращается по кластер ИП к под2 10.255.0.1/24, далее происходит днат (кластер ИП заменяется на 10.0.0.2), и когда трафик дошел до под2 он начинает отвечать со своего адреса 10.0.0.2 на адрес 10.0.0.1 и тут днат уже не отрабатывает и трафик через бридж идёт напрямую к контейнеру

Но под1 ждёт трафик от адреса 10.255.0.1/24

И поэтому пакетк отбрасываются

Anton
06.12.2017
06:57:45
Потому что по уму надо все шел скрипты пускать 'set -ue' а там такое && ошибку выкинет. if чище, но не $? конечно, а 'if Nginx -t; then'
ну тот скрипт конкретно с set -e какой толк запускать? его падение кто вообще зафиксирует?

Но под1 ждёт трафик от адреса 10.255.0.1/24
как фиксить? rp_filter или еще чего?

Dmitry
06.12.2017
07:02:58
Пока не знаю

Sergey
06.12.2017
07:13:49
ну вот для теста сделал два пода, testing svc/echoserver-local 10.0.0.175 <none> 80/TCP 2d app=echoserver-local testing svc/memcached 10.0.0.8 <none> 11211/TCP 2d k8s-app=memcached зашел на первый и пингую второй. Все ок. Или я не так вас понял?

Anton
06.12.2017
07:27:27
http://www.opennet.ru/opennews/art.shtml?num=47681 все уже видели наверное

66271
06.12.2017
08:10:27
change log ? new key features ?

Paul
06.12.2017
08:39:39
Там бэкапов нет?
в кубере? нет и не было

Айбелив
06.12.2017
08:51:20
в кубере? нет и не было
это скорее всего было к гитлабу

Страница 348 из 958