@kubernetes_ru

Страница 278 из 958
Сергей
22.09.2017
14:44:52
ничем оно не надежнее

никто не мешает в докере запустить короткоживущий докер контейнер который привилигированный, чет сделать в системе и никто об этом не узнает

ну это следую логики с ансиблом

Let Eat
22.09.2017
14:46:22
вопрос не в том, что можно, а что нельзя. а втом чтобы сделать неудобно и послать сигнал "так не делаем" :)

Google
Сергей
22.09.2017
14:46:28
Кстати, корьось мне напоминает евнуха в гареме)

что бы муж не изменял, давайте ему хер в узел завяжим, будет неудобно)

лан я чать пить

Let Eat
22.09.2017
14:47:28
зато здоровый, остальные поросли ЗПП и гной из ушей через год

Сергей
22.09.2017
14:47:53
ну цестит и восполение мочевого - я вам гарантирую

посцать в таком виде тоже будет сложно

и сдохнет он этого раньше, чем бы поймал мошку-мандовошку

Nikita
22.09.2017
15:04:10
Let Eat
22.09.2017
15:08:11
вы второй вопрос про заливать спрашивали :)

Vitaliy
22.09.2017
15:10:12
вот так контейнеры скатились к мандавошкам

Сергей
22.09.2017
15:13:54
к мошкам-мандавошкам - попрошу

Vitaliy
22.09.2017
15:15:12
извиняюсь, я не ценитель.. тонкостей не различаю... )

Сергей
22.09.2017
15:16:04
будешь знать

Google
Сергей
22.09.2017
15:16:06
)

Nikita
22.09.2017
15:16:38
Let Eat
22.09.2017
15:17:53
вот какая-то билдилка: https://github.com/cyphar/orca-build

может rkt умеет билдить тоже?

вообще по OCI image builder много всяких поделок гуглится

Nikita
22.09.2017
15:29:26
https://cloud.google.com/container-builder/docs/tutorials/creating-a-custom-build-step?authuser=1

это что мне нужно

Алексей
22.09.2017
15:38:47
Кто знает хорошо google cloud? Подскажите из-за чего после обновления кластера поды в состоянии Pod errors: Unschedulable И как их из этого состояния вывести? деплойменты и поды уже удалял, ноду перезапускал. Новые поды попадают в такое состояние. сама нода в Ready. Кластер на GCCE на одной ноде - пока тестовые выкаты делаю.

Magistr
22.09.2017
15:40:53
а ноды в маинтенансе ?

Алексей
22.09.2017
15:41:32
нет, Status=Ready

Vitaliy
22.09.2017
15:45:42
некуда?

Алексей
22.09.2017
15:47:27
место? Места там завались. Да я уже всё дропнул в кластере. Заново залил - не хочет шедулится. Кластер пустой.

Let Eat
22.09.2017
15:48:21
в describe будет видно почему

(ну должно быть видно)

Ivan
22.09.2017
15:51:20
а это нода с kube-api? посмотри на Taints через describe nodes, возможно есть флаг :NoSchedule

Алексей
22.09.2017
15:52:48
Taints: CriticalAddonsOnly=kube-system_calico-typha-650841560-x7qqn:NoSchedule Да, вот такая вот есть. Спасибо. Буду смотреть, что за фигня.

Нет, это я сейчас уже попробовал откатить версию куба на ноде. Не успело отработать похоже. Сейчас Taints пустой. Проблема осталась.

vladget
22.09.2017
16:53:53
Как засекьюрить кластер что бы оверлей не сломать? Есть какие то бест практис?

Nikita
22.09.2017
17:40:54
ребят, а вот такой вопрос

я делаю kubectl apply -f deployment.yml

Google
Nikita
22.09.2017
17:41:13
как в реальном времени обновить service?

Dmitry
22.09.2017
17:41:33
replace?

Fike
22.09.2017
17:42:00
если опд обновлением подразумевается то, что в нем должен оказаться твой деплоймент - это должно произойти автоматом

если он там не появился, то скорее всего либо под не поднялся, либо рединесс чек не прошел, либо селектор не соответствует поду

Dmitry
22.09.2017
17:42:29
Ну селектор если смотрит правильно то да

Обновлять не надо

Nikita
22.09.2017
17:44:10
я делаю replace но в kubectl get services порт не меняется

grep containerPort deployment.yml -> containerPort: 3000

kubectl get services | grep hello-world | awk '{print $4}' -> 80:31829/TCP

Fike
22.09.2017
17:45:20
настройки порта определяются самим сервисом, kubectl apply -f service.yaml

Nikita
22.09.2017
17:45:37
ага

у меня нет файла service.yaml, только deployment

Fike
22.09.2017
17:46:26
а как ты его создал?

Nikita
22.09.2017
17:46:31
хотя всё равно не понятно, почему я меняю ports.[0].containerPort на 3000

делаю apply, он меняется в describe

но не меняется в get services

> kubectl expose deployment hello-world-js-1 --type="LoadBalancer" service "hello-world-js-1" exposed

вот так делаю

вот сделал delete service и expose deployment, порт поменялся

Dmitry
22.09.2017
17:49:39
Лучше не хранить все в куче

Google
Dmitry
22.09.2017
17:49:47
В одном файле

Nikita
22.09.2017
17:49:53
ну это не ответ на вопрос немного

как обновить deployment

или если у меня будет ещё один файл и я буду делать apply на него, то будет обновляться сервис?

Fike
22.09.2017
17:52:24
Обычно сервисы принято руками задавать, экспоуз видимо за тебя его создает. Можешь написать service.yml с идентификатором созданного сервиса, и, по идее, ты сможешь с его помощью управлять этим сервисом.

Nikita
22.09.2017
17:56:12
примерно понял

Admin


Nikita
22.09.2017
17:56:26
kubectl edit svc hello-world-js-1 помогает

спасибо, работает без локального docker

я доволен, читаю маны ?

Сергей
22.09.2017
19:30:49
маны круят

от молодеж)

Nikita
22.09.2017
19:31:03
(

мне 34 скоро будет

я старый (

Сергей
22.09.2017
19:31:27
а еще у меня был бос, который рфс затавлял в слух читать и по ролям с интанацией

Nikita
22.09.2017
19:31:34
зачем?

Сергей
22.09.2017
19:31:34
и это с моим то английским)

бить ему запретили

Nikita
22.09.2017
19:31:51
а

Google
Сергей
22.09.2017
19:31:53
бля так я на год младш едаже)

Nikita
22.09.2017
19:32:06
да, наверно

Сергей
23.09.2017
12:54:28
https://github.com/kelseyhightower/standalone-kubelet-tutorial

новое чтиво от келси

Let Eat
23.09.2017
13:52:27
а какие-нибудь CI умеют нативно пускать таски кубе? скажем ввиде Jobs с хитрым Local volume для передачи workspce между?

Сергей
23.09.2017
13:57:52
А чем дёргать helm или kubectl си не вариант ?

Igor
23.09.2017
15:33:42
там можно заиспользовать PersistentVolumeClaim https://kubernetes.io/docs/concepts/storage/persistent-volumes/

интересно, кто-то использует NFS как PVS?

Paul
23.09.2017
15:54:29
интересно, кто-то использует NFS как PVS?
Я использовал. Это довольно неудобно, но работает

Сергей
23.09.2017
15:59:08
ридврайванс - дили норм на баре метал

если HA не сильно критичен

падение нфс сервера может вызвать кернел паник на ноде, где примантирована шараз для пода, который активно ее юзает

Let Eat
23.09.2017
17:35:01
https://gitlab.com/gitlab-org/gitlab-runner/blob/master/docs/executors/kubernetes.md
то что нужно! почему-то мало поддержки этой фичи среди CI, все остальные кто билдит в контейнерах пускают docker in docker или просят сокет от системного докера.

Let Eat
23.09.2017
20:06:27
кеша между билдами?

Paul
23.09.2017
20:09:51
только его настраивать надо

Страница 278 из 958