
bebebe
17.09.2018
06:38:35
можно проверять статус ресурсов через которые менеджит релиз:
kubectl -n <namespace> get all -l 'release=<helm_release>'

Let Eat
17.09.2018
06:42:39
Если вы живёте без Хелм, лучше оставайтесь вдали от него. Ищите по тегу # helmговно

Alexey
17.09.2018
06:43:41

Google

bebebe
17.09.2018
06:44:18

Let Eat
17.09.2018
06:44:23

Alexey
17.09.2018
06:45:06
у меня дофига nginx+статика image. делать копипаст deployment/service/ingress уже надоело. Там разница только в image строке и path ingress
хотя тот же envsubst решает
Да, туплю.

bebebe
17.09.2018
06:46:07
у меня похожая ситуация, не понимаю в чем проблема генерить deployment,service,ingress файлики

Alexey
17.09.2018
06:46:31

bebebe
17.09.2018
06:46:41
впрочем ладно, я перестал слушать на моменте envsubst | kubectl apply - для выката приложений
привет canary апгредам

Alexey
17.09.2018
06:46:58
cat static.yml | NAME=some-name envsubst | kubectl apply -f -

bebebe
17.09.2018
06:47:33
envsubst это начало, я жду когда там появится ... | awk | ...
а лучше ... | awk | yq | ..

Let Eat
17.09.2018
06:47:50
У меня сотни строк на jsonnet (через ksonnet) , для сложных штук самое оно.

Google

bebebe
17.09.2018
06:48:34
коллеги, как бы задача генерации тектовых файло за 30 лет этого вашего POSIX решена не один и не два раза
плясать можно по разному

Alexey
17.09.2018
06:48:35
У меня нет сложных штук в плане devops, кроме этого полно других дел...

Let Eat
17.09.2018
06:49:42

bebebe
17.09.2018
06:50:11
я пару недель назад уже предлагал в подобном диалоге да, использоать m4

Alexey
17.09.2018
06:51:03
Его нет в обычных дистрах вроде

Let Eat
17.09.2018
06:51:10
"Все есть строка". В затишье обязательно сяду за PowerShell и может быть расширение для него напишу, что б примитивы куба были встроенными и родными
Строки задолбали и сдерживают прогресс

Alexey
17.09.2018
06:52:32
JSON вместо строк уже предлагали
Давно
Json pipe и тп

bebebe
17.09.2018
06:53:46
(╯°□°)╯︵ ┻━┻

Alexey
17.09.2018
06:54:35
Я же говорю, что я за. А смайл схоронил

Stanislav
17.09.2018
06:56:09
Хе... У нас пришли к генерации конфигов для всякого при помощи go, темплейтов и json с параметрами...

bebebe
17.09.2018
07:11:32

Anton
17.09.2018
07:12:18
День добрый. Кто работал с rancher можете помочь?
https://toster.ru/q/563328

Let Eat
17.09.2018
07:17:22


Core
17.09.2018
07:17:46
ЗАДАЧА:
"Видеть" содежимое каталога "www" в "kubernet-docker"-контейнере и на host-системе:
под "host-системой" понимается "железный" сервер на fedor-e 28.
Что имеем? Делается по "нативной" инструкции:
"Configure a Pod to Use a PersistentVolume for Storage":
https://kubernetes.io/docs/tasks/configure-pod-container/configure-persistent-volume-storage/
PersistentVolume и PersistentVolumeClaim и Pod устанавливаются без проблем.
путь хост-системы: /var/www/html
путь Pod-a: /usr/share/nginx/html
Но вот "хоть убей":
когда "кладём" файл в хост-систему:
echo "Hello World!" > /var/www/html/index.html
на Pod-е его не видно:
ls -la /usr/share/nginx/html
result -> empty
и наоборот:
когда "кладём" файл в Pod:
echo "Hello World!" > /usr/share/nginx/html/index12345.html
на хост-системe его не видно:
ls -la /var/www/html/
index.html
ПРОСЬБА: "пнуть" в правильном направлении:
Как "приготовить" PersistentVolume, PersistentVolumeClaim,
Так чтобы папки и для host-системы и для Pod-а были "те же",
т.е., после "выключения/удаления" Pod-а папки и файлы, созданные на Pod-е сохранялись
на хост системe?


bebebe
17.09.2018
07:23:14

Let Eat
17.09.2018
07:28:40
У меня нет какой то статьи куда ткнуть. Из того что понравилось - стандартные интерфейсы для всех команд, т.е. хелп меню, парсинг параметров, форматирование результатов - всем занимается PowerShell , ну и о объекты в пайпах это киллер фича

Core
17.09.2018
07:41:33

Google

Core
17.09.2018
07:50:35

Alexey
17.09.2018
07:54:53
А может кто в двух словах сказать, что будет с кублетами за натом? Они у меня давно работают, только штуки вроде kubectl logs не работаю. Куда копать?

Andrey
17.09.2018
07:55:03

Core
17.09.2018
08:00:29
у тебя куб в вмке
да, в virtualboxe:
sudo minikube start --vm-driver virtualbox --v 1
файл из Poda вытаскивается вот так:
sudo kubectl exec -it nginx -- cat /usr/share/nginx/html/index2.html > /tmp/index2.html
хотелось бы понять:
почему:
ls -la /var/www/html (на железе)
и
ssh minikube
> ls -la /var/www/html
почему - это "разные" каталоги?

Alexey
17.09.2018
08:04:18
они будут одинаковые только если примонтировать через
volumes:
- name: name
hostPath: /var/www/html

Andrey
17.09.2018
08:05:34

Core
17.09.2018
08:05:47

next
17.09.2018
08:05:56
/report

Core
17.09.2018
08:08:49

Alexey
17.09.2018
08:31:40
persistentVolumeClaim тут не причем. Просто
spec:
volumes:
- name: html
hostPath: /var/www/html
containers:
volumeMounts:
- name: html
mountPath: /var/www/html
Я не в курсе прокидывает ли minikube примонтированные папки на host систему, если нет, то это отдельно пробросить с vm на хост нужно.
docker - vm - host
вы понимаете, что там такая схема? Выше конфиг под слой docker - vm
https://github.com/kubernetes/minikube/blob/master/docs/host_folder_mount.md
minikube mount
на vm - host


Core
17.09.2018
08:41:59
docker - vm - host
вы понимаете, что там такая схема? Выше конфиг под слой docker - vm
Да, на "чистом" docker-e просто:
при монтировании -> файлы, что - на железе, что в doсker-контейнере - те же (bind), видны "одинаково".
в minikube, оказывается для расшаривания хост-директорий и minikube-related, необходим дополнительный "танец с бубном"
в виде: minikube mount ~/mount-dir:/mount-9p
ожидалось: что задачу "minikube mount ~/mount-dir:/mount-9p" возможно решить в рамках yaml-конфига.
Или всё же, указанный вами конфиг рабочий (для Pod-a)? ->
spec:
volumes:
- name: html
hostPath: /var/www/html
containers:
volumeMounts:
- name: html
mountPath: /var/www/html

Alexey
17.09.2018
08:44:00
У вас 3 уровня. Нужно 2 «моста» сделать

Google

Alexey
17.09.2018
08:44:22
От докера к vm и от vm на хост.
minikube запускает кластер в virtualbox

Core
17.09.2018
08:46:13

Alexey
17.09.2018
08:50:23
Вообще это странно, не стоит так делать. У каждого разработчика своё окружение, сломаете

Дмитрий
17.09.2018
08:51:59
А как сделать в ingress динамический url, который прокидывается на сервис?

Core
17.09.2018
08:54:41

Alexey
17.09.2018
09:03:57

Core
17.09.2018
09:04:25

Дмитрий
17.09.2018
09:06:08
я поднимаю kubeless и каждый ендпойнт маппится на определенный сервис (->деплоймент ->под).
Допустим, пишем обычный CRUD через kubeless. Как сделать GET по id?
Но пока что-то не понял, как сделать динамический ingress, который будет мапить его с сервисом. Мб как-то иначе можно это сделать?

Alexey
17.09.2018
09:06:47
Замапить / на kubeless

Дмитрий
17.09.2018
09:07:13
А, либо просто внешний сделать ingress типа
http:/..../mymodel - сервис list get
http:/.../mymodel/ - сервис detail get
а там уже получать и парсить оставшуюся часть

Alexey
17.09.2018
09:07:52
Там же у kubeless свой ingress?

Дмитрий
17.09.2018
09:08:16
там как-то через kube proxy это делается, но я не совсем пока освоился с ним
мне проще пока описать свой ингрес

Alexey
17.09.2018
09:09:31
Это базовая вещь которую должны были решить. Точно есть в доке

Yes
17.09.2018
09:10:32
Добрый день, вопрос на засыпку - что порекомендуете почитать новичку ? Доки - это понятно.

Sergey
17.09.2018
09:12:12

Google

Sergey
17.09.2018
09:12:43
https://leanpub.com/the-devops-2-toolkit

Alexey
17.09.2018
09:12:49
kubeless ingress create route1 --function get-python

Дмитрий
17.09.2018
09:13:11
да, я видел это

Yes
17.09.2018
09:14:15

Дмитрий
17.09.2018
09:14:35
но я ещё использую serverless фреймворк для удобной конфигурации функций. А вот там с ингрессом тоже пока не разобрался. Поэтому exposить ендпойнты решил через обычный ingress конфиг)

Andor
17.09.2018
09:28:20
чота посмотрел три разных оператора для монги и кажется все херовые какие-то
может есть готовые не херовые?

Макс
17.09.2018
09:29:17
.

Alexander
17.09.2018
10:03:44
Нормально ли, у меня кластер на бареметал, если я диапазон nodeport сменю начиная с 80 порта, чтобы ingress nginx работал на 80 порту? Или есть более нормальный вариант?

Artem
17.09.2018
10:06:03
и controller.daemonset.useHostPort

Alexander
17.09.2018
10:13:28

Artem
17.09.2018
10:21:10
потому что контроллер в 1 экземпляре