@kubernetes_ru

Страница 546 из 958
Dmitry
04.05.2018
09:17:50
-n имя_неймспейса

Oleg
04.05.2018
09:17:55
kubectl logs cheddar-cheese-79fd885f6f-mc685 -n NAMESPACE

Yaroslav
04.05.2018
09:19:31
вот я дурак, читал доки и не увидел этот параметр , спасибо большое , все работает

Vladimir
04.05.2018
09:34:10
Еще в Pod бывает несколько контейнеров --container=NAME

Google
Yaroslav
04.05.2018
09:35:15
Stanislav
04.05.2018
11:07:14
Кто знает чатики в телеге по DNS ?

Ivan
04.05.2018
11:07:35
сурово

Alex Milushev
04.05.2018
11:08:06
Кто знает чатики в телеге по DNS ?
думаю это к сисадминам надо сходить

Stanislav
04.05.2018
11:08:22
А у них есть масштабные чатики?

Alexandr
04.05.2018
11:11:06
Всем привет. Помогите плиз. Пытаюсь запустить openresty в k8s и для него просаживаю конфиги nginx через configmap. configmap монтируется в /usr/local/openresty/nginx/conf/my-conf в файл nginx.conf Чтобы запустить с новыми конфигами вызываю openresty -cconf/my-conf/nginx.conf но под падает с вот такой ошибкой nginx: [emerg] open() "/usr/local/openresty/nginx/conf/my-conf/nginx.conf;" failed (2: No such file or directory) Если запускать из контейнера ручками openresty -cconf/my-conf/nginx.conf то все работает. У меня такое впечатление что что команда пода отрабатывает быстрее, чем появляется файл... Если не сюда, то может подскажите где спросить?

Alexandr
04.05.2018
11:14:24
И как успехи? )

bebebe
04.05.2018
11:14:46
только начал писать helm чарт, openresty + etcd

Alexandr
04.05.2018
11:15:29
Если заработает, поделишься? ))

bebebe
04.05.2018
11:15:51
да, я пингану

Sergey
04.05.2018
11:41:34
Ребят, динамические тома в K8s возможно юзать на baremetal без всяких AWS/GCE или нет?

Доки кубера тыкают меня в облака:С

Google
Sergey
04.05.2018
11:43:21
О.о

Banschikov
04.05.2018
11:49:47
Ребят, динамические тома в K8s возможно юзать на baremetal без всяких AWS/GCE или нет?
Я тут последние 2 недели с этим эсперементировал. Сделал свои выводы.

Banschikov
04.05.2018
11:50:08
Вообщем для StateFullSet не подходит

и как оно?
К примеру с облачными стораджами persistentvolumclaim доступен на всех нодах, а вот когда ты юзаешь локальные вольюмы, то с этим беда. При аварии ноды-воркера, к примеру под не сможет запустится на другой ноде, так как его вольюм тоже ушел на покой. Покрайней мере я так увидел.

и как оно?
Вроде как понял OpenEBS решает эту проблему, но возможностей протестить пока что не было

bebebe
04.05.2018
12:09:46
https://github.com/kubernetes/helm/releases/tag/v2.9.0 8 дней назад зарелизился

Sergey
04.05.2018
12:10:04
лиды говорят гластер глючная:С из документации кубера остается Cinder методом исключения:) бум гуглить

Sergey
04.05.2018
12:10:54
а Cinder вообще Openstack)))

Sergey
04.05.2018
12:11:28
а Cinder вообще Openstack)))
Cinder и GlusterFS это не продукты, между которыми можно выбирать и предпочесть один другому, потому что Cinder не сторадж.

Sergey
04.05.2018
12:13:45
я не знаю про Cinder, просто увидел варианты использования с k8s GCE AWS Gluster Cinder Ceph

Sergey
04.05.2018
12:13:50
https://www.openstack.org/software/releases/queens/components/cinder разве?
точно. там ни слова про датаплейн.

Sergey
04.05.2018
12:14:31
вот вот, придется статичные NFS юзать:С либо перезжать в амазон))

glusterfs глючная и медленная. не надо
тогда уж ГлючерФС называть:)

Paul
04.05.2018
12:15:05
точно. там ни слова про датаплейн.
https://wiki.openstack.org/wiki/CinderSupportMatrix про датаплейн

Google
Sergey
04.05.2018
12:15:27
что лучше, опенстек или KVM?

Sergey
04.05.2018
12:16:10
OpenStack Block Storage (Cinder) а сами доки говорят что сторэдж

Paul
04.05.2018
12:16:24
ок. опенстек это гипервизор.
не гипервизор, безусловно. Но в данном контексте можно сравнить cinder и gluster, как минимум с т.з. использования его из куба

Sergey
04.05.2018
12:16:29
не, ну сторадж так сторадж.

Mik
04.05.2018
12:16:51
Paul
04.05.2018
12:17:08
OpenStack Block Storage (Cinder) а сами доки говорят что сторэдж
он по сути адаптер, а не сторадж. Он не хранит данные, а только предоставляет интерфейс к вашему собственному хранилищу. Поддерживает "собственное" хранилище на базе XFS + memcached (весьма опасная конфигурация)

Sergey
04.05.2018
12:17:10
я просто спросил может кто решил проблему динамических томов без всяких GCE, видать не судьба пока

Gleb
04.05.2018
12:18:22
ceph работает отлично
пока не сломается

Paul
04.05.2018
12:19:15
пока не сломается
в отличае от гластера – есть хоть какие-то шансы его починить. И есть коммьюнити, которое регулярно находит и устраняет в нем проблемы. Вообще PVC в кубере – это костыль. И об этом не стоит забывать никогда

Sergey
04.05.2018
12:19:17
вопрос то в чем, с десяток томов динамических - для этого цеф подымать а потом этот цеф еще и обслуживать, в любом случае спасибо за подсказки

Paul
04.05.2018
12:20:08
вопрос то в чем, с десяток томов динамических - для этого цеф подымать а потом этот цеф еще и обслуживать, в любом случае спасибо за подсказки
вам в любом случае нужно поднимать какую-то систему хранения. Гластер, Синдер, Цеф. Никуда вам от этого не убежать.

bebebe
04.05.2018
12:20:40
Sergey
04.05.2018
12:20:45
вам в любом случае нужно поднимать какую-то систему хранения. Гластер, Синдер, Цеф. Никуда вам от этого не убежать.
пока на NFS работаем, но там приходится прописывать в прочем, не десять тысяч серверов, справимся:)

bebebe
04.05.2018
12:20:48
Paul
04.05.2018
12:20:52
гыы а есть "не костыль"?)
так в GSRE все написано же. Хранить данные для контейнеров надо вне инфраструктуры контейнеров. Контейнеры – вычисляют (обрабатывают ресурсы). Система хранения – хранит.

Google
Vlad
04.05.2018
12:31:27
ребята, ставлю heapster по https://github.com/kubernetes/heapster/blob/master/docs/influxdb.md, но в логах heapster manager.go:101] Error in scraping containers from kubelet:192.168.5.100:10250: failed to get all container stats from Kubelet URL "https://192.168.5.100:10250/stats/container/": request failed - "401 Unauthorized", response: "Unauthorized"

Vlad
04.05.2018
12:32:58
Нужно RBAC настроить видимо
https://github.com/kubernetes/heapster/blob/master/deploy/kube-config/rbac/heapster-rbac.yaml

Banschikov
04.05.2018
12:33:39
https://github.com/kubernetes/heapster/blob/master/deploy/kube-config/rbac/heapster-rbac.yaml
Ну в логах видно 401 ошибку. Могу ошибатся, но где то прав не хватает

Vlad
04.05.2018
12:47:52
а вы для каких целей его ставите, первоначальная настройка кластера?
нужны метрики с подах (cpu&memory).. пробую с мастер нода $ curl https://192.168.5.100:10250/stats/container/ Unauthorized

Sergey
04.05.2018
12:54:28
да
по токену заходите, все работает, так?

Vlad
04.05.2018
12:55:00
Sergey
04.05.2018
12:56:48
да, по токену.. full access
kubectl get pods —all-namespaces | grep heapster?

Vlad
04.05.2018
12:58:15
kubectl get pods —all-namespaces | grep heapster?
$ kubectl get pods --all-namespaces | grep heapster kube-system heapster-f46468b-9dpfn 1/1 Running 0 49m

Vlad
04.05.2018
12:58:54
kubectl top nodes?
$ kubectl top nodes error: metrics not available yet

Sergey
04.05.2018
12:59:19
ждите, если не запустится, пересоздайте

такое сообщение выводится первое время после деплоя heapster

git clone https://github.com/kubernetes/heapster.git cd heapster kubectl create -f deploy/kube-config/influxdb/ если не вышло, kubectl delete -f deploy/kube-config/influxdb/ kubectl create -f deploy/kube-config/influxdb/ мне помогло, когда были проблемы

Andor
04.05.2018
13:01:45
А инфлюкс тут при чём?

Sergey
04.05.2018
13:02:30
хипстеру надо где то данные хранить, я полагаю, а инфлюкс рбд

Vlad
04.05.2018
13:03:02
git clone https://github.com/kubernetes/heapster.git cd heapster kubectl create -f deploy/kube-config/influxdb/ если не вышло, kubectl delete -f deploy/kube-config/influxdb/ kubectl create -f deploy/kube-config/influxdb/ мне помогло, когда были проблемы
ставлю тоже самое только с command: - /heapster - --source=kubernetes:https://kubernetes.default.svc?kubeletHttps=true&kubeletPort=10250&insecure=true - --sink=influxdb:http://monitoring-influxdb.kube-system.svc:8086

Google
Sergey
04.05.2018
13:03:41
через хельм?

Sergey
04.05.2018
13:04:48
сколько нужно ждать?
у меня стартовый кластер был 24гб памяти, ну не знаю, минут 5 обычно

грубо говоря затык только в том, что хипстер поставился, но данные дашборду пока не отдает

Sergey
04.05.2018
13:07:49
пересоздайте, других альтернатив я не вижу, деплой у вас прошел норм, а курлом вы не выцепите, потом что токен не передан

обычно 5 минут и готово



bebebe
04.05.2018
13:11:20
Если заработает, поделишься? ))
вообщем я создал helm create mychart добавил туда деплоймент спеку и указал image: openresty/openresty:latest и оно взлетело после helm install -f ./values.yml .

Dmitry
04.05.2018
13:11:47
как проще всего реализовать Canary тестирование, отделив лишь малый процент запросов? используется nginx ingress. если это делать запуском двух деплойментов, то придется запускать 9 продакшн и 1 cannary реплики для выделения 10% запросов. это очень много накладных расходов. предлагают еще использовать istio, но это оверкилл. еще есть шкипер (https://zalando.github.io/skipper/kubernetes/ingress-controller/), но тоже не особо охото запускать еще один ингресс. кто нибудь может предложить другие варианты?

bebebe
04.05.2018
13:12:15
А nginx.conf не менял?
нет, я пока просто запускаю, толку от моего чарта маловато

я позже вернусь к этой активности - пингану

Alexandr
04.05.2018
13:13:00
нет, я пока просто запускаю, толку от моего чарта маловато
Ну вот так-то он тоже взлетел. Но как только пробую запустить с nginx параметром -c, оно сразу падает.

Страница 546 из 958