
Dmitry
04.05.2018
09:17:50
-n имя_неймспейса

Oleg
04.05.2018
09:17:55
kubectl logs cheddar-cheese-79fd885f6f-mc685 -n NAMESPACE

Yaroslav
04.05.2018
09:19:31
вот я дурак, читал доки и не увидел этот параметр , спасибо большое , все работает

Vladimir
04.05.2018
09:34:10
Еще в Pod бывает несколько контейнеров --container=NAME

Google

Yaroslav
04.05.2018
09:35:15

Stanislav
04.05.2018
11:07:14
Кто знает чатики в телеге по DNS ?

Ivan
04.05.2018
11:07:35
сурово

Alex Milushev
04.05.2018
11:08:06

Stanislav
04.05.2018
11:08:22
А у них есть масштабные чатики?

Alexandr
04.05.2018
11:11:06
Всем привет. Помогите плиз.
Пытаюсь запустить openresty в k8s и для него просаживаю конфиги nginx через configmap.
configmap монтируется в /usr/local/openresty/nginx/conf/my-conf в файл nginx.conf
Чтобы запустить с новыми конфигами вызываю openresty -cconf/my-conf/nginx.conf но под падает с вот такой ошибкой
nginx: [emerg] open() "/usr/local/openresty/nginx/conf/my-conf/nginx.conf;" failed (2: No such file or directory)
Если запускать из контейнера ручками openresty -cconf/my-conf/nginx.conf то все работает.
У меня такое впечатление что что команда пода отрабатывает быстрее, чем появляется файл...
Если не сюда, то может подскажите где спросить?

bebebe
04.05.2018
11:14:13

Alexandr
04.05.2018
11:14:24
И как успехи? )

bebebe
04.05.2018
11:14:46
только начал писать helm чарт, openresty + etcd

Alexandr
04.05.2018
11:15:29
Если заработает, поделишься? ))

bebebe
04.05.2018
11:15:51
да, я пингану

Sergey
04.05.2018
11:41:34
Ребят, динамические тома в K8s возможно юзать на baremetal без всяких AWS/GCE или нет?
Доки кубера тыкают меня в облака:С

Google

Sergey
04.05.2018
11:43:21
О.о

Banschikov
04.05.2018
11:49:47

Sergey
04.05.2018
11:49:58

Banschikov
04.05.2018
11:50:08
Вообщем для StateFullSet не подходит
и как оно?
К примеру с облачными стораджами persistentvolumclaim доступен на всех нодах, а вот когда ты юзаешь локальные вольюмы, то с этим беда. При аварии ноды-воркера, к примеру под не сможет запустится на другой ноде, так как его вольюм тоже ушел на покой. Покрайней мере я так увидел.
и как оно?
Вроде как понял OpenEBS решает эту проблему, но возможностей протестить пока что не было

Mik
04.05.2018
11:57:21

bebebe
04.05.2018
12:09:46
https://github.com/kubernetes/helm/releases/tag/v2.9.0
8 дней назад зарелизился

Sergey
04.05.2018
12:10:04
лиды говорят гластер глючная:С
из документации кубера остается Cinder методом исключения:)
бум гуглить

Sergey
04.05.2018
12:10:18

Sergey
04.05.2018
12:10:54
а Cinder вообще Openstack)))

Sergey
04.05.2018
12:11:28
а Cinder вообще Openstack)))
Cinder и GlusterFS это не продукты, между которыми можно выбирать и предпочесть один другому, потому что Cinder не сторадж.

Paul
04.05.2018
12:13:15

Sergey
04.05.2018
12:13:45
я не знаю про Cinder, просто увидел варианты использования с k8s
GCE
AWS
Gluster
Cinder
Ceph

Sergey
04.05.2018
12:13:50

Paul
04.05.2018
12:14:08

Sergey
04.05.2018
12:14:31
вот вот, придется статичные NFS юзать:С
либо перезжать в амазон))

Paul
04.05.2018
12:15:05

Google

Sergey
04.05.2018
12:15:27
что лучше, опенстек или KVM?

Sergey
04.05.2018
12:16:10
OpenStack Block Storage (Cinder) а сами доки говорят что сторэдж

Paul
04.05.2018
12:16:24
ок. опенстек это гипервизор.
не гипервизор, безусловно. Но в данном контексте можно сравнить cinder и gluster, как минимум с т.з. использования его из куба

Sergey
04.05.2018
12:16:29
не, ну сторадж так сторадж.

Mik
04.05.2018
12:16:51

Paul
04.05.2018
12:17:08

Sergey
04.05.2018
12:17:10
я просто спросил может кто решил проблему динамических томов без всяких GCE, видать не судьба пока

Paul
04.05.2018
12:17:21

Gleb
04.05.2018
12:18:22

Paul
04.05.2018
12:19:15
пока не сломается
в отличае от гластера – есть хоть какие-то шансы его починить. И есть коммьюнити, которое регулярно находит и устраняет в нем проблемы. Вообще PVC в кубере – это костыль. И об этом не стоит забывать никогда

Sergey
04.05.2018
12:19:17
вопрос то в чем, с десяток томов динамических - для этого цеф подымать а потом этот цеф еще и обслуживать, в любом случае спасибо за подсказки

Gleb
04.05.2018
12:19:38

Sergey
04.05.2018
12:19:43

Paul
04.05.2018
12:20:08

bebebe
04.05.2018
12:20:40

Sergey
04.05.2018
12:20:45

bebebe
04.05.2018
12:20:48

Paul
04.05.2018
12:20:52
гыы а есть "не костыль"?)
так в GSRE все написано же. Хранить данные для контейнеров надо вне инфраструктуры контейнеров. Контейнеры – вычисляют (обрабатывают ресурсы). Система хранения – хранит.

Banschikov
04.05.2018
12:30:27

Google

Vlad
04.05.2018
12:31:27
ребята, ставлю heapster по https://github.com/kubernetes/heapster/blob/master/docs/influxdb.md, но в логах heapster manager.go:101] Error in scraping containers from kubelet:192.168.5.100:10250: failed to get all container stats from Kubelet URL "https://192.168.5.100:10250/stats/container/": request failed - "401 Unauthorized", response: "Unauthorized"

Banschikov
04.05.2018
12:32:11

Vlad
04.05.2018
12:32:58

Banschikov
04.05.2018
12:33:39

Sergey
04.05.2018
12:46:00

Vlad
04.05.2018
12:47:52

Sergey
04.05.2018
12:53:34

Vlad
04.05.2018
12:53:55

Sergey
04.05.2018
12:54:28
да
по токену заходите, все работает, так?

Vlad
04.05.2018
12:55:00

Sergey
04.05.2018
12:56:48

Vlad
04.05.2018
12:58:15

Sergey
04.05.2018
12:58:23

Vlad
04.05.2018
12:58:54

Sergey
04.05.2018
12:59:19
ждите, если не запустится, пересоздайте
такое сообщение выводится первое время после деплоя heapster
git clone https://github.com/kubernetes/heapster.git
cd heapster
kubectl create -f deploy/kube-config/influxdb/
если не вышло,
kubectl delete -f deploy/kube-config/influxdb/
kubectl create -f deploy/kube-config/influxdb/
мне помогло, когда были проблемы

Andor
04.05.2018
13:01:45
А инфлюкс тут при чём?

Sergey
04.05.2018
13:02:30
хипстеру надо где то данные хранить, я полагаю, а инфлюкс рбд

Vlad
04.05.2018
13:03:02

Google

Sergey
04.05.2018
13:03:41
через хельм?

Vlad
04.05.2018
13:04:19

Sergey
04.05.2018
13:04:48
грубо говоря затык только в том, что хипстер поставился, но данные дашборду пока не отдает

Vlad
04.05.2018
13:05:51

Sergey
04.05.2018
13:07:49
пересоздайте, других альтернатив я не вижу, деплой у вас прошел норм, а курлом вы не выцепите, потом что токен не передан
обычно 5 минут и готово

bebebe
04.05.2018
13:11:20
Если заработает, поделишься? ))
вообщем я создал helm create mychart добавил туда деплоймент спеку и указал image: openresty/openresty:latest и оно взлетело после helm install -f ./values.yml .

Dmitry
04.05.2018
13:11:47
как проще всего реализовать Canary тестирование, отделив лишь малый процент запросов? используется nginx ingress. если это делать запуском двух деплойментов, то придется запускать 9 продакшн и 1 cannary реплики для выделения 10% запросов. это очень много накладных расходов. предлагают еще использовать istio, но это оверкилл. еще есть шкипер (https://zalando.github.io/skipper/kubernetes/ingress-controller/), но тоже не особо охото запускать еще один ингресс. кто нибудь может предложить другие варианты?

Alexandr
04.05.2018
13:12:00

bebebe
04.05.2018
13:12:15
я позже вернусь к этой активности - пингану

Alexandr
04.05.2018
13:13:00