@kubernetes_ru

Страница 742 из 958
Alexey
08.08.2018
07:35:49
А там именно сам контроллер или etcd+confd?

(я до куба писал такое на etcd+confd) зачем велосипедить контроллер

Anton
08.08.2018
07:36:20
в к8с все работает через api

так что там контроллер, который из апи получает все что нужно

Google
Alexey
08.08.2018
07:36:42
А, т.е. просто так если вздумаю ходить в etcd, то я не прав?

Anton
08.08.2018
07:36:50
да

Anton
08.08.2018
07:41:57
шо цэ vts?
оказывается в 0.16 выпилили его и заменили другим экспортером. https://github.com/kubernetes/ingress-nginx/blob/12f79668f9c388c6aaf61722e2b70ccec04d25e3/Changelog.md#0161

Alexey
08.08.2018
07:43:10
о, интеграция с influxdb, офигенно

Anton
08.08.2018
07:44:17
кстати, а как прикрутить метрики из ингреса в прометей?
поставить аннотации, которые ждет пром, так чтобы пром начал скрапить метрики

Alexey
08.08.2018
07:44:26
Я указываю influxdb и через минуту у меня график в grafana. Круто же

я до prometheus не добрался

Stanislav
08.08.2018
07:45:37
Сама influxdb - не круто, к сожалению... После какого-то объёма данных начинает страдать падучей.

У нас идёт переезд с influxdb на clickhouse

В основном переехали, остались мелочи

Google
Alexey
08.08.2018
07:46:24
после какого-то это сколько? 1GB, 10GB или больше?

Stanislav
08.08.2018
07:46:59
Зависит от. У кого-то от 500Гб, у нас - накрыло на 50Гб.

Всего-то хотели хранить данные не пару месяцев, а полгода...

Alexey
08.08.2018
07:47:59
grafana умеет clickhouse?

У меня самый большой плюс influxdb - быстро разворачивается и удобно показывается в grafana. Другое пока сильно не важно. 50GB логов не набирается за пол года, если все не трекать.

Oleg
08.08.2018
07:49:24
Коллеги, а каким будет разумное решение с кубернетесом для мелких проектов?

Alexey
08.08.2018
07:49:38
https://containerum.com/

Вчера обсуждали, сам узнал. Буду пробовать скоро.

Stanislav
08.08.2018
07:49:55
grafana умеет clickhouse?
через плугин от vertamedia

Alexey
08.08.2018
07:50:03
https://containerum.com/software/ Hosted in our dedicated Hetzner datacenter.

Stanislav
08.08.2018
07:50:45
Stanislav
08.08.2018
07:53:38
при попытке класть туда всё, что летит, падает logstash :-)

И это только логи

Mher
08.08.2018
07:55:27
при попытке класть туда всё, что летит, падает logstash :-)
Можно поставить кафку который будет на несколько logstash класть а они в одну базу

Stanislav
08.08.2018
07:56:21
Таки оно уже летит в кликхаус. Через одно место, но тем не менее.

Mher
08.08.2018
07:56:23
Рассматривали такую архитектуру для телекома, но не знаю запустили или нет

А в чем проблема падения logstesh a?

Stanislav
08.08.2018
07:58:04
В том, что вообще-то он не должен падать :-)

Mher
08.08.2018
07:59:38
В том, что вообще-то он не должен падать :-)
Ну значит с этим надо разобраться, был не докладе чувака из гугла который говорил и показывал что с логами у эластика все супер

Google
Stanislav
08.08.2018
08:00:53
Это не повод переделывать уже работающее решение. Может оно и супер, но для хранения в течение 3 лет и редких запросов по логам всё же кх удобнее...

Anton
08.08.2018
08:40:46
погуглил немного, но так и не понял можно ли используя свежий docker попросить k8s общаться с containerd из состава docker напрямую

--containerd string containerd endpoint (default "unix:///var/run/containerd.sock") с последним докером можно в сокет containerd тыкать? (опция kubelet)

Tores
08.08.2018
09:37:58
Подскажите как бороться с этой ошибкой?? второй день мне отдает непонятные ишью с GKE опеншифтом и всякими древними версиями куба https://prnt.sc/kg3x11 переыл все, статья от фланта, даже заюзал из инкубатора external storage provisioner RDB Ceph. и один фиг не маунтит в под PV хоть ты тресни..

Tores
08.08.2018
09:40:21
volumeMounts: - name: pvc mountPath: "/mnt" restartPolicy: "Never" volumes: - name: pvc persistentVolumeClaim: claimName: claim1

Айбелив
08.08.2018
09:41:34
@SinTeZoiD

Tores
08.08.2018
09:43:55
Name: claim1 Namespace: default StorageClass: fast-rbd Status: Bound Volume: pvc-0b811362-9ae5-11e8-8722-080027ca228a Labels: <none> Annotations: kubectl.kubernetes.io/last-applied-configuration={"apiVersion":"v1","kind":"PersistentVolumeClaim","metadata":{"annotations":{},"name":"claim1","namespace":"default"},"spec":{"accessModes":["ReadWrite... pv.kubernetes.io/bind-completed=yes pv.kubernetes.io/bound-by-controller=yes volume.beta.kubernetes.io/storage-provisioner=kubernetes.io/rbd Finalizers: [] Capacity: 3Gi Access Modes: RWO Events: <none> ———————— Name: pvc-0b811362-9ae5-11e8-8722-080027ca228a Labels: <none> Annotations: pv.kubernetes.io/bound-by-controller=yes pv.kubernetes.io/provisioned-by=kubernetes.io/rbd Finalizers: [] StorageClass: fast-rbd Status: Bound Claim: default/claim1 Reclaim Policy: Delete Access Modes: RWO Capacity: 3Gi Node Affinity: <none> Message: Source: Type: RBD (a Rados Block Device mount on the host that shares a pod's lifetime) CephMonitors: [10.0.10.10:6789 10.0.10.11:6789 10.0.10.12:6789 10.0.10.13:6789] RBDImage: kubernetes-dynamic-pvc-0b8e282e-9ae5-11e8-a699-080027ca228a FSType: RBDPool: kube RadosUser: kube Keyring: /etc/ceph/keyring SecretRef: &{ceph-secret-kube } ReadOnly: false Events: <none>

Vadim
08.08.2018
09:46:03
насколько я вижу с кубернетесовской стороны всё окей, нужно смотреть что цеф говорит

Tores
08.08.2018
09:49:56
https://pastebin.com/SZvynArE - логи кубелета с ноды где стартует под

Anton
08.08.2018
09:55:34
кто-то делал CIS Benchmarks for K8s, есть где-то нормальная автоматизация для 1.9.x и выше?

https://github.com/dev-sec/cis-kubernetes-benchmark — эта штука просто пропускает большую часть тестов https://github.com/neuvector/kubernetes-cis-benchmark — эта дает неверные ответы (например говорит, что ключ шедулера не установлен в определенное значение, хотя он установлен)

Nook
08.08.2018
10:17:24
Кому-нибудь уже дали доступ на DO до k8s?

Ivan
08.08.2018
10:19:33
что то никак не могу пробросить через ингресс дашборд по 443 порту. перебрал кучу аннотаций - нифига не получается. подскажите, как это сделать? сертификата на ингрессе ествественно быть не должно - только проброс. может можно как то реализовать просто TCP проброс? на L4 так сказать.

Alexey
08.08.2018
10:25:54
что то никак не могу пробросить через ингресс дашборд по 443 порту. перебрал кучу аннотаций - нифига не получается. подскажите, как это сделать? сертификата на ингрессе ествественно быть не должно - только проброс. может можно как то реализовать просто TCP проброс? на L4 так сказать.
та же фигня. Через трэфик пытаюсь, но получаю 500, при чем 500 прилетает от самого дашборда. То есть там SSL не при чем, он хочет работать только от локалхоста. Что наталкивает на мысль подменить ему хидеры реал_ип и хост на localhost.

Valentin
08.08.2018
10:27:19
через ингресс секьюр-порты прокидывать - большой гемор

кто-то здесь, помнится, имел практику с прокидыванием простого TCP

Alexey
08.08.2018
10:28:24
через ингресс секьюр-порты прокидывать - большой гемор
Зависит от контроллера, если это L7 - nginx, traefik - то какая разница ?

Google
Igor
08.08.2018
10:31:52
кто-то здесь, помнится, имел практику с прокидыванием простого TCP
https://github.com/kubernetes/ingress-nginx/blob/master/docs/user-guide/exposing-tcp-udp-services.md

и в Deployment для ingress должна быть строчка https://github.com/kubernetes/ingress-nginx/blob/master/deploy/with-rbac.yaml#L29

Ivan
08.08.2018
10:34:58
через ингресс секьюр-порты прокидывать - большой гемор
всё, получилось. не геморой оказалось нужна только одна аннотация: nginx.ingress.kubernetes.io/secure-backends: "true"

Igor
08.08.2018
10:37:01
Alexey
08.08.2018
10:38:20
Можно оффтоп, не знаю в какой чат писать. Подскажите программку, которая stdout выкидывает запрос, который пришел по http. Больше ничего, для дебага http хуков.

Valentin
08.08.2018
10:38:48
всё, получилось. не геморой оказалось нужна только одна аннотация: nginx.ingress.kubernetes.io/secure-backends: "true"
т.е. теперь ты можешь ходить из интернетов в свой https сервис без сертификатов? или с сертификатом nginx? или вообще по http?

Михаил
08.08.2018
10:40:51
У нас новый кандидат в хрычи?)

Alexey
08.08.2018
10:41:05
tail -f /var/log/nginx/access.log :D
нужно дописывать вывод заголовков, json body и тп. Понятно, что можно самому, но зачем велосипедить. Решение типа mailhog ущу, поставил - работает.

Михаил
08.08.2018
10:41:10
Ivan
08.08.2018
10:41:41
Secure backends DEPRECATED (since 0.18.0) Please use nginx.ingress.kubernetes.io/backend-protocol: "HTTPS"
вот не прокатило. с backend-protocol: "HTTPS" перестало рабоать.

Igor
08.08.2018
10:42:50
вот не прокатило. с backend-protocol: "HTTPS" перестало рабоать.
:D они доку обновли, а 0.18 еще не выкатили ^)

Айбелив
08.08.2018
10:43:18
Ivan
08.08.2018
10:43:48
?

Михаил
08.08.2018
10:46:49
Andrey
08.08.2018
10:48:43
выгоднее думаю на свое решение подсадить, и самому коммитить и поддерживать, чем зависеть от ранчер коммьюнити

для коммерции

Google
Andrey
08.08.2018
10:51:01
подскажите, как автоматизировать бэкап рестор данных в helm. Про pre-upgrade pre-rollback хуки в курсе, непонятно, как в них передавать имя бэкапа

Александр
08.08.2018
11:36:57
мдя пришло письмо с meetup.com в 14:32 (3 minutes ago) о новом митапе в mailru а >Регистрация обязательна и закрывается 7 августа в 23:59 это успех

tora
08.08.2018
11:46:24
мдя пришло письмо с meetup.com в 14:32 (3 minutes ago) о новом митапе в mailru а >Регистрация обязательна и закрывается 7 августа в 23:59 это успех
смешно ещё то, что пригласительные успевшим пройти регистрацию пришли час назад, что отбивает желание идти :D

Александр
08.08.2018
11:49:06
почему отбивает? Событие ж завтра

Ivan
08.08.2018
12:18:13
Да это вообще круто! Приглашение пришло! Обычно оно вообще не приходит. Это связано с тем, что регистрируются 250+ человек. Тогда организаторы просто не отвечают на регистрацию и бОльшая часть сливается. Остальные самые упорные приходят и кое-как помещаются в зале, рассчитанном на 80 человек.

Denis
08.08.2018
12:21:15
Нормально сказано, от души, чего тут парировать? ?

Sergey
08.08.2018
12:21:53
? ну не знаю, может стоит как то количество мест описывать:)

регаются все, а попадают не только лишь все)

Denis
08.08.2018
12:24:27
100 мест, чего там описывать ?

Меня вот другой вопрос мучает - о чём бы на дайджесте ещё рассказать?

Что важного за последние 40-50 дней произошло?

Страница 742 из 958