@kubernetes_ru

Страница 672 из 958
Dmytro
06.07.2018
23:22:48
вот этого я и боюсь :( продолбаюсь день-два фикся кривой чарт а толку не будет

Andor
06.07.2018
23:23:20
https://github.com/coredns/coredns/issues/1757

https://github.com/coredns/coredns/issues/648 + https://github.com/coredns/perf-tests/issues/4

Dmytro
06.07.2018
23:24:08
вот ещё баг по теме https://github.com/kubernetes/kubernetes/issues/47142 читал долго

Google
Andor
06.07.2018
23:24:11
как обычно, хипстеры решили что юзать готовый dnsmasq не круто

Dmytro
06.07.2018
23:25:12
и вот та статья про альпайн и прочее https://blog.quentin-machu.fr/2018/06/24/5-15s-dns-lookups-on-kubernetes/

и вот там он на coredns переехал

Andor
06.07.2018
23:28:12
нифига у него там костыли подложены

подпорочки

Dmytro
06.07.2018
23:28:52
так а я за что ?

> Edit: As mentioned by Duffie Cooley, it would also be possible to run the DNS server on every nodes using a DaemonSet, and specify the node’s IP as the clusterDNS in kubelet’s configuration. This solution is unfortunately unusable for us, as containers with cluster-wide permissions (even read-only) are unable to run on our worker nodes, and as containers do not have direct network access to any of our nodes for security reasons. хммм

что костыльнее - прописывать dnsPolicy: "None" и т.д. каждому поду или вот это решение

наверное эскобар.пнг

Anton
07.07.2018
05:28:48
редис в проц упирался? он же однопоточный, на сервере одно ядро было чтоли?
Он больше одного проца сейчас сьесть может только в ряде случаев на бэкграунд таски и при форке. Нагрузка была такая, что он утилизировал одно ядро. В rps к сервису это выглядело как полка, в числе команд выполняемых редисом тоже

Dmytro
07.07.2018
09:00:19
Он больше одного проца сейчас сьесть может только в ряде случаев на бэкграунд таски и при форке. Нагрузка была такая, что он утилизировал одно ядро. В rps к сервису это выглядело как полка, в числе команд выполняемых редисом тоже
так собственно в этом и мой вопрос - как может редис упереться в проц? Там максимум надо 3 ядра (а обычно и 2 хватит) - одно на редис, одно не бекап процесс и одно на систему

Ryan
07.07.2018
09:26:08
https://www.yangcs.net/posts/setting-up-ssl-in-envoy/#.W0CD9zRTEMg.telegram 为 Envoy 启用证书验证

Google
Dmytro
07.07.2018
09:45:56
если в этом смысле - тут хоть кластер хоть на металле одинокий редис, куб тут причем? но ладно, смысл обсуждать

Anton
07.07.2018
10:34:50
Вопрос был ставить в куб или нет, я посоветовал бенчить

Slava
07.07.2018
13:03:59
помогите советом, плиз) Развёрнута мастер-нода kubernetes (kvm guest VM, Ubuntu 16.04), создаю cert-manager + issuer (Letsencrypt). В списке event'ов issuer'а вижу вот это https://pastebin.com/eg1JhBNP Правильно ли я понимаю, что нужен работающий ipv6 внутри виртуалки (ping6 всегда выдаёт 'Network is unreachable') ? если кто сталкивался, натолкните на мысль) ЗЫ: я не сисадмин и с кубом тоже не большой спец

Denis
07.07.2018
13:06:25
letsencrypt сайт резолвит?

Slava
07.07.2018
13:06:31
да

по урлу всё пингуется

вот такие "dial tcp [2a02:26f0:eb:198::3a8e]:443: connect: network is unreachable" штуки меня сущают

будто он пытается туда по ipv6 достучаться

нагуглил вот такую тему https://github.com/jetstack/cert-manager/issues/291

но пока не докурил

Andor
07.07.2018
13:43:10
Оторви ipv6 от контейнеров

Slava
07.07.2018
13:46:58
принято, попробую

Andor
07.07.2018
13:48:49
Ну или от днс

Slava
07.07.2018
13:49:10
ещё вопрос: может кто знает способ прикрепления руками сгенерерированных wildcard-сертификатов (certbot) к кубику? пример: 1) есть домен example.com 2) есть wildcard-сертификат для него 3) есть куча сервисов с поддоменами типа app1.example.com, app2.example.com

сертификат есть, образы для старта контейнеров готовы, kubernetes-кластер есть

Denis
07.07.2018
13:51:10
Slava
07.07.2018
13:51:25
ок, принято

пойду курить тему дальше)

Denis
07.07.2018
13:52:31
ок, принято
если найдешь решение поделись пжл

Google
Slava
07.07.2018
13:52:42
обязательно

Slava
07.07.2018
15:15:44
я подозреваю что вам нужен ingress+cert-manager
Ну вот с ним то я и пытался шайтан машину завести. Видимо не в ту сторону копал. Но за совет спасибо

Amet
07.07.2018
20:13:44
Dmytro
07.07.2018
21:35:55
немного оффтоп https://coreos.com/blog/fedora-coreos-red-hat-coreos-and-future-container-linux

Banschikov
07.07.2018
21:46:47
немного оффтоп https://coreos.com/blog/fedora-coreos-red-hat-coreos-and-future-container-linux
Да была новость еще пару недель назад по этому поводу.

Sergey
07.07.2018
21:49:13
Да была новость еще пару недель назад по этому поводу.
а что она дает то собсна, я из текста так и не уловил

Vasiliy
07.07.2018
22:20:10
Не знаю какие ещё слова подобрать, утилизировал он свой максимум. Он такое может
Ничего, что редис работает в 1-процессорном режиме ? Там есть пара случаев, когда он второй проц использует. вопрос кубер или нет зависит строго от: 1. Насколько критична потеря данных редиса - то есть насколько нужна персистентность 2. Сколько у вас там IO 3. Что мешает пойти путём, рекомендуемым вендором и поднять кластер ?

Pavel
08.07.2018
00:21:01
Коллеги, а а что у нас самое быстрое persistant DB на отдачу key value json’ов? Редис? Постгрес? Что-то ещё?

Fike
08.07.2018
00:22:52
Влезу с традиционным редис не персистенс. Откуда растет требование и действительно ли так нужно взять именно самый быстрый движок?

Vasiliy
08.07.2018
00:44:52
Влезу с традиционным редис не персистенс. Откуда растет требование и действительно ли так нужно взять именно самый быстрый движок?
важно. важен быстрый ответ, поэтому на вопрос предыдущего автора даже глупо отвечать - redis - это про in-memory, а постгрес про транзакции, контроль целостности и это все.

Vasiliy
08.07.2018
01:01:31
Понял) то есть посгрес пока тянет, потом думать)
Ну смотря что вы там делаете. но кеширование БД всегда стоит заложить сразу.

Pavel
08.07.2018
01:08:44
Но пробовать похоже буду https://github.com/voldemort/voldemort/blob/master/README.md

Vasiliy
08.07.2018
05:05:13
Да, это надо было не вам слать :)

Dmytro
08.07.2018
11:09:39
Но пробовать похоже буду https://github.com/voldemort/voldemort/blob/master/README.md
а чем это лучше монги? Вы бы написали конкретные требования на чтение/запись чтобы можно было говорить предметно. Да и редис с персистентом или в кластер режиме возможно тоже имеет право на жизнь для вашей задачи - но нужно понять саму задачу

Artem
08.07.2018
11:52:23
привет. Ребят, кто-то пользовался kubespray для разворачивания кластера локально (Vagrant)? Вопрос такой, есть ли возможность его потушить (vagrant halt) а потом о5 возобновить?

Google
Artem
08.07.2018
12:00:46
чем миникуб не вариант?
Хотел попробовать что-то приближённое к реальности. С вагрантом можно 3 ноды развернуть

Admin
ERROR: S client not available

Dmytro
08.07.2018
13:25:28
Да вроде вполне себе норм держит если эвенчуальная консистентность допустима и write concern настроен. Конечно зависит от паттерна доступа, размера датасета, железа и тд

Paul
08.07.2018
13:28:56
как я понимаю, волдеморт рассчитан на очень большие инсталляции с очень интенсивной записью. Но за это придется платить функционалом

Ильгиз
08.07.2018
16:28:50
Привет! Развернул кластер с версией 1.11 на виртуалках с убунту, в кластере используется coreDns, flannel. Возникла проблема с доступом к сервисам по именам. В режиме терминала в контейнерах имена резолвятся, в приложениях нет. Что нужно донастроить?

Эдуард
08.07.2018
16:36:56
да и монго плохо держит большую нагрузку на запись
YES! Подписываюсь. Единственный способ на ней жить - это 24/7 мониторить эту заразу и шардировать ( а тут для разработчиков засада ).

Gleb
08.07.2018
16:45:46
в чем тут засада лол? мониторинг и шардирование бд самые обычные действия

если говорить конкроетно за монгу то любой нормальный человек естесвенно перед тем как тащить монгу в прод думает какой ключ шардирования он будет использовать и как хранить данные ну или потом переписывать

Gleb
08.07.2018
16:59:22
да если бы

Эдуард
08.07.2018
16:59:41
да если бы
Кстати, по монге ДБА случаем не завалялся?

Sergey
08.07.2018
17:00:02
какой ещё ключ шардирования

Эдуард
08.07.2018
17:00:24
Google
Alan
08.07.2018
17:00:35
реплика-сет же! какие еще шарды

Gleb
08.07.2018
17:00:51
реплика-сет же! какие еще шарды
это отказоустойчивость, а мы говорим про скейлинг

какой ещё ключ шардирования
у меня архитектор такой был

Эдуард
08.07.2018
17:01:13
Товарищи, а что редактировать в RBAC дабы избежать : Error: error installing: deployments.extensions is forbidden: User "system:serviceaccount:gitlab-managed-apps:default" cannot create deployments.extensions in the namespace "gitlab-managed-apps"

Alan
08.07.2018
17:01:21
можно читать с реплик же!

Эдуард
08.07.2018
17:02:10
можно читать с реплик же!
Товарищ,больше 150 гб данных и твоему RS-у на виртуалках хана. На железе проживёт чутка дольше

Gleb
08.07.2018
17:02:32
можно читать с реплик же!
можно, но бывает что не нужно ? ну для такой дискуссии лучше пройти в https://t.me/MongoDBRussian

Товарищ,больше 150 гб данных и твоему RS-у на виртуалках хана. На железе проживёт чутка дольше
я бы на 1 тб ставил по опыту даже на виртуалках. Хотя смотря чё по схд снизу вопрос. Ну и смотря какой наркоман проектировал схему хранения.

Gleb
08.07.2018
17:04:15
Программист.
а вдруг он читал как работает монга и её двигло?

Эдуард
08.07.2018
17:04:27
Молодец, оптимизировал запросы. Но там давно на реляционку нужно переезжать

Страница 672 из 958