@kubernetes_ru

Страница 558 из 958
Dmytro
11.05.2018
06:13:50
Спасибо, будет полезно
Тут можете посмотреть https://github.com/coreos/coreos-kubernetes/blob/master/Documentation/kubelet-wrapper.md

Google
Dmytro
11.05.2018
06:35:08
Да, у меня кубелет в ркт, а все остальное в докере

Andor
11.05.2018
06:36:01
омг

Dmytro
11.05.2018
06:37:19
Поднимал все с помощью matchbox и terraform.

Андрей
11.05.2018
06:41:57
Dmytro
11.05.2018
06:42:46
Тот же докер, только от coreos

Андрей
11.05.2018
06:43:20
ага, так проще, спасибо

Да, у меня кубелет в ркт, а все остальное в докере
а проблем с доступами не было? или чисто по инструкции. без лишних правок и все ок?

Dmytro
11.05.2018
06:57:57
Доступами к чему?

Андрей
11.05.2018
06:58:18
к iscsi

Dmytro
11.05.2018
07:00:21
Взлетело все сразу, на внешнем сторедже создал лун с чан аунтификацией. И потом в кластере pv и pvc и все запустилось

Андрей
11.05.2018
07:01:17
хм, вот с авторизацией и непонятно, где же в кластере указать доступы

Andor
11.05.2018
07:01:42
а как у этого openebs с надёжностью?

Dmytro
11.05.2018
07:01:59
Но раньше я игрался с storageos и там много чего настраивал в кубелет. Может и что-то ещё включал

Google
Banschikov
11.05.2018
07:02:38
а как у этого openebs с надёжностью?
Я тоже уже длительное время пытаюсь найти ответ на этот вопрос) Пока что никто ничего не говорит

Dmytro
11.05.2018
07:02:48
Андрей
11.05.2018
07:03:17
Там просто указываешь в pv через сикреты
хм, в helm параметрах не нашел, надо бы погуглить получше

а как у этого openebs с надёжностью?
если верить описаниям, то достаточно надежно, есть 1 контроллер и 2 условные "ноды" с данными на разных нодах куба если не упадет пол кластера сразу - данные останутся =)

Andor
11.05.2018
07:04:46
ну 2 это мало

надеюсь настраивается

Андрей
11.05.2018
07:05:00
конечно

по количеству нод можно выставить

по умолчанию вообще 3 стоит

Andor
11.05.2018
07:05:27
ну вот 3 разумное умолчание

Андрей
11.05.2018
07:05:35
если есть 3 ноды =)

Andor
11.05.2018
07:05:35
в том же ceph 3 стандарт

в смысле?

Андрей
11.05.2018
07:06:22
мне пришлось до 2х уменьшить, кластер пока маленький

Banschikov
11.05.2018
07:08:53
Данные же находятся на локально на файловой системе ноды

Андрей
11.05.2018
07:10:28
да, но вроде как в каждом поде с данными одни те же данные

т.е. есть копии данных на всех нодах

Banschikov
11.05.2018
07:11:54
Да. Но в любом случае они же будут и без openEBS. Получается эта штука отвечает за консистетность данных на каждой ноде?

Андрей
11.05.2018
07:12:37
нет же, без openebs тома не синхронизируются, насколько я понял

Google
Andor
11.05.2018
07:12:51
надо в общем в код посмотреть

как обычно

Андрей
11.05.2018
07:13:24
да вот же =)

Banschikov
11.05.2018
07:13:52
нет же, без openebs тома не синхронизируются, насколько я понял
Ну я про тоже высказал свое предположение выше) Занимается простым языком репликацией данных

Вообщем кто разгадает эту тайну, отпишитесь плиз)

Andor
11.05.2018
07:16:58
нет давай ты

Banschikov
11.05.2018
07:17:58
Вопросов нет)

Андрей
11.05.2018
07:19:38
Хм, убрал авторизацию для iscsi, подключатся начал, вроде, но теперь percona видит в папке какие-то данные и падает :D

bebebe
11.05.2018
07:42:21
коллеги, я тут немного порекламирую как дебажу окружения k8s https://asciinema.org/a/W6uz52dy1nT1gy1w1ObE7BDSR

Александр
11.05.2018
07:53:40
Коллеги добрый день. Начал разворачивать kubernetes на ubuntu 16.04 по вот такой инструкташке http://linux-notes.org/ustanovka-kubernetes-v-unix-linux/ Но при попыке сделать kubeadm init он долгое время висит на [init] This might take a minute or longer if the control plane images have to be pulled. и потом падает в timeout

Stanislav
11.05.2018
07:55:16
Коллеги, подскажите. Есть под, в нем есть приложуха со статикой и nginx, я хочу статику прокинуть nginx для отдачи, как мне это сделать или куда смотреть? Я вижу только решение с shared mount, но это просто пустая директория куда надо положить, а хотелось бы заэкспозить существующую.

Александр
11.05.2018
07:55:37
60G

сколько памяти на мастер
Это физический сервак с 60G памятью.

Sergey
11.05.2018
07:57:03
init с параметрами?

Sergey
11.05.2018
07:57:42
Это физический сервак с 60G памятью.
мастер-нода с 60 гб или суммарно железка

Stanislav
11.05.2018
07:57:53
Лично я собрал образ nginx со статикой, когда задумался как сделать)
Это самый простой вариант) Но я подозреваю что есть более изящный)

Андрэ
11.05.2018
07:57:55
Когда тут лучше (каноничнее) решение предложат,. будет отлично

Ну фиг знает, у меня gitlab ci при пуше собирает два image - с приложением и nginx

Google
Александр
11.05.2018
07:58:33
мастер-нода с 60 гб или суммарно железка
мастер нода это железка на которой 60G ram

Андрэ
11.05.2018
07:58:35
так что не надо задумываться, чтобы не было рассинхрона контента

Sergey
11.05.2018
07:59:17
Александр
11.05.2018
07:59:22
ок

Андрей
11.05.2018
08:27:02
В общем, смог запустить OpenEBS, без авторизации в iscsi, работает стабильно, сейчас перевожу бд на нее

Banschikov
11.05.2018
08:28:48
В общем, смог запустить OpenEBS, без авторизации в iscsi, работает стабильно, сейчас перевожу бд на нее
Да и так получается. Там openiscsi ставишь на каждую рабочую ноду и все подхватывается сразу.

Andor
11.05.2018
08:29:07
без авторизации плохо

Андрей
11.05.2018
08:29:08
Уже стояла, CoreOS из корбки ее содержит :)

С авторизацией еще не разобрался, как данные надо закинуть в кубик, чтоб он подхватил их

без авторизации плохо
включил - не запускается теперь демон iscsid :D

Banschikov
11.05.2018
08:58:22
включил - не запускается теперь демон iscsid :D
Там в мануале про это ничего не сказано. Я по этому поводу прошерстил весь их гитлаб

Андрей
11.05.2018
08:58:46
одну ноду уже поднял, сейчас с другой копаюсь, думаю не в авторизации дело

Andrey
11.05.2018
08:58:48
Ребят, продуктивной пятницы всем. У кого-нибудь есть пример скрещивания blackbox_exporter и prometheus operator? Задача: задать при выкатке урлы для чека сервисов аннтотациями и чтобы они автоматом подхватывались.

Ivan
11.05.2018
09:01:21
Коллеги у меня наверное слишком пространный вопрос, так что просто ткните в howto какой нить. В одном из офисов у меня есть довольно много разношерстных linux серверов, настроенных постаринке, т.е. каждый имеет свою задачу и делает её на baremetal без всяких там контейнеров и виртуализаций. Оно в разное время сетапилось и сервера там разнотипные, но их много и они все незагружены я б сказал. Мне хочется сделать из этого зоопарка k8s кластер, и постепенно одну за одной задачи снимать и туда запускать в k8s. Там есть permanent диски немного (mysql база, maildir шары) но это пока на первом этапе можно попробовать снаружи оставить. Что думаете насчёт - возможно ли это постепенно двигать сервис за сервисом - проблема ли что ноды разношерстные - что посоветуете с мастернодами и прочим

Andor
11.05.2018
09:03:01
возможно

Андрей
11.05.2018
09:03:37
Коллеги у меня наверное слишком пространный вопрос, так что просто ткните в howto какой нить. В одном из офисов у меня есть довольно много разношерстных linux серверов, настроенных постаринке, т.е. каждый имеет свою задачу и делает её на baremetal без всяких там контейнеров и виртуализаций. Оно в разное время сетапилось и сервера там разнотипные, но их много и они все незагружены я б сказал. Мне хочется сделать из этого зоопарка k8s кластер, и постепенно одну за одной задачи снимать и туда запускать в k8s. Там есть permanent диски немного (mysql база, maildir шары) но это пока на первом этапе можно попробовать снаружи оставить. Что думаете насчёт - возможно ли это постепенно двигать сервис за сервисом - проблема ли что ноды разношерстные - что посоветуете с мастернодами и прочим
сейчас сам занимаюсь подобным, перевожу из виртуалок разных в однотипные ноды и в дальнейшем все проекты - в кластер постепенно двигаться можно, если сервисы у тебя не зависят друг от друга по нодам - пофиг, мне кажется лучше мультимастер, на мой взгляд :)

Ivan
11.05.2018
09:05:03
а каких нить хаутушек в стиле истории-успеха не знаете? я что то даже не знаю с чего начать. Ну вот хочется с простого. Есть скажем там три различных сайтика nginx+php_fpm + (пока внешний) mysql, как бы их туда задвигать, с чего браться.

Andor
11.05.2018
09:05:59
с чего хочешь

Андрей
11.05.2018
09:06:03
таких не встречал, но можно попробовать теститить на виртуалках локально, например, или выделить 2-3 железки, на 1 мастер + 2 ноды, и с ними ковыряться

Andor
11.05.2018
09:06:07
нет универсального рецепта

Google
Ivan
11.05.2018
09:06:47
а вот так из опыта, как бы стали делать , на baremetal ноды k8s раскатывать или виртуалками обкладывать

Andor
11.05.2018
09:07:27
как хочешь

Ivan
11.05.2018
09:08:54
спасибо!

bebebe
11.05.2018
09:22:42
а вот так из опыта, как бы стали делать , на baremetal ноды k8s раскатывать или виртуалками обкладывать
обычная практика засовывать мастер ноды в виртуалки, а "worker" (compute) ноды делать железными

Andor
11.05.2018
09:23:56
а etcd?

мне вот хочется извращений: lxd и внутри докеры

совсем извращения или средненько?

Эдуард
11.05.2018
09:27:49
совсем извращения или средненько?
У меня гонялось, lxc-шка просто для изоляции в целях изучения одного бинаря

Andor
11.05.2018
09:28:32
ну вот мне думается что lxd будет норм в качестве замены виртуалок

Эдуард
11.05.2018
09:33:53
proxmox глянь для общего

Andor
11.05.2018
09:35:05
мне не хочется зоопарк

Эдуард
11.05.2018
09:36:37
Просто посмотри, для развития

Andor
11.05.2018
09:37:10
готово

Huan
11.05.2018
10:42:55
привет всем. подскажите плз можно ли указать в .kube/config неймспейс all-namespaces?

Huan
11.05.2018
10:47:03
можно конкретно указать, а вот как все указать - не могу найти

Valentin
11.05.2018
10:47:22
я думал, это настраивается ролями

Alexandr
11.05.2018
10:48:57
Ребят кто нибудь гонял rancher/longhorn в k8s?

Страница 558 из 958