
Андрей
11.05.2018
06:10:25

Dmytro
11.05.2018
06:13:50
Спасибо, будет полезно
Тут можете посмотреть https://github.com/coreos/coreos-kubernetes/blob/master/Documentation/kubelet-wrapper.md

Андрей
11.05.2018
06:15:44

Google

Dmytro
11.05.2018
06:35:08
Да, у меня кубелет в ркт, а все остальное в докере

Andor
11.05.2018
06:36:01
омг

Dmytro
11.05.2018
06:37:19
Поднимал все с помощью matchbox и terraform.

Андрей
11.05.2018
06:41:57

Dmytro
11.05.2018
06:42:46
Тот же докер, только от coreos

Андрей
11.05.2018
06:43:20
ага, так проще, спасибо

Dmytro
11.05.2018
06:57:57
Доступами к чему?

Андрей
11.05.2018
06:58:18
к iscsi

Dmytro
11.05.2018
07:00:21
Взлетело все сразу, на внешнем сторедже создал лун с чан аунтификацией. И потом в кластере pv и pvc и все запустилось

Андрей
11.05.2018
07:01:17
хм, вот с авторизацией и непонятно, где же в кластере указать доступы

Andor
11.05.2018
07:01:42
а как у этого openebs с надёжностью?

Dmytro
11.05.2018
07:01:59
Но раньше я игрался с storageos и там много чего настраивал в кубелет. Может и что-то ещё включал

Google

Banschikov
11.05.2018
07:02:38

Dmytro
11.05.2018
07:02:48

Андрей
11.05.2018
07:03:17
а как у этого openebs с надёжностью?
если верить описаниям, то достаточно надежно, есть 1 контроллер и 2 условные "ноды" с данными на разных нодах куба
если не упадет пол кластера сразу - данные останутся =)

Andor
11.05.2018
07:04:46
ну 2 это мало
надеюсь настраивается

Андрей
11.05.2018
07:05:00
конечно
по количеству нод можно выставить
по умолчанию вообще 3 стоит

Andor
11.05.2018
07:05:27
ну вот 3 разумное умолчание

Андрей
11.05.2018
07:05:35
если есть 3 ноды =)

Andor
11.05.2018
07:05:35
в том же ceph 3 стандарт
в смысле?

Андрей
11.05.2018
07:06:22
мне пришлось до 2х уменьшить, кластер пока маленький

Banschikov
11.05.2018
07:08:53
Данные же находятся на локально на файловой системе ноды

Андрей
11.05.2018
07:10:28
да, но вроде как в каждом поде с данными одни те же данные
т.е. есть копии данных на всех нодах

Banschikov
11.05.2018
07:11:54
Да. Но в любом случае они же будут и без openEBS. Получается эта штука отвечает за консистетность данных на каждой ноде?

Андрей
11.05.2018
07:12:37
нет же, без openebs тома не синхронизируются, насколько я понял

Google

Andor
11.05.2018
07:12:51
надо в общем в код посмотреть
как обычно

Андрей
11.05.2018
07:13:24
да вот же =)

Banschikov
11.05.2018
07:13:52
Вообщем кто разгадает эту тайну, отпишитесь плиз)

Andor
11.05.2018
07:16:58
нет давай ты

Banschikov
11.05.2018
07:17:58
Вопросов нет)

Андрей
11.05.2018
07:19:38
Хм, убрал авторизацию для iscsi, подключатся начал, вроде, но теперь percona видит в папке какие-то данные и падает :D

bebebe
11.05.2018
07:42:21
коллеги, я тут немного порекламирую как дебажу окружения k8s
https://asciinema.org/a/W6uz52dy1nT1gy1w1ObE7BDSR

Александр
11.05.2018
07:53:40
Коллеги добрый день. Начал разворачивать kubernetes на ubuntu 16.04 по вот такой инструкташке http://linux-notes.org/ustanovka-kubernetes-v-unix-linux/
Но при попыке сделать
kubeadm init
он долгое время висит на
[init] This might take a minute or longer if the control plane images have to be pulled.
и потом падает в
timeout

Stanislav
11.05.2018
07:55:16
Коллеги, подскажите. Есть под, в нем есть приложуха со статикой и nginx, я хочу статику прокинуть nginx для отдачи, как мне это сделать или куда смотреть? Я вижу только решение с shared mount, но это просто пустая директория куда надо положить, а хотелось бы заэкспозить существующую.

Sergey
11.05.2018
07:55:27

Александр
11.05.2018
07:55:37
60G

Sergey
11.05.2018
07:57:03
init с параметрами?

Андрэ
11.05.2018
07:57:33

Sergey
11.05.2018
07:57:42

Stanislav
11.05.2018
07:57:53

Андрэ
11.05.2018
07:57:55
Когда тут лучше (каноничнее) решение предложат,. будет отлично
Ну фиг знает, у меня gitlab ci при пуше собирает два image - с приложением и nginx

Google

Александр
11.05.2018
07:58:33

Андрэ
11.05.2018
07:58:35
так что не надо задумываться, чтобы не было рассинхрона контента

Sergey
11.05.2018
07:59:17

Александр
11.05.2018
07:59:22
ок

Андрей
11.05.2018
08:27:02
В общем, смог запустить OpenEBS, без авторизации в iscsi, работает стабильно, сейчас перевожу бд на нее

Banschikov
11.05.2018
08:28:48

Andor
11.05.2018
08:29:07
без авторизации плохо

Андрей
11.05.2018
08:29:08
Уже стояла, CoreOS из корбки ее содержит :)
С авторизацией еще не разобрался, как данные надо закинуть в кубик, чтоб он подхватил их

Banschikov
11.05.2018
08:58:22

Андрей
11.05.2018
08:58:46
одну ноду уже поднял, сейчас с другой копаюсь, думаю не в авторизации дело

Andrey
11.05.2018
08:58:48
Ребят, продуктивной пятницы всем. У кого-нибудь есть пример скрещивания blackbox_exporter и prometheus operator? Задача: задать при выкатке урлы для чека сервисов аннтотациями и чтобы они автоматом подхватывались.


Ivan
11.05.2018
09:01:21
Коллеги у меня наверное слишком пространный вопрос, так что просто ткните в howto какой нить.
В одном из офисов у меня есть довольно много разношерстных linux серверов, настроенных постаринке, т.е. каждый имеет свою задачу и делает её на baremetal без всяких там контейнеров и виртуализаций.
Оно в разное время сетапилось и сервера там разнотипные, но их много и они все незагружены я б сказал.
Мне хочется сделать из этого зоопарка k8s кластер, и постепенно одну за одной задачи снимать и туда запускать в k8s.
Там есть permanent диски немного (mysql база, maildir шары) но это пока на первом этапе можно попробовать снаружи оставить.
Что думаете насчёт
- возможно ли это постепенно двигать сервис за сервисом
- проблема ли что ноды разношерстные
- что посоветуете с мастернодами и прочим

Andor
11.05.2018
09:03:01
возможно


Андрей
11.05.2018
09:03:37
Коллеги у меня наверное слишком пространный вопрос, так что просто ткните в howto какой нить.
В одном из офисов у меня есть довольно много разношерстных linux серверов, настроенных постаринке, т.е. каждый имеет свою задачу и делает её на baremetal без всяких там контейнеров и виртуализаций.
Оно в разное время сетапилось и сервера там разнотипные, но их много и они все незагружены я б сказал.
Мне хочется сделать из этого зоопарка k8s кластер, и постепенно одну за одной задачи снимать и туда запускать в k8s.
Там есть permanent диски немного (mysql база, maildir шары) но это пока на первом этапе можно попробовать снаружи оставить.
Что думаете насчёт
- возможно ли это постепенно двигать сервис за сервисом
- проблема ли что ноды разношерстные
- что посоветуете с мастернодами и прочим
сейчас сам занимаюсь подобным, перевожу из виртуалок разных в однотипные ноды и в дальнейшем все проекты - в кластер
постепенно двигаться можно, если сервисы у тебя не зависят друг от друга
по нодам - пофиг, мне кажется
лучше мультимастер, на мой взгляд :)


Ivan
11.05.2018
09:05:03
а каких нить хаутушек в стиле истории-успеха не знаете? я что то даже не знаю с чего начать.
Ну вот хочется с простого. Есть скажем там три различных сайтика nginx+php_fpm + (пока внешний) mysql, как бы их туда задвигать, с чего браться.

Andor
11.05.2018
09:05:59
с чего хочешь

Андрей
11.05.2018
09:06:03
таких не встречал, но можно попробовать теститить на виртуалках локально, например, или выделить 2-3 железки, на 1 мастер + 2 ноды, и с ними ковыряться

Andor
11.05.2018
09:06:07
нет универсального рецепта

Google

Ivan
11.05.2018
09:06:47
а вот так из опыта, как бы стали делать , на baremetal ноды k8s раскатывать или виртуалками обкладывать

Andor
11.05.2018
09:07:27
как хочешь

Андрей
11.05.2018
09:08:45

Ivan
11.05.2018
09:08:54
спасибо!

bebebe
11.05.2018
09:22:42

Andor
11.05.2018
09:23:56
а etcd?
мне вот хочется извращений: lxd и внутри докеры
совсем извращения или средненько?

Ivan
11.05.2018
09:24:36

Эдуард
11.05.2018
09:27:49

Andor
11.05.2018
09:28:32
ну вот мне думается что lxd будет норм в качестве замены виртуалок

Эдуард
11.05.2018
09:33:53
proxmox глянь для общего

Andor
11.05.2018
09:35:05
мне не хочется зоопарк

Эдуард
11.05.2018
09:36:37
Просто посмотри, для развития

Andor
11.05.2018
09:37:10
готово

Huan
11.05.2018
10:42:55
привет всем. подскажите плз можно ли указать в .kube/config неймспейс all-namespaces?

Valentin
11.05.2018
10:46:30

Huan
11.05.2018
10:47:03
можно конкретно указать, а вот как все указать - не могу найти

Valentin
11.05.2018
10:47:22
я думал, это настраивается ролями

Alexandr
11.05.2018
10:48:57
Ребят кто нибудь гонял rancher/longhorn в k8s?