@kubernetes_ru

Страница 526 из 958
Maksim
19.04.2018
13:35:43
Хорошо. Как на данный момент поднимается coreos с k8s ?

Andrey
19.04.2018
13:36:06
Я через kubespray поднял

Полет нормальный

Google
Andrey
19.04.2018
13:37:09
Смотрел внутрь, там, насколько я понял, из hyperkube бинари копируются, а дальше все как у всех

Maksim
19.04.2018
13:37:41
то есть через ансибл

Andrey
19.04.2018
13:37:50
Да

Maksim
19.04.2018
13:38:55
я просто пытаюсь поднять coreos вместе с кубером, чтобы понять как оно работает

Maksim
19.04.2018
13:43:03
и кстати, на сколько я знаю на coreos нет python, как там взлетит плейбук не пойму

Руками, ну это грубо сказано. Вот например такой гайд https://www.upcloud.com/support/deploy-kubernetes-coreos/

Alexey
19.04.2018
13:51:32
и кстати, на сколько я знаю на coreos нет python, как там взлетит плейбук не пойму
есть плейбук для установки питона на кореось, а потом просто ansible_python_interpreter="/opt/bin/python"

Andrey
19.04.2018
13:54:37
Maksim
19.04.2018
13:59:06
ладно, какая то магия coreos для меня чтобы понять как это работает сначала надо самому собрать

Andrey
19.04.2018
14:09:04
Лучше проинсталлить готовое, а рядом собирать самому, чтобы было где подсмотреть

Dmitrii <freehck>
19.04.2018
14:11:51
Всем привет.

Ребята, подскажите: а в чём проблема kubespray с чётным числом etcd-нод?

Google
Dmitrii <freehck>
19.04.2018
14:13:39
Я хотел поставить кубер по методичке вот этой вот: https://dev-ops-notes.ru/cloud/kubespray-%D1%83%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0-%D0%BA%D0%BB%D0%B0%D1%81%D1%82%D0%B5%D1%80%D0%B0-kubernetes-%D0%B2-%D0%BB%D1%8E%D0%B1%D0%BE%D0%BC-%D0%BE%D0%B1%D0%BB%D0%B0%D0%BA/ Но у меня два хоста собственно. Один мастер и одна кубер-нода. В группу etcd в asnible добавил оба. kubespray завалился на задаче "упасть, если число etcd-нод чётное".

Вот чего не пойму: мне казалось, что etcd должен быть только на мастере...

Но в методичке написано, что кубер-ноды тоже надо туда включать. Странно всё это.

Dan
19.04.2018
14:14:32
etcd работает на одной или трех нодах обычно

Yuriy
19.04.2018
14:14:43
Может немного не по теме, нужен хороший syslog коллектор который получится прикрутить и к K8s и к Baremetal и к другим продуктам ? есть мысли ? Просто в данный момент целвй зоопарк сислог колекторов и иногда напряжно каждый раз лезть в разные консоли и парсить логи итд, а в ввиду внедрения k8S встал вопрос использования одного продукта для k8S на BareMetal+AWS+VMs(Win-Lin)

Dmitrii <freehck>
19.04.2018
14:16:28
etcd работает на одной или трех нодах обычно
Интересно. А если я хочу более двух кубер-нод?

Sergey
19.04.2018
14:16:58
а смотря сколько их у тебя

Dan
19.04.2018
14:18:42
Интересно. А если я хочу более двух кубер-нод?
там можно назначить на какие ноды поставить etcd.

Dmitrii <freehck>
19.04.2018
14:19:11
Ладно, у меня в голове каша какая-то. Суть в том, что я etcd ставлю только на kube-master, но на шаге "network_plugin/calico : Calico | wait for etcd " у меня заваливается kube-node1.

Пытаюсь прошаманить, почему.

Хм. Возможно, всему виной то, что запрос идёт к неправильному интерфейсу... Буду мучать дальше. Спасибо.

Alexey
19.04.2018
14:25:43
кто-нибудь юзал Fast Datapath в Weave ?

оно сможет помочь в работе одного кластера между двумя дата-центрами?

Banschikov
19.04.2018
14:34:12
Иут пару дней назат мне кидали ссылку на helm-chart для деплоя гитлаба с ранерами, но найти не могу. не могли бы поделится

?

Vladimir
19.04.2018
14:34:33
нод etcd должно быть нечетное количество потому что они все работают в мульти мастер. почитай что такое CAP теорема и Network partition

и что такое split brain в кластере и ты поймешь почему должно быть не четное кол-во

Valentin
19.04.2018
14:36:21
только он помоему без реестра

Banschikov
19.04.2018
14:51:34
только он помоему без реестра
Там сразу с раннерами создаётся или их потом отдельно нужно ставить?

Google
Valentin
19.04.2018
14:53:42
вроде сразу

Let Eat
19.04.2018
14:59:10
Valentin
19.04.2018
15:02:13
да

Let Eat
19.04.2018
15:02:38
Хорошо. Как на данный момент поднимается coreos с k8s ?
Через Ignition, смотрите примеры в примерах matchbox

Valentin
19.04.2018
15:02:44
у меня когда джоб стартует, я вижу, как он обращается в кеш, но не находит там бакет, который я в конфиге указал

Valentin
19.04.2018
15:25:31
вечером скину

Banschikov
19.04.2018
15:33:37
вечером скину
гитлаб кстать пуками с помощью манифестов развертывал?

Valentin
19.04.2018
15:35:04
да буквально руками

Stanislav
19.04.2018
15:38:24
да буквально руками
мъсье знает толк в извращениях

Sergey
19.04.2018
15:41:38
мъсье знает толк в извращениях
может это был его "первый раз" ;)

Valentin
19.04.2018
15:42:14
первый был "со шлемом" :)

Stanislav
19.04.2018
15:42:15
может это был его "первый раз" ;)
Если приводить такие аналогии, то я предположу что это был его первый раз в пассиве)

Valentin
19.04.2018
15:42:53
дане, норм

больше гемора было с докер реджистри

Stanislav
19.04.2018
15:43:48
больше гемора было с докер реджистри
Да ты издеваешься он вообще изёвый

Valentin
19.04.2018
15:44:11
я с сертификатами застрял на сутки где-то

Stanislav
19.04.2018
15:44:17
Просто по собственному опыту знаю что для Гитлаба нужен дедикейтед сервак, ибо даже на выделенном он выжирает 64 гига оперативы и уходит в свап )

По крайней мере у меня, ибо жирные репы с lfs и очень жирные артефакты

Let Eat
19.04.2018
16:10:19
у меня когда джоб стартует, я вижу, как он обращается в кеш, но не находит там бакет, который я в конфиге указал
Хмм, я почему то думал что кэш и без s3 умеет работать, как артефакты, сейчас смотрю, и правда s3 нужен, без него никак

Google
Let Eat
19.04.2018
16:11:49
Умеет, но не умеет его передавать между нодами без s3
Вот вот, а с Kubernetes executor каждая джобс считай чистая нода

Valentin
19.04.2018
16:11:50
зато я терь знаю, куда Хелм чарты запихать, чтобы они в проекте не болтались

погромисту не гоже на них любоваться

Stanislav
19.04.2018
16:13:17
Не профилировал, тупо утекает, ибо после рестарта сервисов снова все норм, около 40

Это усё ruby виновата, инфа 100%

Valentin
19.04.2018
16:14:08
пустой гитлаб пару ГБ жрёт

Stanislav
19.04.2018
16:14:27
кому нужен пустой гитлаб?!)

яж говорю о нагруженном

Valentin
19.04.2018
16:15:31
есть смысл редис внешний юзать?

Andrey
19.04.2018
16:18:17
Он persistent? Кластер или одиночка?

Let Eat
19.04.2018
16:23:16
Не профилировал, тупо утекает, ибо после рестарта сервисов снова все норм, около 40
Еще git любит жрать память, , чтобы дельты считать, я его ограничил в аппетитах. omnibus-gitlab/issues/2622 примеры конфигов

Semen
19.04.2018
16:39:46
Кто-нибудь пробовал на hyper-v на винде через vagrant поднять несколько виртуалок?

Semen
19.04.2018
16:41:38
Хочу потом там кубик поднять, надеялся здесь кто-нибудь пробовал что-то похожее. И согласен не совсем по теме

Valentin
19.04.2018
16:42:42
для фана?

Semen
19.04.2018
16:43:36
Попробовать. Побаиваюсь сразу в облаке

Sergey
19.04.2018
16:45:47
О.о чего бояться

Хочешь скрипт дам)

Google
Valentin
19.04.2018
16:46:22
в амазоне вроде бесплатно какое-то время?

Sergey
19.04.2018
16:46:33
Там год

Но надо карту подключать и все такое

Semen
19.04.2018
16:48:16
Вот это и пугает) А так да, хочу. Не случится такого, что я накосячу и буду должен много-много амазону?

Sergey
19.04.2018
16:49:27
Ну там вроде есть лимиты по трафику

В целом пользоваться можно да и кластер кубера собрать пять минут

Semen
19.04.2018
16:51:31
М.. Можешь дать скрипт) В личку не получилось написать

Paul
19.04.2018
21:05:43
Slach
20.04.2018
03:31:33
нечетное количество нужно не по этому. Etcd не работает в мультимастер.
etcd работает в RAFT http://thesecretlivesofdata.com/raft/ изменения сначала пишутся в leader node дальше двухфазный кворум коммит кстати вопрос в зал, а как клиент понимает какая node сейчас leader ? коннектится ко всем \ или к рандому и оставляет только того кто лидер сейчас?

Fike
20.04.2018
03:50:13
Зачем клиенту знать, кто лидер? Нода, на которую пришел запрос, выступает просто координатором

И какой двухфазный коммит?

Этот туториал походу делал человек, который спеку не читал. Нет там никакого подтверждения коммита и второй фазы.

Slach
20.04.2018
04:30:17
Этот туториал походу делал человек, который спеку не читал. Нет там никакого подтверждения коммита и второй фазы.
а что там есть? расскажите? т.е. просто фигачим в ноду изменения а дальше она реплицирует на все остальные? а что если одновременно на один ключ на две разных ноды запрос придет? как консистентностью быть?

Vasilyev
20.04.2018
04:45:28
Вот-вот. Рассказывайте. А то как буд-то в лужу перднули...

Юрий
20.04.2018
07:14:35
Привет коллеги! Хотел бы услышать ваше мнение по одному из кейсов использования helm. Есть 2 компонента: 1) Само приложение (допустим генератор случайных чисел) 2) Шина - по сути транспорт через который приложение общается с другими приложениями. Так вот, архитектурно, шина должна быть установлена локально, рядом с приложением, т.е. в том же поде что и само приложение. Приложение разрабатывается одной командой. Шина другой. Соответсвенно хелм чарты тоже поддерживаются разными командами, и находятся в разных репозиториях. По сколько все должно быть в одном поде, то чарты надо как-то соединять. Ищю удобный механизм по деплою подобных приложений. В идеале представляю что-то типа: apiVersion: apps/v1 kind: Deployment metadata: name: some-deployment spec: template: spec: containers: - name: my-number-generator image: my-number-generator:0.1.0 {{ include_remote_file https://raw.githubusercontent.com/custom/bus/v1.0.0/part.yml}}

Andor
20.04.2018
07:17:45
прикольно если а этих командах будут использовать разные отступы в ямль-файлах

Страница 526 из 958