@kubernetes_ru

Страница 257 из 958
Paul
30.08.2017
19:57:23
что говорит?

Alisa
30.08.2017
19:57:41
ничего

Paul
30.08.2017
19:57:56
потрясающе

а как ты в api ходишь?

Google
Alisa
30.08.2017
19:58:17
а ой, на локальной машине всмысле?



вот локальная машина

Paul
30.08.2017
20:00:48
выясни, на каком порту у тебя апи на мастере. И проверь, нету ли на мастере балансировщика. Есть подозрение, что у тебя два мастера и ты по очереди попадаешь то на один, то на второй. зачем ты сделал две машины в одном кластере и с одним именем - спрашивать, конечно, бессмыслено?

Alisa
30.08.2017
20:01:34
так получилось :c я уже решил, что проще переделать конечно, просто не ожидал подвоха с этой стороны

Paul
30.08.2017
20:02:26
с точки зрения куба проблем, я так понимаю, нет. А вот с точки зрения диагностики... Я бы рекомендовал, для начала: - три ноды, а не две - разные имена - переделать

Alisa
30.08.2017
20:02:55
хорошо, спасибо большое! пойду переделывать

Paul
30.08.2017
20:04:39
да как бы не за что. Деплой куба - очень болезненная тема. Способов - как блох, и все они не работают. И все - по-разному

Maksim
31.08.2017
06:42:13
И замечу все способы рабочие...

Сергей
31.08.2017
07:09:27
зе хард вей и понеслась

Fike
31.08.2017
07:12:39
И замечу все способы рабочие...
апаснасть, сейчас взбомбанет

Maksim
31.08.2017
07:14:23
апаснасть, сейчас взбомбанет
Да всё оно работает, просто подходить нужно с головой ОС(опен сорос) а не Винлы, где кнопка далее решает все проблемы установки...За 15 лет в ОС я столько всего перевидал, что всё тут всё долвльно нормально....Слегка доработать напильником это в порядке вещей

Google
Mikhail
31.08.2017
07:14:50
Ну я прошел через все стадии неизбежности: гнев, отрицание, торг, депрессия, принятие , пока разбирался с установкой кубера :)

Maksim
31.08.2017
07:32:15
Эт норм

Сергей
31.08.2017
07:32:30
да что там его ставить то?

первый раз вообще в амазоне апал через куб - ап на баше, было давно)

потом у кейси по хардвею

2 раза по хард вею и все понятно

вот уже всякие cni типа калико и инжест контроллеры - да тут уже надо помучаться

а сам кубер ставится без проблем, вопрос в том, что в таком виде она кроме как на поиграться нах не уперся

Alisa
31.08.2017
08:05:11
продолжаем тред маленьких девопсов, https://github.com/kubernetes/contrib/tree/master/keepalived-vip вот тут поясняется, что dns round-robin не нужен, да и в доках k8s пишится мол "не делой так, подумой" поясняется тем, что если одна из трех нод упадет, то 33% трафика будет идти на мертвую ноду решение предлагает через VIP, якобы пусть весь трафик пойдет на одну машину, зато если она упадет, то мы быстро выберем нового мастера и направим трафик туда меня тут немного смущает, что пока одна машина работает, другие отдыхают, как нагрузку то балансировать тогда?? ведь допустим если трафик вырастет так, что одна машина не справляется, зато три вместе ок выдержат, то в случае с VIP этот трафик просто поочередно убьет все три машины очевидно, я чего-то не понимаю в этом способе и решение более хитрое, чем я предполагаю, или нет?

Fike
31.08.2017
08:09:50
узкое место все равно будет в etcd

и он не масштабируется никак, там всегда ровно одна принимающая решения нода

Alisa
31.08.2017
08:10:21
а почему? как он участвует в обработке трафика?

Sergey
31.08.2017
08:12:37
>там всегда ровно одна принимающая решения нода это тоже неверно

Fike
31.08.2017
08:13:07
так, я подумал что мы говорим про блансировку самого куба

там может быть несколько нод, считающих себя мастером. но закоммитить сможет только одна.

Sergey
31.08.2017
08:13:49
эни пруфс?
почитайте как работает Raft. в etcd всегда один координатор транзакций. но решение принимает не одна нода.

Fike
31.08.2017
08:14:06
да вот именно, что в рафте один мастер и куча фолловеров

Sergey
31.08.2017
08:14:19
да вот именно, что в рафте один мастер и куча фолловеров
фолловеры участвуют в каждой транзакции. мастер без фолловеров не может коммитить.

Google
Sergey
31.08.2017
08:14:39
с практической точки зрения вы правы, это не масштабируется. но говорить что мастер единолично все решает - неверно.

Fike
31.08.2017
08:14:39
они не участвуют в транзакции, они участвуют в отсылке сообщений о приеме логов

Fike
31.08.2017
08:15:25
окей, давайте просто скажем, что фолловеры ничего не решают

Sergey
31.08.2017
08:15:49
окей, давайте просто скажем, что фолловеры ничего не решают
решают. фолловеры могут отказаться принимать транзакцию и тогда мастер скажет клиенту "не согласная я".

Fike
31.08.2017
08:16:04
они не принимают участия в решении

они могут отказать мастеру в его короне, сославшись на терм. в решении же они не участвуют никак.

Sergey
31.08.2017
08:17:40
если фолловер не подтверждает применимость транзакции, мастер не может коммитить.

Eugene
31.08.2017
08:18:11
Кто нибудь etcd "по миру пускал", ну там одна нода в северноей европе, другая в западной третья на востоке сшп и тд?

Fike
31.08.2017
08:18:20
это не влияет на решение. это влияет на легитимность того, кто выдвигает решение.

Eugene
31.08.2017
08:18:52
от спасибо а то я сам не догадался)

Sergey
31.08.2017
08:19:24
от спасибо а то я сам не догадался)
работает. таймауты надо покрутить, чтобы у вас был запас.

Eugene
31.08.2017
08:21:32
Спасбо, Ну судя по офф документации так есть, хотелось бы реального конфига от человека кто так делает и у него все отлично работает.

Alisa
31.08.2017
08:21:57
Vladimir
31.08.2017
08:23:51
1. Никакой, связанной с темой канала. 2. Ни в чем. 3. Ничем. 4. Говорят тут ржачно и шутка дня: etcd это master-slave 5. Амстердам 6. Рассказали друзья #whois

Denis
31.08.2017
08:26:19
:)

Anton
31.08.2017
08:26:21
бампану свой вопрос, если позволите ☺️
что мешает в keepalived настроить N VIP адресов для всех нод и выделить по одному мастеру для VIP?

Vladimir
31.08.2017
08:28:08
продолжаем тред маленьких девопсов, https://github.com/kubernetes/contrib/tree/master/keepalived-vip вот тут поясняется, что dns round-robin не нужен, да и в доках k8s пишится мол "не делой так, подумой" поясняется тем, что если одна из трех нод упадет, то 33% трафика будет идти на мертвую ноду решение предлагает через VIP, якобы пусть весь трафик пойдет на одну машину, зато если она упадет, то мы быстро выберем нового мастера и направим трафик туда меня тут немного смущает, что пока одна машина работает, другие отдыхают, как нагрузку то балансировать тогда?? ведь допустим если трафик вырастет так, что одна машина не справляется, зато три вместе ок выдержат, то в случае с VIP этот трафик просто поочередно убьет все три машины очевидно, я чего-то не понимаю в этом способе и решение более хитрое, чем я предполагаю, или нет?
Вопрос в том что ты хочешь - балансировку или отказоустойчивость. Если тебе нужно 3-х кратное резервирование то не имеет значения у тебя трафик пойдет на одну ноду или на все 3. 3-х кратное резервирование подразуемвеает что 1 нода должна держать нагрузку

Google
Vladimir
31.08.2017
08:28:23
например

Eugene
31.08.2017
08:29:50
бампану свой вопрос, если позволите ☺️
1в оставь как есть, 2в сделай 3 випа, 3в юзать pacemaker/corosync cluster ip

Vladimir
31.08.2017
08:30:03
@alisabents если все же не хочется так делать, то стоит почитать либо вайтпейпер на maglev и сделать также, но на опенсорсном софте (например поверх ipvs), ну либо просто сразу почитать про всякие ECMP

но это несколько сложнее

с DNS проблема в том что хоть клиенты должны уважать TTL для доменов, но на практике встречаются такие, которые его задирают если он слишком низкий, поэтому то что ты поставишь TTL 60 и быстро удалишь сдохший IP из DNS все равно приведет к тому что весомый процент клиентов будут долбиться периодически на сдохший сервер

из практики - 5-10% и дня три

Admin
ERROR: S client not available

Vladimir
31.08.2017
08:32:36
хотя эксперимент конечно старый и сейчас может быть лучше уже все

И не надо думать о том что у тебя будут меганагрузки и нужно 3 сервера чтобы с ними справляться, пока нет данных которые это подтверждают :)

то есть прикидок нагрузки и т.п.

а то ты сейчас закопаешься в решении проблемы которая у тебя в этой конторе может никогда не возникнуть

опыт конечно полезный, но нафига?

Роман
31.08.2017
08:37:48
А какой может быть случай, в котором etcd не выдержит нагрузку? Как можно инициировать её?

Роман
31.08.2017
08:47:36
на балансировке - никакой
То есть, вне зависимости от того, сколько у меня нод, подов и прочего, я не смогу создать сколь-нибудь ощутимую нагрузку на etcd, если у меня просто обычный кластер?

Fike
31.08.2017
08:58:48
Нагрузка на etcd пропорциональна количеству операций в кубе, поэтому в теории до него можно таким образом докопаться. На практике вряд ли кто-то кроме гугла добирался до таких проблем, и тут актуален комментарий выше про проблему, которая скорее всего никогда не возникнет.

Alisa
31.08.2017
09:54:00
@Civiloid спасибо большое за советы! :)

Роман
31.08.2017
10:12:23
Пользователи prometheus, подскажите, а обязательно node-exporter'у обязательно hostNetwork: true? зачем ему слушать публичный адрес?

Kaspar
31.08.2017
10:13:52
Да вроде не обязательно, если ты метрику собираешь по локалке.

Даже не кашерно такое наружу отдавать. Палево же

Google
Сергей
31.08.2017
10:14:33
кому нужны ваши метрики)

Kaspar
31.08.2017
10:16:38
Кстати там авторизацию в экспортёр не запилили ещё?

Dmitry
31.08.2017
10:36:18
Кстати там авторизацию в экспортёр не запилили ещё?
А зачем простой тул усложнять? Нужна авторизация, прикрути ssl проксей

Kaspar
31.08.2017
10:39:53
Правда

Alisa
31.08.2017
11:55:39
я правильно понимаю, чтобы на bare-metal сервисы открылись наружу мне надо вручную поставить внешний ip в конфига балансера или мне нужно еще вне кластера на самой машине еще поставить nginx, чтобы он пробрасывал порты на под балансера? (мне правда сложна с этим немножко)

Сергей
31.08.2017
11:56:29
вариантов несколько

первый - нодпор для сервиса и потом айпи нод и порты прописывать куда надо

еще вариант - инжесь контроллер

Alisa
31.08.2017
11:57:42
ingress?

Сергей
31.08.2017
11:58:23
да

Alisa
31.08.2017
11:59:26
"svc/funny-mastiff-nginx-ingress-controller 10.233.51.39 <pending> 80:32035/TCP,443:30182/TCP 2h " ingess-controller поставленный через helm не помог подозреваю ему надо вручную ip прописать?

Сергей
31.08.2017
12:04:21
надо смотреть, я с ним не разбирался, ибо в амазоне юзаю тайп лодбалансер

Никита
31.08.2017
12:31:35
Всем привет. Хочу сделать доступ к кластеру с локальных компов по openVpn для того чтобы можно было заходить на сайты по dns. Никто подобное не настраивал? Может есть другие пути для решения этой проблемы. На данный момент настроил доступ через ssh туннелирование и прокси, но это такое

сам кластер крутится в гугл клауд

Роман
31.08.2017
12:40:58
Но сервис нужен, если ты хочешь изнутри к поду подключаться по имени.

Разворачиваю мониторинг по этой статье: https://github.com/gregbkr/kubernetes-kargo-logging-monitoring Интересует только мониторинг при помощи прометея. Возникла проблема. Есть такой демонсет node-directory-size-metrics. Там два контейнера. Второй, который caddy, работает и с ним всё хорошо. Первый, который read-du тоже работает, но в прометее в targets напротив метрик стоит down и ошибка: Get http://10.233.96.10:80/metrics: dial tcp 10.233.96.10:80: getsockopt: connection refused Зачем он стучится на 80 порт? там же открыт только 9102. Кто-то разворачивал это? Что ему нужно?

bebebe
31.08.2017
13:46:16
а кто-нибудь spinnaker из чартов ставил хелмом

Страница 257 из 958