
Paul
30.08.2017
19:57:23
что говорит?

Alisa
30.08.2017
19:57:41
ничего

Paul
30.08.2017
19:57:56
потрясающе
а как ты в api ходишь?

Google

Alisa
30.08.2017
19:58:17
а ой, на локальной машине всмысле?
вот локальная машина

Paul
30.08.2017
20:00:48
выясни, на каком порту у тебя апи на мастере. И проверь, нету ли на мастере балансировщика. Есть подозрение, что у тебя два мастера и ты по очереди попадаешь то на один, то на второй.
зачем ты сделал две машины в одном кластере и с одним именем - спрашивать, конечно, бессмыслено?

Alisa
30.08.2017
20:01:34
так получилось :c
я уже решил, что проще переделать конечно, просто не ожидал подвоха с этой стороны

Paul
30.08.2017
20:02:26
с точки зрения куба проблем, я так понимаю, нет. А вот с точки зрения диагностики...
Я бы рекомендовал, для начала:
- три ноды, а не две
- разные имена
- переделать

Alisa
30.08.2017
20:02:55
хорошо, спасибо большое! пойду переделывать

Paul
30.08.2017
20:04:39
да как бы не за что. Деплой куба - очень болезненная тема. Способов - как блох, и все они не работают.
И все - по-разному

Maksim
31.08.2017
06:42:13
И замечу все способы рабочие...

Сергей
31.08.2017
07:09:27
зе хард вей и понеслась

Fike
31.08.2017
07:12:39

Maksim
31.08.2017
07:14:23
апаснасть, сейчас взбомбанет
Да всё оно работает, просто подходить нужно с головой ОС(опен сорос) а не Винлы, где кнопка далее решает все проблемы установки...За 15 лет в ОС я столько всего перевидал, что всё тут всё долвльно нормально....Слегка доработать напильником это в порядке вещей

Google

Mikhail
31.08.2017
07:14:50
Ну я прошел через все стадии неизбежности: гнев, отрицание, торг, депрессия, принятие , пока разбирался с установкой кубера :)

Maksim
31.08.2017
07:32:15
Эт норм

Сергей
31.08.2017
07:32:30
да что там его ставить то?
первый раз вообще в амазоне апал через куб - ап на баше, было давно)
потом у кейси по хардвею
2 раза по хард вею и все понятно
вот уже всякие cni типа калико и инжест контроллеры - да тут уже надо помучаться
а сам кубер ставится без проблем, вопрос в том, что в таком виде она кроме как на поиграться нах не уперся


Alisa
31.08.2017
08:05:11
продолжаем тред маленьких девопсов,
https://github.com/kubernetes/contrib/tree/master/keepalived-vip
вот тут поясняется, что dns round-robin не нужен, да и в доках k8s пишится мол "не делой так, подумой"
поясняется тем, что если одна из трех нод упадет, то 33% трафика будет идти на мертвую ноду
решение предлагает через VIP, якобы пусть весь трафик пойдет на одну машину, зато если она упадет, то мы быстро выберем нового мастера и направим трафик туда
меня тут немного смущает, что пока одна машина работает, другие отдыхают, как нагрузку то балансировать тогда??
ведь допустим если трафик вырастет так, что одна машина не справляется, зато три вместе ок выдержат, то в случае с VIP этот трафик просто поочередно убьет все три машины
очевидно, я чего-то не понимаю в этом способе и решение более хитрое, чем я предполагаю, или нет?

Fike
31.08.2017
08:09:50
узкое место все равно будет в etcd
и он не масштабируется никак, там всегда ровно одна принимающая решения нода

Alisa
31.08.2017
08:10:21
а почему? как он участвует в обработке трафика?

Sergey
31.08.2017
08:12:37
>там всегда ровно одна принимающая решения нода
это тоже неверно

Fike
31.08.2017
08:13:07
так, я подумал что мы говорим про блансировку самого куба
там может быть несколько нод, считающих себя мастером. но закоммитить сможет только одна.

Sergey
31.08.2017
08:13:49
эни пруфс?
почитайте как работает Raft.
в etcd всегда один координатор транзакций. но решение принимает не одна нода.

Fike
31.08.2017
08:14:06
да вот именно, что в рафте один мастер и куча фолловеров

Sergey
31.08.2017
08:14:19

Google

Sergey
31.08.2017
08:14:39
с практической точки зрения вы правы, это не масштабируется.
но говорить что мастер единолично все решает - неверно.

Fike
31.08.2017
08:14:39
они не участвуют в транзакции, они участвуют в отсылке сообщений о приеме логов

Sergey
31.08.2017
08:14:50

Fike
31.08.2017
08:15:25
окей, давайте просто скажем, что фолловеры ничего не решают

Sergey
31.08.2017
08:15:49

Fike
31.08.2017
08:16:04
они не принимают участия в решении
они могут отказать мастеру в его короне, сославшись на терм. в решении же они не участвуют никак.

Sergey
31.08.2017
08:17:40
если фолловер не подтверждает применимость транзакции, мастер не может коммитить.

Eugene
31.08.2017
08:18:11
Кто нибудь etcd "по миру пускал", ну там одна нода в северноей европе, другая в западной третья на востоке сшп и тд?

Fike
31.08.2017
08:18:20
это не влияет на решение. это влияет на легитимность того, кто выдвигает решение.

Sergey
31.08.2017
08:18:34

Eugene
31.08.2017
08:18:52
от спасибо а то я сам не догадался)

Sergey
31.08.2017
08:19:24

Eugene
31.08.2017
08:21:32
Спасбо, Ну судя по офф документации так есть, хотелось бы реального конфига от человека кто так делает и у него все отлично работает.


Alisa
31.08.2017
08:21:57
продолжаем тред маленьких девопсов,
https://github.com/kubernetes/contrib/tree/master/keepalived-vip
вот тут поясняется, что dns round-robin не нужен, да и в доках k8s пишится мол "не делой так, подумой"
поясняется тем, что если одна из трех нод упадет, то 33% трафика будет идти на мертвую ноду
решение предлагает через VIP, якобы пусть весь трафик пойдет на одну машину, зато если она упадет, то мы быстро выберем нового мастера и направим трафик туда
меня тут немного смущает, что пока одна машина работает, другие отдыхают, как нагрузку то балансировать тогда??
ведь допустим если трафик вырастет так, что одна машина не справляется, зато три вместе ок выдержат, то в случае с VIP этот трафик просто поочередно убьет все три машины
очевидно, я чего-то не понимаю в этом способе и решение более хитрое, чем я предполагаю, или нет?
бампану свой вопрос, если позволите ☺️


Vladimir
31.08.2017
08:23:51
1. Никакой, связанной с темой канала.
2. Ни в чем.
3. Ничем.
4. Говорят тут ржачно и шутка дня: etcd это master-slave
5. Амстердам
6. Рассказали друзья
#whois

Denis
31.08.2017
08:26:19
:)

Anton
31.08.2017
08:26:21


Vladimir
31.08.2017
08:28:08
продолжаем тред маленьких девопсов,
https://github.com/kubernetes/contrib/tree/master/keepalived-vip
вот тут поясняется, что dns round-robin не нужен, да и в доках k8s пишится мол "не делой так, подумой"
поясняется тем, что если одна из трех нод упадет, то 33% трафика будет идти на мертвую ноду
решение предлагает через VIP, якобы пусть весь трафик пойдет на одну машину, зато если она упадет, то мы быстро выберем нового мастера и направим трафик туда
меня тут немного смущает, что пока одна машина работает, другие отдыхают, как нагрузку то балансировать тогда??
ведь допустим если трафик вырастет так, что одна машина не справляется, зато три вместе ок выдержат, то в случае с VIP этот трафик просто поочередно убьет все три машины
очевидно, я чего-то не понимаю в этом способе и решение более хитрое, чем я предполагаю, или нет?
Вопрос в том что ты хочешь - балансировку или отказоустойчивость. Если тебе нужно 3-х кратное резервирование то не имеет значения у тебя трафик пойдет на одну ноду или на все 3. 3-х кратное резервирование подразуемвеает что 1 нода должна держать нагрузку

Google

Vladimir
31.08.2017
08:28:23
например

Eugene
31.08.2017
08:29:50

Vladimir
31.08.2017
08:30:03
@alisabents если все же не хочется так делать, то стоит почитать либо вайтпейпер на maglev и сделать также, но на опенсорсном софте (например поверх ipvs), ну либо просто сразу почитать про всякие ECMP
но это несколько сложнее
с DNS проблема в том что хоть клиенты должны уважать TTL для доменов, но на практике встречаются такие, которые его задирают если он слишком низкий, поэтому то что ты поставишь TTL 60 и быстро удалишь сдохший IP из DNS все равно приведет к тому что весомый процент клиентов будут долбиться периодически на сдохший сервер
из практики - 5-10% и дня три

Admin
ERROR: S client not available

Vladimir
31.08.2017
08:32:36
хотя эксперимент конечно старый и сейчас может быть лучше уже все
И не надо думать о том что у тебя будут меганагрузки и нужно 3 сервера чтобы с ними справляться, пока нет данных которые это подтверждают :)
то есть прикидок нагрузки и т.п.
а то ты сейчас закопаешься в решении проблемы которая у тебя в этой конторе может никогда не возникнуть
опыт конечно полезный, но нафига?

Роман
31.08.2017
08:37:48
А какой может быть случай, в котором etcd не выдержит нагрузку? Как можно инициировать её?

Sergey
31.08.2017
08:46:15

Роман
31.08.2017
08:47:36
на балансировке - никакой
То есть, вне зависимости от того, сколько у меня нод, подов и прочего, я не смогу создать сколь-нибудь ощутимую нагрузку на etcd, если у меня просто обычный кластер?

Fike
31.08.2017
08:58:48
Нагрузка на etcd пропорциональна количеству операций в кубе, поэтому в теории до него можно таким образом докопаться. На практике вряд ли кто-то кроме гугла добирался до таких проблем, и тут актуален комментарий выше про проблему, которая скорее всего никогда не возникнет.

Alisa
31.08.2017
09:54:00
@Civiloid спасибо большое за советы! :)

Роман
31.08.2017
10:12:23
Пользователи prometheus, подскажите, а обязательно node-exporter'у обязательно hostNetwork: true? зачем ему слушать публичный адрес?

Kaspar
31.08.2017
10:13:52
Да вроде не обязательно, если ты метрику собираешь по локалке.
Даже не кашерно такое наружу отдавать. Палево же

Google

Сергей
31.08.2017
10:14:33
кому нужны ваши метрики)

Kaspar
31.08.2017
10:16:38
Кстати там авторизацию в экспортёр не запилили ещё?

Dmitry
31.08.2017
10:36:18

Kaspar
31.08.2017
10:39:53
Правда

Alisa
31.08.2017
11:55:39
я правильно понимаю, чтобы на bare-metal сервисы открылись наружу мне надо вручную поставить внешний ip в конфига балансера или мне нужно еще вне кластера на самой машине еще поставить nginx, чтобы он пробрасывал порты на под балансера?
(мне правда сложна с этим немножко)

Сергей
31.08.2017
11:56:29
вариантов несколько
первый - нодпор для сервиса и потом айпи нод и порты прописывать куда надо
еще вариант - инжесь контроллер

Alisa
31.08.2017
11:57:42
ingress?

Сергей
31.08.2017
11:58:23
да

Alisa
31.08.2017
11:59:26
"svc/funny-mastiff-nginx-ingress-controller 10.233.51.39 <pending> 80:32035/TCP,443:30182/TCP 2h
"
ingess-controller поставленный через helm не помог
подозреваю ему надо вручную ip прописать?

Сергей
31.08.2017
12:04:21
надо смотреть, я с ним не разбирался, ибо в амазоне юзаю тайп лодбалансер

Никита
31.08.2017
12:31:35
Всем привет. Хочу сделать доступ к кластеру с локальных компов по openVpn для того чтобы можно было заходить на сайты по dns. Никто подобное не настраивал? Может есть другие пути для решения этой проблемы. На данный момент настроил доступ через ssh туннелирование и прокси, но это такое
сам кластер крутится в гугл клауд


Роман
31.08.2017
12:40:58
Но сервис нужен, если ты хочешь изнутри к поду подключаться по имени.
Разворачиваю мониторинг по этой статье: https://github.com/gregbkr/kubernetes-kargo-logging-monitoring
Интересует только мониторинг при помощи прометея. Возникла проблема. Есть такой демонсет node-directory-size-metrics. Там два контейнера. Второй, который caddy, работает и с ним всё хорошо. Первый, который read-du тоже работает, но в прометее в targets напротив метрик стоит down и ошибка:
Get http://10.233.96.10:80/metrics: dial tcp 10.233.96.10:80: getsockopt: connection refused
Зачем он стучится на 80 порт? там же открыт только 9102. Кто-то разворачивал это? Что ему нужно?


bebebe
31.08.2017
13:46:16
а кто-нибудь spinnaker из чартов ставил хелмом