@kubernetes_ru

Страница 118 из 958
Paul
28.01.2017
16:19:09
зачем вам решение поверх? Чем сам к8с не устраивает?

Данил
28.01.2017
17:22:47
#whois > Какой у вас проект или где работаете? Делаю всякое на заказ (фриланс), поднимаю свои проекты. На данном этапе работаю над mirstroek.ru. > В чём вы специалист? Всего по-маленьку. бэкенды, фронтенды, немного администрирования. В основном js. > Чем можете быть интересны или полезны сообществу? Думаю, что смог бы отвечать на вопросы новичков и помогать людям въехать, потому что сейчас на себе чувствую, что порог вхождения не низкий. > Чем интересно сообщество вам? В сети много гайдов, готовых решений, но очень сложно найти лучшие практики и уж тем более найти людей, которые скажут с чего начать и в нужный момент скажут "ты творишь херню, надо по-другому". > Откуда вы? Казань > Как узнали про группу? Подсказали в группе @react_js

Очень долго думал стоит ли брать и изучать к8с. Решил что лучше попробовать, а потом думать. И у меня с ходу два вопроса: 1. Понял что можно и без CoreOS, но стоит ли? Не нахлебаюсь ли я проблем без неё? Может она из коробки решает пачку проблем, которые без неё придётся резгребать месяц. 2. Нужна ведь приватная сеть между хостами в кластере? Потому что вроде как к8с вешает порты контейнеров на внешние порты, чтобы контейнеры на разных хостах могли общаться. Ясное дело, что я не хочу, чтобы он открывал порты на публичном ip моего хоста. Значит нужна приватная (защищённая) сеть. Верно?

Google
Данил
28.01.2017
18:48:37
1. Цель какая? 2. Нужна
Цель: настроить деплой 20+ микросервисов на N серверов. Микросервисы между собой очень интесивно общаются по http. Сейчас всё это пока лишь в дев-окружении и сервисы стучаться друг к другу по именам (т.е. я, например, могу из сервиса отвечающего за юзеров послать запрос к сервису отвечающему за аватарки и для это шлю запрос на http://users-avatars-service:3000/v1/). Работает это всё на одной машине с docker-compose. Хотелось бы, сохранив возможность обращения из одного сервиса к другому по имени, подготовить всё это к реальной эксплуатации.

Ivan
28.01.2017
21:46:42
P.S. Ставить в один ряд зайчика и мускуль - это странно

Fike
28.01.2017
21:49:03
что до мускуля, то там, кажется, нет нормальных вариантов вообще

Ivan
28.01.2017
21:49:52
Всё зависит от того, что ты понимаешь под "нормальное" :)

Dmitry
30.01.2017
15:40:07
Всем салют! Не помню, было или нет... etcd кластер на отдельных машинах лучше пускать, или прям на кубовых нодах? Или и то и другое сразу

Pavel
30.01.2017
15:46:31
на мастер нодах обычно

ну и ноды лучше до etcd не пускать

Dmitry
30.01.2017
15:52:52
Спасибо. У кого иное мнение есть?

Ayrat
30.01.2017
16:06:12
а сеть на чем в кубе?
Для больших кластеров раньше рекомендлвали отдельно деплоить, для лучшего перфоманса: https://kubernetes.io/docs/admin/cluster-large/ Только не понятно зачем нужен большой кластер без Muli-tenancy

Google
Vitaliy
30.01.2017
16:17:42
Иногда на нодах flannel и надо пускать

M
30.01.2017
18:28:33
парни у кого нибудь работает конфиг с несколькими мастерами в НА?

Paul
30.01.2017
18:29:13
подозреваю, что у большинства. Не один же его в прод запускать

M
30.01.2017
18:30:23
когда падает один аписервер нужно на остальных править count?

https://github.com/kubernetes/kubernetes/issues/22609

или вы запускаете несколько apiserver ы без count и внешним балансировщиком выбираете один из?

Paul
31.01.2017
13:08:20
коллеги, подскажите пжлст, что вы используете в качестве провайдера авторизации для к8? Есть задача дать туда доступ многим и ограничить по ролям. Сейчас используем тупой csv с паролями, очень не нравится

Vitaliy
31.01.2017
13:44:30
присоединяюсь к вопросу. Видел https://github.com/coreos/dex но не разбирался как оно устроено

yolkov
31.01.2017
14:14:05
как раз его так же пробуем, но пока реализация еще не готова

Eugene
31.01.2017
20:03:34
для начала разобраться бы, sql, или nosql. задачи?

оракл сейчас проигрывает абсолютно все позиции по sql

Paul
31.01.2017
20:12:10
у меня возникает ощущение, что я вижу конец какой-то дискуссии. Можно ссылку на начало?

у оракл есть два мощнейших плюса: - легаси - сертификаты внедрения (сборка железо+софт+гарантия). В некоторых случаях это важно

Eugene
31.01.2017
21:08:32
легаси это плюс? железо у оракла? а лицензирование в курсе как они адуют?

Paul
31.01.2017
21:17:54
легаси – это сложившаяся практика. Если вы предложите сберу перевести процессинг на монгу – они пошлют вас очень далеко, и сделают соврешенно правильно. железо у оракла с момента покупки сана. Не смотря на старательную зачистку того, что там осталось – оно еще существует. Кроме того, существуют сертифицированные решения (например - HP BL7kc + RHEL5 + Oracle DBE). С которыми оракл обещает отсутствие глюков совместимости хотя бы.

Лицензирование мало волнует, как они адуют. До тех пор, пока работа в рамках лицензии производится – лицензиантов окружающий мир волнует мало. Не они же будут платить за конфеты!

Eugene
31.01.2017
21:23:24
Ох, Павел, плохо вы про современный энтерпрайз думаете. Я не предлагаю сберу (гыгы) на монго переезжать. Железо от сана это смех и грех. От RHEL5 я просто смеюсь. Оракл может все что угодно обещать, но сейчас не те реалии.

Ivan
31.01.2017
21:23:48
Нет ни одной сапр, которая бы котировалась на биржах, котоая бы поддерживала хоть какую-нибудь другую базу, кроме как оракл

Либо не выходи на IPO, либо ставь оракл

Eugene
31.01.2017
21:24:10
Иван, это не так

Google
Ivan
31.01.2017
21:24:18
*на биржах = была понимаема аудиторами

Eugene
31.01.2017
21:25:25
К сожалению не имею права

Ivan
31.01.2017
21:25:49
А жаль, я в этом заинтересован. Коллега убеждал(и убедил), что альтарнатив нет

Paul
31.01.2017
21:27:17
Ох, Павел, плохо вы про современный энтерпрайз думаете. Я не предлагаю сберу (гыгы) на монго переезжать. Железо от сана это смех и грех. От RHEL5 я просто смеюсь. Оракл может все что угодно обещать, но сейчас не те реалии.
в смысле - плохо? Я про современный энтерпрайз очень хорошо думаю. Если я тут про него плохо буду думать – меня за мат забанят. Я много и плодотворно спорил с поклонниками энтерпрайз-решений, опыт есть

Ivan
31.01.2017
21:28:36
CATIA поддерживает mssql. Но оракл лучше
я про другую сапр) Может, неправильную абривеатуру использую... Система, в которой вся отчетность, все деньги компании и прочее-прочее.

Eugene
31.01.2017
21:29:41
САПР в которой все деньги?

Ivan
31.01.2017
21:29:44
О, блин, лохонулся, erp же!

но это тоже система планирования ресурсами)

Paul
31.01.2017
21:30:03
а, это финансовая отчетность. Ну опять же - MS Dynamix прибит к MSSQL гвоздями. Некоторые горячие головы используют SalesForce, отчетность и финучет там есть. конкретно российский 1С поддерживает постгрес, но у них своя версия постгрес

от которой Олег Бартунов мягко говоря, не в восторге, ибо 1с как в той поговорке про бомжей

Paul
31.01.2017
21:32:32
я уже лет пять не имею плотного отношения к рынку ЕРП, но могу копнуть под такое дело. IPO не означает насдак, напомню. А аудиторы – точно такая же коммерческая служба. Если нью-йоркский аудитор не хочет в 1с - наймем гонконгского, они с 1с работают. Я проверял. Если вам прямо уперлось использовать определенного аудитора (сейчас угадаю - большая четверка?) по требованию андеррайтеров – то, блин, соболезную. Но дергаться стоило ДО того, как вписываешься в рабство, а не после

Ivan
31.01.2017
21:34:37
¯\_(ツ)_/¯ Мопед не мой, я лишь соболезную) Из совсем другого отдела.

Но про предложение спасибо, я запомню. Вдруг пригодится :)

Eugene
31.01.2017
21:41:06
кусаю локти как хочется подискутировать, но сорри ((

Pasha
01.02.2017
09:18:22
может кто подсказать по pod-network при развертке кластера?

делаю через kubeadm

Google
Pasha
01.02.2017
09:18:50


мастер заинитился, скачал ямл фланнела

говорю kubectl apply -f kube-flannel.yml получаю error: yaml: line 6: mapping values are not allowed in this context

сорри, сам буратино

следующая проблема

IP показывает <none>

в инетах пишут надо инитить так

kubeadm init --pod-network-cidr=

переиничивать мастер можно или это одноразовая операция?

мертвяк

Gleb
01.02.2017
12:54:59
Переинитить можно

kubeadmin reset

везде

далее заново заинить

Внешний ip не получишь, если ты не в aws/gce. Для внешки юзай мирантисовский externalipcontroller

Pasha
01.02.2017
13:02:55
спасибо

а какой ui все используют?

Gleb
01.02.2017
13:04:26
я пробовал дефолтный дашборд. Костылями так же ставится. Но по факту чет не зашло это. Больше ничего другого не пробовал.

Alexander
01.02.2017
14:23:01
Ребята, весь день тыркаюсь и не пойму... есть сервис, который висит в неймспейсе kube-system Есть другой сервис который в default Раньше они друг друга отлично видели... Сегодня вздумалось им прятаться друг от друга. Не пойму в чем проблема... Подозреваю что проблема в сети самой ноды... (CoreOS) потому-что под одни сервисы видит, а другие - нет. Есть какой-то способ диагностики?

DNS-резолвится

Google
Alexander
01.02.2017
14:23:46
а вот порты почему-то закрыты, хотя kubectl get svc показывает что все ОК с портами (они открыты)

Fike
01.02.2017
14:26:01
я бы посмотрел первым делом, что записано в iptables, потому что айпишник сервиса - сугубо виртуальный, и на этом уровне тоже может быть ошибка

Oleg
01.02.2017
14:34:31
А теперь еще можно безболезненно(?) ворочаться в кубернетесе если если вы Docker-compose user http://kompose.io/

Страница 118 из 958