@kubernetes_ru

Страница 310 из 958
Pavel
31.10.2017
13:01:29
Ну попробую варианты, если запустится - буду разбираться почему kubeadm не взлетел

Anton
31.10.2017
13:01:48
git clone —depth=1 https://github.com/kubernetes/kubernetes.git по этому пути пошёл
я не понял если честно как git clone может помочь тут. сам соберешь все компоненты?

Pavel
31.10.2017
13:02:12
там есть красивый ./hack/local-up-cluster.sh

Anton
31.10.2017
13:03:19
кажется уже среди предлагаемых способов поднять кластер этих скриптов нет

Google
s3rj1k
31.10.2017
13:07:47
сорян, не туда

Anton
31.10.2017
13:09:21
надеюсь все у вас получится, а нет - так логи почитаете наконец

Pavel
31.10.2017
13:13:03
Oct 31 16:12:41 master kubelet[28791]: I1031 16:12:41.738326 28791 eviction_manager.go:325] eviction manager: no resources are starved

Aleksey
31.10.2017
13:13:37
Да попробуйте уже kismatic

Но только на голом хосту, где не было телоджвижений с кубером до этого

Pavel
31.10.2017
13:42:15
надеюсь все у вас получится, а нет - так логи почитаете наконец
Логи выставлял на 4, в логах один фиг ничего интересного-странного нет

там есть красивый ./hack/local-up-cluster.sh
Только так смог завестись у меня локально

Anton
31.10.2017
13:56:00
по etcd - v3 snapshot достаточно для бэкапа? сужу по опции apiserver --storage-backend=etcd3

Sergey
31.10.2017
14:30:16
Господа, никто не сталкивался с тем, что k8s отказывается маунтить PVC в mountPath, который совпадает с VOLUME в докерфайле?

Oleg
31.10.2017
14:34:15
kvaps
31.10.2017
15:05:38
Блин новый ранчер 2.0, ваще бомба!

Google
kvaps
31.10.2017
15:05:50
поскорей бы релиз

Paul
31.10.2017
15:07:25
а он живой вообще?

terry
31.10.2017
15:10:53
ток ребята поспешили

а потом одумались

Alexey
31.10.2017
15:11:22
он теперь на кубернетес перепрофилировался

Paul
31.10.2017
15:11:26
а это не их майкрософт недавно выкупил?

Alexander
31.10.2017
15:13:45
вроде как самостоятельные были

Paul
31.10.2017
15:15:51
точно

спасибо

kvaps
31.10.2017
15:16:52
еще прикольно что его теперь можно просто как вебморду использовать для уже установленного kubernetes

но вообще устанавливается проще чем kubeadm и деплоит куб 1.7.6 из коробки

Anton
31.10.2017
15:21:18
еще один openshift?

Alexander
31.10.2017
15:25:30
гуи для управления контейнерами

bebebe
31.10.2017
15:27:28
оффтопик: где можно бесплатно и на века захостить контйнер у которого будет открыт udp из нутри, и возможность обратиться к нему снаружи?

heroku отпал из-за udp

Alexey
31.10.2017
15:34:58
бесплатно вообще ничего нормального не бывает, в лучшем случае временное

bebebe
31.10.2017
15:35:50
https://www.openshift.com/pricing/index.html позволяют например

Andew
31.10.2017
15:37:25
GCP предоставляет бесплатный micro сервер. Можно там поднять https://cloud.google.com/free/ Правда надо за трафиком сдедить

Google
Alexey
31.10.2017
15:38:33
aws тоже бесплатный на год может быть, но это не "на века", и за трафик и диск правда всё равно платить

bebebe
31.10.2017
15:39:08
трафик шуточный, мне нужно с rtsp который по udp работает ffmpeg'ом снять скриншот и nginx'ом его раздать с cache-policy: never

Oleg
31.10.2017
18:09:52
kompose созрел?

Maksim
31.10.2017
18:20:22
А он зрел?

Oleg
31.10.2017
18:28:37
я не знаю. Потому и спрашиваю

Igor
31.10.2017
18:37:05
Господа, есть у кого опыт использования rancher + kuber в проде?

Maksim
31.10.2017
19:29:10
А почему плюс? Rancher и есть кубер

Fike
31.10.2017
19:29:33
Что

Igor
31.10.2017
19:37:43
Rancher так же может быть и сворм и месос.

А почему плюс? Rancher и есть кубер

Vitaliy
31.10.2017
21:02:18
когда ещё год назад смотрел их доклад с одной из конференций, подумал, что они психи - делать банк на кубере https://community.monzo.com/t/current-account-payments-may-fail-major-outage/26296/95

Vitaliy
31.10.2017
21:09:10
из доклада я помню про все бэкенды и вроде vault. На ютюбе их легко найти. И тех. блог где-то был

насчёт бд непонятно. Может амазоновские юзают

Paul
31.10.2017
21:16:14
восхищен их смелостью

Anton
01.11.2017
06:53:36
это оч любопытно, если правильно понял тут https://github.com/kubernetes/kubernetes/issues/47131 собираются поднять версию клиента etcd в k8s

Anton
01.11.2017
06:58:45
как страшно жить, я думал было к версии 1.8 все уже отточено

Let Eat
01.11.2017
07:01:11
ну я надеюсь обновят везде: 1.6, 1.7, 1.8

Anton
01.11.2017
07:03:51
по поводу --profiling, который по умолчанию true. в kubespray его отключают, ссылаясь на рекомендации по безопасности https://github.com/kubernetes-incubator/kubespray/commit/d487b2f927965782f45f1f8ddfcce11f52dac9c6 насколько стремно включенный профайлинг держать для мастер компонент в проде?

Google
Anton
01.11.2017
07:16:26
даже опции не предусмотрено в kubespray для включения =\

Let Eat
01.11.2017
07:20:56
а kubespray разве устанавливать надо? мне казалось там просто git clone

Anton
01.11.2017
08:12:26
ну его опции можно\нужно менять

инвентори как минимум свой

Let Eat
01.11.2017
08:15:58
Ну раз git clone, то можно свои правки вносить везде и просто подтягивать обновления с git merge. Это я к тому, что делать опцию на каждый флаг непрактично

Роман
01.11.2017
08:20:28
доступ к /debug/pprof через RBAC идет, зачем отключать
А где поподробней про профайлинг почитать?

Anton
01.11.2017
08:27:07
Ну раз git clone, то можно свои правки вносить везде и просто подтягивать обновления с git merge. Это я к тому, что делать опцию на каждый флаг непрактично
там куча ролей с опциями по дефолту практически на все случаи жизни =) проверил, можно через apiserver_custom_flags, controller_mgr_custom_flags и scheduler_custom_flags перезадать ключ, в конец списка добавляется, просто добавив --profiling=true

А где поподробней про профайлинг почитать?
что то в /debug/pprof чет слишком много всего. это что то программерское. нужно понимать как компоненты внутри устроены

kvaps
01.11.2017
08:56:05
здесь есть извращенцы такие как я, кто kubernetes внутри lxc-контейнера запускал?

lxc.apparmor.profile: unconfined lxc.cgroup.devices.allow: a lxc.cap.drop: lxc.mount.auto: proc:rw sys:rwС таким конфигом запускается, но хочется по максимуму его в правах урезать

66271
01.11.2017
09:55:04
отпишешь получилось ли
фиг там, не поставился даже сам k8s, скрипт инсталяции - http://paste.openstack.org/show/625190/ ошибка: fatal: [master]: FAILED! => {"changed": true, "cmd": "/usr/local/bin/kubectl get secrets -o custom-columns=name:{.metadata.name} --no-headers | grep -m1 default-token", "delta": "0:00:00.173465", "end": "2017-11-01 09:42:27.087856", "failed": true, "msg": "non-zero return code", "rc": 1, "start": "2017-11-01 09:42:26.914391", "stderr": "", "stderr_lines": [], "stdout": "", "stdout_lines": []}

Anton
01.11.2017
09:58:11
оффтоп: кто нить logentries linux agent запускает внутри k8s\docker container? он похоже в бэкграунд отправляет процесс, в итоге pid 1 дохнет и контейнер сворачивается.

Anton
01.11.2017
10:07:16
он на python написан, https://github.com/rapid7/le/blob/master/src/le.py#L3115 похоже что можно его не в режиме демона запускать и будет норм

Igor
01.11.2017
10:08:49
Подскажите пожалйуста, хочу развернуть HA кластер, есть 3 сервера на каждом по мастеру,etcd и ноде. Как я понял если разворачивать через kubespray, то нужно отдельно ещё иметь load balancer? Буду очень признателен если кто-то обьяснит как правильно сделать HA.

Anton
01.11.2017
10:09:15
HA для которого из компонент?

Igor
01.11.2017
10:09:40
Я так понимаю для мастера.

Собственно задача в том, чтобы если одна жилезка умрет - поды продолжали жить.

Google
Anton
01.11.2017
10:10:42
мастер компоненты тычут в 127.1 для общения с apiserver

Igor
01.11.2017
10:11:35
Нет, но все имеют публичный ip

Mikhail
01.11.2017
10:12:27
kvaps
01.11.2017
10:12:39
Нет, но все имеют публичный ip
Тогда как Anton сказал - думаю будет лучшее решение)

Anton
01.11.2017
10:13:57
мастер компоненты тычут в 127.1 для общения с apiserver
и kubelet тоже общается через 127.1 внутри для общения с apiserver используется kubernetes.svc.default, которая может содержать массу endpoints, зависит от опции apiserver --apiserver-count кажется

kvaps
01.11.2017
10:14:38
Keepalived вычеркиваем
А разве он не на L3 работает?

Anton
01.11.2017
10:14:54
почему кстати keepalived вычеркиваем?

kvaps
01.11.2017
10:15:07
В чем тогда его преимущество перед CLUSTER-IP?

Anton
01.11.2017
10:16:06
Keepalived вычеркиваем
а, в том плане, что если нода себе адрес заберет, не факт что вообще к ней трафик для этого ip будет роутится

Anton
01.11.2017
10:17:04
Нет, но все имеют публичный ip
так HA для мастера типа из коробки есть для внутренних клиентов

kvaps
01.11.2017
10:18:10
Mikhail
01.11.2017
10:18:47
А разве он не на L3 работает?
Мне почему-то казалось должна быть l2 связность. Нет?

Разные сети, адрес один

Только если анонсить его в трёх местах

66271
01.11.2017
10:19:56
надо пошагово смотреть. Это локальный комп что-ли?
ubuntu 16.04 cloud, ВМка в опенстеке, kubespray v2.2.1 взлетает на ура

kvaps
01.11.2017
10:20:51
Alik
01.11.2017
10:27:23
Привет, товарищи! Кто-нибудь деплоил spring boot приложение с gce-ingress балансером?

Страница 310 из 958