@kubernetes_ru

Страница 69 из 958
Alexander
01.10.2016
15:51:19
да просто запусти в нужно ingress

у меня работает

Andrey
01.10.2016
15:51:56
а контроллер в kube-default каком-нибудь? кул, щас попробую

Alexander
01.10.2016
15:52:46
там только дефолтный сервис надо подсунуть

Google
Alexander
01.10.2016
15:55:02
вместо дефолта можешь подсунуть сервис который у тебя на GET /

Andrey
01.10.2016
15:55:28
Andreys-MacBook-Air:test drago$ kubectl --namespace=kube-system get services NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE default-http-backend 10.3.255.189 <nodes> 80/TCP 57d heapster 10.3.247.22 <none> 80/TCP 57d kube-dns 10.3.240.10 <none> 53/UDP,53/TCP 57d kubernetes-dashboard 10.3.249.230 <none> 80/TCP 57d

вон гугль дефолтный запихнул автоматом

Alexander
01.10.2016
15:56:51
ааа у тебя же от создателей :))

Andrey
01.10.2016
16:23:52
блин я удаляю rc l7-default-backend-v1.0 а он его заново пересоздает...

че кроме деплоймента может это делать?

Fike
01.10.2016
16:26:49
rc, rs

daemonset

я уже больше месяца куб не трогал, но он поду часом в лейблы-аннотации не срет инфой, из которой ты можешь вытянуть его происхождение?

Andrey
01.10.2016
16:28:58
из лейблов это https://github.com/kubernetes/contrib/blob/master/ingress/controllers/gce/rc.yaml только в гите версия 0.6.2 а в кластере автоматом ставится 1.0

ну ладно, буду блондинкой - раз гуглевский контроллер не удалить то будем юзать его вместо nginx )

Artem
01.10.2016
16:57:47
кроме логов можно как то прочекать почему ExternalIp может не пинговаться?

Alexander
01.10.2016
17:51:08
iptables?

Google
Andrey
02.10.2016
10:53:36
кстати, по поводу ingress: щас два контроллера "из коробки" идут - гуглевский родной и nginx... дак вот, гуглевский шняга полная

Alexander
02.10.2016
10:59:12
почему шняга?

Andrey
02.10.2016
11:00:42
ну во первых не работает (все эти гуглобалансировщики, хелсчеки и пулы...) но даже не смотря на это (ну руки у меня кривые например не смог настроить) то в нгинковском тупо больше функционала: реврайты там, кастомные порты и прочее

Alexander
02.10.2016
11:13:08
гугловский даже не пробовал

Andrey
02.10.2016
11:14:00
этот засранец еще и убиваться не хочет и мешает нгинковскому :) там плагин какой-то его постоянно возвращает, пришлось до нуля проскалировать

кстати, я наверное неправильно сертификат сгенерил и он по имени не резольвится? навскидку: где надо прописать адрес хоста в сапомодписаном сертификате? $ curl —resolve staging.api.fulldive.com:80:104.198.236.43 staging.api.fulldive.com {"name":"fulldive-server","version":"2.23.2","description":"FullDive API server","env":"staging"}Mac-mini-Andrej:staging drago$ $ curl —resolve staging.api.fulldive.com:443:104.198.236.43 https://staging.api.fulldive.com —insecure default backend - 404

yolkov
02.10.2016
11:37:14
в итоге у вас ингрес на ИП хоста вешается?

как из инфраструктуры вне куба вы коннетитесь к сервисам в кубе?

Andrey
03.10.2016
10:26:19
service, ingress, nginx... от задач зависит

оффтоп: redis.???.svc.cluster.local <- какой неймспейс выбрать чтоб красиво?

Fike
03.10.2016
10:55:25
unreliable-software (извините)

Andrey
03.10.2016
10:55:48
software :) ok

Fike
03.10.2016
10:55:55
возьми целиком проект, к которому он прикреплен. если это бэкенд - то бэкенд, если фронтенд кэширует ответы - то во фронтенд

Andrey
03.10.2016
10:56:47
ну у меня там кластер из редисов, и он расшарен между несколькими проектами... не секрет что редис в этом плане геморойно настраивается кластером, мне неохота по полдня проводить выполняя кучу команд чтобы сделать кластер для каждого проекта

(сразу отвечаю что два дня автоматизируя это дело тоже неохота проводить :)

Fike
03.10.2016
10:57:18
redis-cluster значит

Andrey
03.10.2016
10:57:41
а в чем преимущество неймспейса отдельно для каждого сервиса?

Denis
03.10.2016
10:59:30
Можно делить функционально (за что отвечает компонент в системе) или по типу (что это за группа сервисов - например, redis или более высокий уровень - storage)

Например: - products.storage.svc.cluster.local - redis.products.svc.cluster.local Очевидно, что в слишком разнотипной системе второй вариант более гибкий.

Google
Andrey
03.10.2016
11:02:10
ну я в kube-system затолкал все сервисы которые с кластером взаимодействуют (типа nginx-ingress или kube-lego) в software хочу запихать все сервисы которые взаимодействуют с приложениями (redis, mongo, cassandra etc) ну и создавать неймспейсы под каждый проект где приложения будут деплоиться

Fike
03.10.2016
11:02:18
а в чем преимущество неймспейса отдельно для каждого сервиса?
ну тут вопрос, как именно ты хочешь свой кластер построить и что от него хочешь, так-то он и в default спокойно может жить

Alexander
03.10.2016
11:02:58
а есть ли какая-то изоляция на уровне неймспейса?

Fike
03.10.2016
11:03:25
вроде только резолв сервисов отличается (совсем немного)

Andrey
03.10.2016
11:03:32
в рамках сетевого взаимодействия - нет, в рамках ресурсов, креденшиалсов и прочего - да

Denis
03.10.2016
11:04:03
Они как раз и позиционируют namespace для распределения прав доступа

Alexander
03.10.2016
11:06:10
надо будет больше почитать про namespace

Andrey
03.10.2016
11:41:49
Recycling Policy Current recycling policies are: Retain – manual reclamation Recycle – basic scrub (“rm -rf /thevolume/*”) Delete – associated storage asset such as AWS EBS, GCE PD or OpenStack Cinder volume is deleted Currently, only NFS and HostPath support recycling. AWS EBS, GCE PD and Cinder volumes support deletion.

это я про PV читаю: кто-нибудь может на русский матерный перевести? че-то я не допер

Andrey
03.10.2016
12:23:53
chart?

там насколько я вижу helmc заморозили и стали девелопить helm под эгидой kubernetes поэтому все чарты старые перестали поддерживать а новых еще не добавили

Andrey
03.10.2016
12:26:01
https://github.com/helm/helm-classic

Zon
03.10.2016
13:57:20
Именно редисовый точно был, на кластер, просто на классик не смотри

Ayrat
03.10.2016
17:08:24
@yolkov Kak calico работает ?

Artur
03.10.2016
17:11:38
сколько минимум нод нужно для k8s? в проде

хватит трёх как для мезоса?

Alexander
03.10.2016
17:15:12
хватит и одного :))

Fike
03.10.2016
17:15:43
от обратного: сколько нод у тебя могут выйти из строя и это будет считаться штатной ситуацией?

Artur
03.10.2016
17:31:26
ну пережить вывод одной ноды хотелось бы

Google
Artur
03.10.2016
17:31:34
больше не надо

Fike
03.10.2016
17:31:59
три

Andrey
04.10.2016
06:39:56
хотелось бы пережить вывод из строя датацентра если честно :) может когда-нибудь...

> @zon_orti Именно редисовый точно был, на кластер, просто на классик не смотри попробовал поставил: 1) обновлялось год назад, 2) ставится redis sentinel вместо redis cluster (что мягко говоря не то), 3) тупо не работает (слейвы к мастеру не могут подключиться о чем и говорят в логах - не стал разбираться и снес).... так что пока вариант только самим, или контрибьютить в kubernetes/charts

Admin
ERROR: S client not available

Zon
04.10.2016
06:46:52
Понятное дело, что сторадж самому нужно подключить :)

Sergey
04.10.2016
08:16:34
Коллеги, кто-нибудь использовал Calico? Быстро сходится? Нет ли проблем на больших сетях? Не становится ли плохо при количестве хостов, превышающем разумные пределы (сотни)? Вообще любой фидбек интересен.

Fike
04.10.2016
08:31:25
хотелось бы пережить вывод из строя датацентра если честно :) может когда-нибудь...
Auth0 о чем-то таком писали, правда не уверен, что у них кубернетес тогда был

Bro
04.10.2016
08:39:06
Привет

Кто нибудь поднимал кластер на amazon используя kube-aws? Интересует, если потом нужно воркер нод добавить это реально сделать?

Vladimir
04.10.2016
09:30:34
На кластер, поднятый через kops в aws добаляем heapster, influxdb, grafana отсюда https://github.com/kubernetes/heapster/blob/master/deploy/kube-config/influxdb/grafana-service.yaml heapster и influxdb - всё ок а grafana service удаляется через 7 минут после создания есть идеи?

Bro
04.10.2016
10:20:23
148 members 1 online =(

Lev
04.10.2016
10:22:24
И это я

Andrey
04.10.2016
10:26:24
не факт

Dmitry
04.10.2016
10:26:43
вот да

Andrey
04.10.2016
10:26:52
у меня так например во всех группах пишет вне зависимости от активности

Zon
04.10.2016
12:15:12
Скажите, а как вы энфорсите версионирование манифестов?

Andrey
04.10.2016
13:04:41
чо?

Google
Zon
04.10.2016
13:09:19
Чтоб руками не пихали манифесты в кластер, а как-то упорядоченно

Andrey
04.10.2016
13:09:43
10-X.yaml, 20-Y.yaml ...

и потом kubectl create -f dirname

Zon
04.10.2016
13:10:07
Это понятно. Вопрос про гит и тому подобное

Чтоб история была

Andrey
04.10.2016
13:10:17
ну гит :)

а, все понял :)

не, я один фигачу поэтому просто после изменений комиччу

это если сервера... если проект деплоится через CI то она применяет деплоймент и коммитит изменения (версию образа изменившегося обновляет в файле)

Artur
04.10.2016
13:13:15
кто-нибудь с kubeadm уже настраивал k8s?

в вагранте какая-то боль дождаться kubeadm init

<master/apiclient> created API client, waiting for the control plane to become ready

и всё, уже 2 раза покурить сходил

Vadim
04.10.2016
14:03:57
я на lxc пробовал запускать - тоже на этом же останавлиается. но если посмотреть syslog, там куча ошибок

не будет продолжения

Страница 69 из 958