
Alexander
01.10.2016
15:51:19
да просто запусти в нужно ingress
у меня работает

Andrey
01.10.2016
15:51:56
а контроллер в kube-default каком-нибудь? кул, щас попробую

Alexander
01.10.2016
15:52:46
там только дефолтный сервис надо подсунуть

Google

Alexander
01.10.2016
15:55:02
вместо дефолта можешь подсунуть сервис который у тебя на GET /

Andrey
01.10.2016
15:55:28
Andreys-MacBook-Air:test drago$ kubectl --namespace=kube-system get services
NAME CLUSTER-IP EXTERNAL-IP PORT(S) AGE
default-http-backend 10.3.255.189 <nodes> 80/TCP 57d
heapster 10.3.247.22 <none> 80/TCP 57d
kube-dns 10.3.240.10 <none> 53/UDP,53/TCP 57d
kubernetes-dashboard 10.3.249.230 <none> 80/TCP 57d
вон гугль дефолтный запихнул автоматом

Alexander
01.10.2016
15:56:51
ааа у тебя же от создателей :))

Andrey
01.10.2016
16:23:52
блин я удаляю rc l7-default-backend-v1.0 а он его заново пересоздает...
че кроме деплоймента может это делать?

Fike
01.10.2016
16:26:49
rc, rs
daemonset
я уже больше месяца куб не трогал, но он поду часом в лейблы-аннотации не срет инфой, из которой ты можешь вытянуть его происхождение?

Andrey
01.10.2016
16:28:58
из лейблов это https://github.com/kubernetes/contrib/blob/master/ingress/controllers/gce/rc.yaml только в гите версия 0.6.2 а в кластере автоматом ставится 1.0
ну ладно, буду блондинкой - раз гуглевский контроллер не удалить то будем юзать его вместо nginx )

Artem
01.10.2016
16:57:47
кроме логов можно как то прочекать почему ExternalIp может не пинговаться?

Alexander
01.10.2016
17:51:08
iptables?

Google

Stanislav
02.10.2016
03:00:27

Andrey
02.10.2016
10:53:36
кстати, по поводу ingress: щас два контроллера "из коробки" идут - гуглевский родной и nginx... дак вот, гуглевский шняга полная

Alexander
02.10.2016
10:59:12
почему шняга?

Andrey
02.10.2016
11:00:42
ну во первых не работает (все эти гуглобалансировщики, хелсчеки и пулы...)
но даже не смотря на это (ну руки у меня кривые например не смог настроить) то в нгинковском тупо больше функционала: реврайты там, кастомные порты и прочее

Alexander
02.10.2016
11:13:08
гугловский даже не пробовал

Andrey
02.10.2016
11:14:00
этот засранец еще и убиваться не хочет и мешает нгинковскому :) там плагин какой-то его постоянно возвращает, пришлось до нуля проскалировать
кстати, я наверное неправильно сертификат сгенерил и он по имени не резольвится? навскидку: где надо прописать адрес хоста в сапомодписаном сертификате?
$ curl —resolve staging.api.fulldive.com:80:104.198.236.43 staging.api.fulldive.com
{"name":"fulldive-server","version":"2.23.2","description":"FullDive API server","env":"staging"}Mac-mini-Andrej:staging drago$
$ curl —resolve staging.api.fulldive.com:443:104.198.236.43 https://staging.api.fulldive.com —insecure
default backend - 404

yolkov
02.10.2016
11:37:14
в итоге у вас ингрес на ИП хоста вешается?
как из инфраструктуры вне куба вы коннетитесь к сервисам в кубе?

Andrey
03.10.2016
10:26:19
service, ingress, nginx... от задач зависит
оффтоп: redis.???.svc.cluster.local <- какой неймспейс выбрать чтоб красиво?

Fike
03.10.2016
10:55:25
unreliable-software (извините)

Andrey
03.10.2016
10:55:48
software :) ok

Fike
03.10.2016
10:55:55
возьми целиком проект, к которому он прикреплен. если это бэкенд - то бэкенд, если фронтенд кэширует ответы - то во фронтенд

Andrey
03.10.2016
10:56:47
ну у меня там кластер из редисов, и он расшарен между несколькими проектами... не секрет что редис в этом плане геморойно настраивается кластером, мне неохота по полдня проводить выполняя кучу команд чтобы сделать кластер для каждого проекта
(сразу отвечаю что два дня автоматизируя это дело тоже неохота проводить :)

Fike
03.10.2016
10:57:18
redis-cluster значит

Andrey
03.10.2016
10:57:41
а в чем преимущество неймспейса отдельно для каждого сервиса?

Denis
03.10.2016
10:59:30
Можно делить функционально (за что отвечает компонент в системе) или по типу (что это за группа сервисов - например, redis или более высокий уровень - storage)
Например:
- products.storage.svc.cluster.local
- redis.products.svc.cluster.local
Очевидно, что в слишком разнотипной системе второй вариант более гибкий.

Google

Andrey
03.10.2016
11:02:10
ну я в kube-system затолкал все сервисы которые с кластером взаимодействуют (типа nginx-ingress или kube-lego)
в software хочу запихать все сервисы которые взаимодействуют с приложениями (redis, mongo, cassandra etc)
ну и создавать неймспейсы под каждый проект где приложения будут деплоиться

Fike
03.10.2016
11:02:18

Alexander
03.10.2016
11:02:58
а есть ли какая-то изоляция на уровне неймспейса?

Fike
03.10.2016
11:03:25
вроде только резолв сервисов отличается (совсем немного)

Andrey
03.10.2016
11:03:32
в рамках сетевого взаимодействия - нет, в рамках ресурсов, креденшиалсов и прочего - да

Denis
03.10.2016
11:04:03
Они как раз и позиционируют namespace для распределения прав доступа

Alexander
03.10.2016
11:06:10
надо будет больше почитать про namespace

Andrey
03.10.2016
11:41:49
Recycling Policy
Current recycling policies are:
Retain – manual reclamation
Recycle – basic scrub (“rm -rf /thevolume/*”)
Delete – associated storage asset such as AWS EBS, GCE PD or OpenStack Cinder volume is deleted
Currently, only NFS and HostPath support recycling. AWS EBS, GCE PD and Cinder volumes support deletion.
это я про PV читаю: кто-нибудь может на русский матерный перевести? че-то я не допер

Zon
03.10.2016
12:22:37

Andrey
03.10.2016
12:23:53
chart?
там насколько я вижу helmc заморозили и стали девелопить helm под эгидой kubernetes
поэтому все чарты старые перестали поддерживать а новых еще не добавили

Andrey
03.10.2016
12:26:01
https://github.com/helm/helm-classic

Zon
03.10.2016
13:57:20
Именно редисовый точно был, на кластер, просто на классик не смотри

Ayrat
03.10.2016
17:08:24
@yolkov Kak calico работает ?

Artur
03.10.2016
17:11:38
сколько минимум нод нужно для k8s? в проде
хватит трёх как для мезоса?

Alexander
03.10.2016
17:15:12
хватит и одного :))

Fike
03.10.2016
17:15:43
от обратного: сколько нод у тебя могут выйти из строя и это будет считаться штатной ситуацией?

Artur
03.10.2016
17:31:26
ну пережить вывод одной ноды хотелось бы

Google

Artur
03.10.2016
17:31:34
больше не надо

Fike
03.10.2016
17:31:59
три

Andrey
04.10.2016
06:39:56
хотелось бы пережить вывод из строя датацентра если честно :) может когда-нибудь...
> @zon_orti
Именно редисовый точно был, на кластер, просто на классик не смотри
попробовал поставил: 1) обновлялось год назад, 2) ставится redis sentinel вместо redis cluster (что мягко говоря не то), 3) тупо не работает (слейвы к мастеру не могут подключиться о чем и говорят в логах - не стал разбираться и снес).... так что пока вариант только самим, или контрибьютить в kubernetes/charts

Admin
ERROR: S client not available

Zon
04.10.2016
06:46:52
Понятное дело, что сторадж самому нужно подключить :)


Sergey
04.10.2016
08:16:34
Коллеги, кто-нибудь использовал Calico? Быстро сходится? Нет ли проблем на больших сетях? Не становится ли плохо при количестве хостов, превышающем разумные пределы (сотни)?
Вообще любой фидбек интересен.

Fike
04.10.2016
08:31:25

Bro
04.10.2016
08:39:06
Привет
Кто нибудь поднимал кластер на amazon используя kube-aws? Интересует, если потом нужно воркер нод добавить это реально сделать?

Vladimir
04.10.2016
09:30:34
На кластер, поднятый через kops в aws добаляем heapster, influxdb, grafana отсюда https://github.com/kubernetes/heapster/blob/master/deploy/kube-config/influxdb/grafana-service.yaml
heapster и influxdb - всё ок
а grafana service удаляется через 7 минут после создания
есть идеи?

Bro
04.10.2016
10:20:23
148 members 1 online =(

Lev
04.10.2016
10:22:24
И это я

Andrey
04.10.2016
10:26:24
не факт

Dmitry
04.10.2016
10:26:43
вот да

Andrey
04.10.2016
10:26:52
у меня так например во всех группах пишет вне зависимости от активности

Zon
04.10.2016
12:15:12
Скажите, а как вы энфорсите версионирование манифестов?

Andrey
04.10.2016
13:04:41
чо?

Google

Zon
04.10.2016
13:09:19
Чтоб руками не пихали манифесты в кластер, а как-то упорядоченно

Andrey
04.10.2016
13:09:43
10-X.yaml, 20-Y.yaml ...
и потом kubectl create -f dirname

Zon
04.10.2016
13:10:07
Это понятно. Вопрос про гит и тому подобное
Чтоб история была

Andrey
04.10.2016
13:10:17
ну гит :)
а, все понял :)
не, я один фигачу поэтому просто после изменений комиччу
это если сервера... если проект деплоится через CI то она применяет деплоймент и коммитит изменения (версию образа изменившегося обновляет в файле)

Artur
04.10.2016
13:13:15
кто-нибудь с kubeadm уже настраивал k8s?
в вагранте какая-то боль дождаться kubeadm init
<master/apiclient> created API client, waiting for the control plane to become ready
и всё, уже 2 раза покурить сходил

Vadim
04.10.2016
14:03:57
я на lxc пробовал запускать - тоже на этом же останавлиается. но если посмотреть syslog, там куча ошибок
не будет продолжения