
Ivan
05.10.2016
13:38:15
но тогда affinity для всех подов придётся вбивать

yolkov
05.10.2016
13:38:44
как раз это писал)

kay
05.10.2016
15:17:41
что-то мой прометей тормозит на 100 подах
загибается

Google

Михаил
05.10.2016
15:49:00
а есть кто с openshift работал? хотя я думаю это часть k8s. нужно билдить кастомный веб аппликейшн джавы в кастомном же контейнере.
я че-то не понимаю как.
из темплейтов то wildfly отлично билдиться

Andrey
06.10.2016
05:32:50
$ kubectl --namespace=fulldive-staging create configmap fulldive-api-doc --from-file=doc
error: api_data.js is not a valid key name for a configMap
ура, это поведение в 1.4 починили, теперь статику можно хранить

kay
06.10.2016
05:42:13
просто раньше они для обычных имен применяли политику DNS RFC

Alexander
06.10.2016
05:45:49
а сейчас?

Andrey
06.10.2016
05:46:27
а сейчас kubectl обновили по ишьюсе - это не серверное ограничение было а валидатор в клиентской части
и теперь я могу статику пихать в конфигмапы не придумывая мозголомные схемы с внешними хранилищами :) хз правда правильно это или нет, но то что удобнее гораздо это точно
https://github.com/fabric8io/exposecontroller/blob/master/vendor/k8s.io/kubernetes/pkg/kubectl/configmap.go#L204
https://github.com/fabric8io/exposecontroller/blob/8a3314477203bc7736b03499733f3196c81bc95c/vendor/k8s.io/kubernetes/pkg/api/validation/validation.go#L2626

kay
06.10.2016
05:52:38
я просил этот фикс в 1.3 запилить
https://github.com/kubernetes/kubernetes/pull/25458#issuecomment-239452805
не стали
зато вот это запилили https://github.com/kubernetes/kubernetes/pull/29523

Google

Denis
06.10.2016
09:42:20
На TheNewStack начали публиковать цикл материалов о запуске stateful-сервисов в кластере Kubernetes. На данный момент вышло две статьи, рассказывающих о Kubernetes Volumes и о механизме выделения ресурсов для stateful-сервисов.
http://amp.gs/T7wX
http://amp.gs/T7wF

yolkov
06.10.2016
10:16:33
?

Artur
06.10.2016
12:38:25
подскажите, куда в документацию смотреть, я стартую консул как daemonSet, хочу ему сказать -bind=CONTAINER_IP и -retry-join=OTHER_CONSUL_IP, откуда я могу собрать эти IP адреса. Ну и вообще информацию данного рода
в кореос я готовил env файл на каждом хосте с нужной мне инфой

kay
06.10.2016
12:39:55
configmap. http://kubernetes.io/docs/user-guide/downward-api/#example

Artur
06.10.2016
13:01:13
спасибо!
а кто должен обеспечивать сеть, которая по дефолту 100.64.0.0, у меня ip эти абсолютно нигде не представлены и ничего не пингуется. Поды в daemonSet между собой не пингуются
засетапил weave

kay
06.10.2016
14:22:59
пинговаться они вроде не должны
это виртуальный IP
которые роутятся исключительно правилами iptables

Artur
06.10.2016
14:23:22
а, это ок

kay
06.10.2016
14:23:24
этим занимается kube-proxy
для проверки сети просто запусти два контейнера docker
на разный ходах
типа busybox
и попробуй их внутренние IP пропинговать
один из другого и наоборот

Artur
06.10.2016
14:24:14
вот внутренние IP не пингуются (правда у меня даемонсет)
или просто контейнеры запустить?

Google

kay
06.10.2016
14:25:01
сделай что я посоветовал
а дальше посмотрим
контейнеры без kubernetes запускай
чистый odcker

Artur
06.10.2016
14:25:33
а, сек
на разных нодах? Им 172.17.0.2 обоим выдал, ну и iptables там будет работать дефолтный докера
или я что-то не понимаю)

kay
06.10.2016
14:29:07
на разных нодах.
значит дело в том, что скорее всего dcoker ни сллыхзом ни духом о weave
не знаю как weave, но flannel сначала пилит сеть, затем создает конфигурационный файл

Artur
06.10.2016
14:30:05
вполне возможно

kay
06.10.2016
14:30:07
и этот конфигурационный файл используется как ENV в демоне докера

Artur
06.10.2016
14:30:10
я просто следовал http://kubernetes.io/docs/getting-started-guides/kubeadm/

kay
06.10.2016
14:30:33
тебе нужно остановить докер, выпилить все IP адреса с docker0 моста
затем проверить ENV file, прописан ли он в конфиге докера
если прописан - запустить docker и посмотреть какой IP присвоился docker0

Artur
06.10.2016
14:49:42
докер демон действительно ничего про weave не знает, и судя по доке инсталяции - в принципе не должен. Я вижу тут в доке есть https://github.com/microservices-demo/microservices-demo/tree/master/deploy/kubernetes/manifests ямлы с NetworkPolicy
вот в их примере всё работает)
кроме CLUSTER_IP
который вот не понятно как должен работать)

Google

Artur
06.10.2016
15:08:10
я понял, это всё резолвится только iptables

Andrey
06.10.2016
17:17:49
а почему может удаление зависать, и как можно отдебажить? $ kubectl delete deployment ubuntu --now
а, нашел ишью: https://github.com/kubernetes/kubernetes/issues/8598

Zon
06.10.2016
17:38:55
Кто-то на gke живёт? Как вам без петсетов?

kay
06.10.2016
17:41:18
петсеты еще недоделаны
слишком уж специализированные возможности
были бы темплейты
https://github.com/kubernetes/kubernetes/issues/30755

Fike
06.10.2016
17:43:08

Zon
06.10.2016
17:43:47

Admin
ERROR: S client not available

Zon
06.10.2016
17:47:23
https://github.com/kubernetes/kubernetes/issues/28718 я буду за этим следить)

Fike
06.10.2016
17:48:02
по-моему я на нормальном кластере разворачивал и сворачивал
> Today, September 1, I got an email from Google Cloud Platform announcing that PetSet was "accidentally enabled" and will be disabled on September 30.
все, вопрос снят

Andrey
06.10.2016
18:51:05
оффтоп: кто-то просил скрипт которым выкладываю билд в кубик но я забыл кто, сорян - тогда тут скину https://gist.github.com/anonymous/abd1324a7c16e2bac0ae3b27ea766703

Zon
06.10.2016
18:51:33

Andrey
06.10.2016
18:51:53
ну как "стейтфул"... )

Zon
06.10.2016
18:52:16
Ну базы :)

Andrey
06.10.2016
18:52:44
репликасеты в основном

Google

kay
06.10.2016
18:58:39
кстати а поясните в чем разница между rc и rs?

Andrey
06.10.2016
19:00:11
In short, if you start a rolling update and close your laptop, your replicas have some mix of intermediate image versions. If you create a deployement and close your laptop, the deployment either gets POSTed successfully to apiserver, in which case it works server side, or it doesn't, in which case all your replicas are still on the old version

kay
06.10.2016
19:02:03
стоп. так rs == deplyment???

Andrey
06.10.2016
19:02:37
ну деплоймент репликасеты генерит

kay
06.10.2016
19:02:59
а
ну да

yolkov
06.10.2016
19:48:51
rc вроде уже особо не нужны как я понимаю
а как у всех поднят kube-proxy, как статик под? почему его не поднимают как daemonset?

kay
07.10.2016
07:36:14
кто какой storage driver для docker рекомендует использовать?

Тимур
07.10.2016
07:40:29
direct-lvm

Sergey
07.10.2016
07:41:09
overlay
и всё более-менее полезное, естественно, в volume.

kay
07.10.2016
07:41:26
или всётаки overlay2?

Тимур
07.10.2016
07:41:46
ну для rhel рекоммендуют все-таки direct-lvm

Sergey
07.10.2016
07:41:52
# docker info 2>&1 | grep Stora
Storage Driver: overlay

kay
07.10.2016
07:42:10
а в чем собсвтенно отличие overlay от overlay2?

Sergey
07.10.2016
07:42:34
Since version 1.12, Docker also provides overlay2 storage driver which is much more efficient than overlay in terms of inode utilization. The overlay2 driver is only compatible with Linux kernel 4.0 and later.

Fike
07.10.2016
07:42:47
по-моему прямо здесь был идентичный топик, попробуй поиском выцепить

kay
07.10.2016
07:44:27
спасибо

Fike
07.10.2016
07:45:02
т.е. storage driver, overlay - там все это @pipopolam с кем-то обсуждал, есои память не подводит

Тимур
07.10.2016
07:46:28
угу
куда он пропал кстати

Artur
07.10.2016
08:37:02