@kubernetes_ru

Страница 744 из 958
Gleb
08.08.2018
16:36:09
https://coreos.com/fleet/docs/latest/affinity.html

Andrey
08.08.2018
16:42:37
Задача выглядит очень просто, я пытаюсь развернуть в рамках одного деплоймента приложение, которое будет работать с данными на диске. Соответственно на серверах данные разные. И обращаясь к одному из серверов, я хочу обращаться к коду, который крутится на нем, а не на соседе. Соответственно sessionaffinity это не то

Vadim
08.08.2018
16:43:31
разные данные и разный код в рамках одного сервиса?

Google
Andor
08.08.2018
16:43:31
так если у тебя приложения _разные_, то при чём тут kind: Service?

Andrey
08.08.2018
16:44:51
Нет приложение одинаковые, данные с которыми они работают разные

Данные не в поде

Oleg
08.08.2018
16:45:55
тогда это получается разные экземпляры одного приложения уже

если дело в редисе - может нужно с него начать и обеспечить приложению единую базу?

Andrey
08.08.2018
16:50:12
Ок, т.е. нужно несколько сервисов настраивать?

Потому как делать данные на разных серверах задача не стоит

Делать одинаковыми*

[Anonymous]
08.08.2018
18:00:51
Oткpыли дocтyп в пpивaтный VIP кaнaл пo cигнaлaм, пoceтить кaнaл

Twelfth
08.08.2018
18:16:36
Здравствуйте. Почему-то не удаётся развернуть кластер stolon в Kubernetes(кластер состоит из одной ноды, чисто для теста). Всё делаю по официальной инструкции: https://github.com/sorintlab/stolon/tree/master/examples/kubernetes Ошибка возникает на этапе инициализации кластера packet@dziminv:~/stolon$ kubectl run -i -t stolonctl --image=sorintlab/stolon:master-pg9.6 --restart=Never --rm -- /usr/local/bin/stolonctl --cluster-name=kube-stolon --store-backend=kubernetes --kube-resource-kind=configmap init If you don't see a command prompt, try pressing enter. Error attaching, falling back to logs: unable to upgrade connection: container stolonctl not found in pod stolonctl_default cannot get cluster data: failed to get latest version of configmap: configmaps "stolon-cluster-kube-stolon" is forbidden: User "system:serviceaccount:default:default" cannot get configmaps in the namespace "default" pod "stolonctl" deleted pod default/stolonctl terminated (Error)

Google
Andor
08.08.2018
18:18:45
с виду прав не хватает

Twelfth
08.08.2018
18:19:04
Andor
08.08.2018
18:19:37
cannot get cluster data: failed to get latest version of configmap: configmaps "stolon-cluster-kube-stolon" is forbidden: User "system:serviceaccount:default:default" cannot get configmaps in the namespace "default"

Vitaliy
08.08.2018
18:20:21
Для того чтобы это имело вес не нужно privileged или достаточно от рута запускать?
priveleged и дополнительные capabilties не нужны для уменьшения приоритета. Даже рут не нужен

Anton
08.08.2018
18:21:15
Норм, спасибо

Andor
08.08.2018
18:22:46
http://lmgtfy.com/?q=cannot+get+cluster+data%3A+failed+to+get+latest+version+of+configmap%3A+configmaps+%22stolon-cluster-kube-stolon%22+is+forbidden%3A+User+%22system%3Aserviceaccount%3Adefault%3Adefault%22+cannot+get+configmaps+in+the+namespace+%22default%22

https://github.com/sorintlab/stolon/issues/484

похоже?

Alexey
08.08.2018
18:46:15
добрый вечер, а кто-то разбирался с knative? я почитал и не совсем понял что это такое? что-то типа helm?

Twelfth
08.08.2018
19:00:00
Как можно удалить stateful set?

Anton
08.08.2018
19:08:24
Как можно удалить stateful set?
https://kubernetes.io/docs/tasks/run-application/force-delete-stateful-set-pod/

Twelfth
08.08.2018
19:08:45
Max
08.08.2018
19:09:01
а какой то INGRESS мне нужен обязательно?
если доступ снаружи не нужен - то нет

Twelfth
08.08.2018
20:39:28
Насколько я понимаю, контейнеры на разных нодах одного кластера обьединены в overlay сеть?

Т.е. поды, находящиеся на различных нодах но в одном кластере могут сообщаться друг с другом по сети?

Alexey
08.08.2018
20:46:39
Т.е. поды, находящиеся на различных нодах но в одном кластере могут сообщаться друг с другом по сети?
да + есть DNS <serviceName>.<namespaceName>.svc.cluster.local понятно, что "как настроете", но такое обычно есть

Banschikov
09.08.2018
04:05:31
Приветсвую! Кто нибуть сталкивался с данным явлением? К примеру создаю под в k8s: kubectl run -i -t hello-world --restart=Never --rm --image=debian -- bash Проходит секунд 60 и меня выкидывает из шелла с ошибкой: error: watch closed before Until timeout Как то можно увеличить время таймаута?

Google
Andrey
09.08.2018
04:40:00
в чарте helm можно делать поддиректории в templates?

Valentin
09.08.2018
05:03:08
можно

Sergei
09.08.2018
05:06:04
Хелму вообще на директории похер

Я вот долгое время не знал что шаблоны можно делать не только в _helpers.tpl , а можно любые файлы с подчеркивания назвать :-)

Banschikov
09.08.2018
05:54:48
Приветсвую! Подскажите как лучше реализовать. Есть сервис, который запускает Job в k8s по средствам библиотеки kubernetes на python. Естевственно этому сервису нужны креденшелы для от кластера, для того что бы он мог запускать джобы по средствам этой либы. Немного не понимаю как правильно можно прокинуть креденшилы k8s в этот сервис. Сам сервис запушен в том же кластере.

Andor
09.08.2018
05:56:34
а он не умеет читать ~/.kube/config?

Banschikov
09.08.2018
05:57:42
а он не умеет читать ~/.kube/config?
Да умеет. Я думал прокидывать секретами креденшелы, но помоему это совсем не комильфо

Andor
09.08.2018
05:58:17
ну ты можешь специально для него сделать креденшлы только с нужными правами

Sergei
09.08.2018
06:01:13
Делай сервис юзера и запускай джоб указывая этого сервис юзера. Тогда в контейнере будет токен с которым можно ходить в апи.

Twelfth
09.08.2018
06:31:16
Чем может быть вызвано предупреждение Warning FailedScheduling 3m (x3754 over 10h) default-scheduler pod has unbound PersistentVolumeClaims ?

Banschikov
09.08.2018
06:31:51
А кто нибуть юзает эту либу пайтоновскую kubernetes? Она может по токену авториоватся в kubeapi?

Twelfth
09.08.2018
06:33:11
При этом монтирование вольюма происходит нормально?
А где это можно увидеть? В логах пода нет ничего.

volumeClaimTemplates: - metadata: name: data annotations: volume.alpha.kubernetes.io/storage-class: standard spec: accessModes: [ "ReadWriteOnce" ] resources: requests: storage: 512Mi

Banschikov
09.08.2018
06:34:41
А где это можно увидеть? В логах пода нет ничего.
Вообще под обычно в таком случае висит в состоянии pendig

Twelfth
09.08.2018
06:34:45
volumeMounts: - mountPath: /stolon-data name: data - mountPath: /etc/secrets/stolon name: stolon volumes: - name: stolon secret: secretName: stolon

Banschikov
09.08.2018
06:36:29
Да, висит в pending
а сам pvc сущевствует в системе?

Google
Twelfth
09.08.2018
06:37:48
Я думал, что он моздается автоматически при разворачивании сервиса

Banschikov
09.08.2018
06:38:42
Нет
Посмотри PV остался?

kubectl get pv

Я думал, что он моздается автоматически при разворачивании сервиса
Если PV остался, то попробуй его удалить и вроде как все норм будет

Twelfth
09.08.2018
06:46:25
Banschikov
09.08.2018
06:47:09
Остался только pvc, я его удалил.
Ксттаь я подозреваю что ты pvc руками удалял?

Twelfth
09.08.2018
06:47:20
Через kubectl delete pvc

Banschikov
09.08.2018
06:48:24
Остался только pvc, я его удалил.
Руками не нужно удалять. Попробуй вообщем сейчас удалить все pvc связанные с этим statefulset удалить и заного задеплоить этот сервис

Banschikov
09.08.2018
06:50:42
А у меня других pvc и нет
Вообщем уадлите statefulset и заного задеплойте его

Twelfth
09.08.2018
06:52:54
И pvc тоже в состоянии pending

Banschikov
09.08.2018
06:53:33
Значит что то не правильно. kubectl get pvc —all namespace

И pvc тоже в состоянии pending
kubectl get pvc --all-namespaces

Twelfth
09.08.2018
06:55:48
kubectl get pvc --all-namespaces
packet@dziminv:~/stolon$ kubectl get pvc --all-namespaces NAMESPACE NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE default data-stolon-keeper-0 Pending 2m

Banschikov
09.08.2018
06:57:06
kubectl describe pvc data-stolon-keeper-0

Twelfth
09.08.2018
06:58:52
kubectl describe pvc data-stolon-keeper-0
FailedBinding 12s (x25 over 5m) persistentvolume-controller no persistent volumes available for this claim and no storage class is set

Banschikov
09.08.2018
06:59:43
FailedBinding 12s (x25 over 5m) persistentvolume-controller no persistent volumes available for this claim and no storage class is set
На какой платформе развертываешь? На гугле, эйжуре или амазоне?

Google
Banschikov
09.08.2018
07:00:16
kubectl get storageclass

Vadim
09.08.2018
07:01:14
без cloudprovider'а нужен провиженер, например https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume

Banschikov
09.08.2018
07:01:29
На vps
А откуда у тебя персистентные вольюмы берутся?

На vps
А до этого вообще работало? Мне просто показалось что до этого у тебя создался вольюм)

Andor
09.08.2018
07:03:52
/report

Alexey
09.08.2018
07:04:26
join - report - spam - leave

Stanislav
09.08.2018
07:19:03
Господа, кто-нибудь в кубернетовском nginx-ingress аутентификацию по сертификатам делал? А то либо я чего-то не понимаю, либо в примере https://github.com/kubernetes/ingress-nginx/tree/master/docs/examples/auth/client-certs какая-то хрень. Ну то есть, добавляю свой CA.txt в секрет в соответствии с п.2, правлю Ingress для сервиса и получаю в конфиге nginx комментарий: # error obtaining certificate: local SSL certificate ... was not found и return 403 вместо контента

Страница 744 из 958