
Vladimir
12.09.2018
07:41:21
беда (кродёться)

Let Eat
12.09.2018
07:46:16

S
12.09.2018
08:09:19
https://docs.google.com/spreadsheets/d/16bxRgpO1H_Bn-5xVZ1WrR_I-0A-GOI6egmhvqqLMOmg/edit#gid=1612037324 Кому интересно.

Andor
12.09.2018
08:10:36
я б оттранспонировал

Google

Никита
12.09.2018
08:14:31

Айбелив
12.09.2018
08:15:39

Andrey
12.09.2018
08:16:57

Nik
12.09.2018
08:17:41

Никита
12.09.2018
08:18:45
Есть ли такая проблема
Судя по обсуждению, решения для публикации диапазона портов так и нет, воркараунд - описывать их по-одному. Это плохо, так как породит туеву хучу iptables-правил, но, в целом, приемлемо, и будет работать при не очень высоком пакетрейте.
В обсуждении упоминается юзерспейсный кубпрокси, который легаси, и который, судя по всем, большое число описанных портов могло серьёзно поаффектить.
Олсо, а что за юзкейс?

Anton
12.09.2018
08:18:51
Добрый день! Подскажите пожалуйста
export KUBECONFIG=./kube/kube.conf
helm install stable/postgresql
helm подхватит KUBECONFIG и будет устанавливать postgresql в кубернетесе, который указан в KUBECONFIG?

Banschikov
12.09.2018
08:20:55
Судя по обсуждению, решения для публикации диапазона портов так и нет, воркараунд - описывать их по-одному. Это плохо, так как породит туеву хучу iptables-правил, но, в целом, приемлемо, и будет работать при не очень высоком пакетрейте.
В обсуждении упоминается юзерспейсный кубпрокси, который легаси, и который, судя по всем, большое число описанных портов могло серьёзно поаффектить.
Олсо, а что за юзкейс?
Да я так и понял. Там сервис есть, который использует много портов. Сильно не вдавался в это.

bebebe
12.09.2018
08:21:15

S
12.09.2018
08:22:14

Айбелив
12.09.2018
08:24:44

Никита
12.09.2018
08:31:21

Banschikov
12.09.2018
08:49:50

Google

Anton
12.09.2018
08:52:26

Roman
12.09.2018
09:09:13
Всем привет!
Подскажите пожалуйста как можно посмотреть из-за чего не создается контейнер?
NAME READY STATUS RESTARTS AGE
pod/db-5877dd4f57-6dwc4 1/1 Running 0 47m
pod/nc-767fc48868-4mc4q 1/1 Running 0 47m
pod/proxy 0/1 ContainerCreating 0 47m
При попытке посмотреть логи:
kube@test-kubernetes-01:~/nc-deployment$ kubectl log proxy
log is DEPRECATED and will be removed in a future version. Use logs instead.
Error from server (BadRequest): container "nc-proxy" in pod "proxy" is waiting to start: ContainerCreating

Vadim
12.09.2018
09:09:40

Andor
12.09.2018
09:09:54
describe ещё может помочь

Roman
12.09.2018
09:10:27
благодарю, буду копать
Отлично, проблему нашел. выполняю деплой с мастера, соответственно все конфиги на нем, кубик ругается что на одной из нод не может смонтировать волюм из-за отсувствия файла
это что получается на каждую ноду еще файло для деплоя нужно раскопировать?

Andor
12.09.2018
09:13:56
вероятно ты хочешь ConfigMap

Roman
12.09.2018
09:14:18
именно, для энжинкса
спасибо за наводку!

Banschikov
12.09.2018
10:49:46
Товарищи, подскажите, мне этих прав хватит запускать, удалять и просматривать кронджобы?
kind: Role
apiVersion: rbac.authorization.k8s.io/v1beta1
metadata:
name: kube-cron-jobs-role
namespace: develop
rules:
- apiGroups: ["batch"]
resources: ["jobs"]
verbs: ["get", "list", "watch", "create", "update", "patch", "delete"]

bebebe
12.09.2018
10:50:17

Banschikov
12.09.2018
10:50:38

Tores
12.09.2018
11:39:38
Друзья, опять я со своим ceph. Поднял кластер цефа, потом заменил образ контроллер менеджера (на с поддержкой RBD), затем создал сторадж класс и PVC - все ок PV создался автоматом. но!!! он не хочет коннектиться к поду.
Unable to mount volumes for pod "nginx-swhdj_default(aec92db6-b67f-11e8-a47c-001a4a1900b7)": timeout expired waiting for volumes to attach or mount for pod

Dmitry
12.09.2018
11:41:23
@Zhibul_Siarhei А глянь логи controller-manager и kubelet на который заасайнился под с этим volume


Tores
12.09.2018
11:46:25
controller-manager :
rbd.go:326] successfully created rbd image "kubernetes-dynamic-pvc-4599363a-b67f-11e8-b29d-001a4a1900b7"
type: 'Normal' reason: 'SuccessfulCreate' Created pod: nginx-9lkqc
kubelet на воркере
reconciler.go:207] operationExecutor.VerifyControllerAttachedVolume started for volume "pvc-45932f3d-b67f-11e8-a47c-001a4a1900b7"
nestedpendingoperations.go:267] Operation for "\"kubernetes.io/rbd/kube:kubernetes-dynamic-pvc-4599363a-b67f-11e8-b29d-001a4a1900b7\"" failed. No retries permitted until 2018-09-12 14:45:53.023064853 +0300 +03 m=+87427.356766566
(durationBeforeRetry 2m2s). Error: "Volume not attached according to node status for volume \"pvc-45932f3d-b67f-11e8-a47c-001a4a1900b7\" (UniqueName: \"kubernetes.io/rbd/kube:kubernetes-dynamic-pvc-4599363a-b67f-11e8-b29d-001a4a1900b7\") pod \"nginx-9lkqc\" (UID: \"360eb829-b680-11e8-a47c-001a4a1900b7\") "
Sep 12 14:43:57 ha-worker02 kubelet[11085]: E0912 14:43:57.412420 11085 kubelet.go:1640] Unable to mount volumes for pod "nginx-9lkqc_default(360eb829-b680-11e8-a47c-001a4a1900b7)": timeout expired waiting for volumes to attach or mount for pod "default"/"nginx-9lkqc". list of unmounted volumes=[mypvc]. list of unattached volumes=[mypvc default-token-sbqsg]; skipping pod
Sep 12 14:43:57 ha-worker02 kubelet[11085]: E0912 14:43:57.412457 11085 pod_workers.go:186] Error syncing pod 360eb829-b680-11e8-a47c-001a4a1900b7 ("nginx-9lkqc_default(360eb829-b680-11e8-a47c-001a4a1900b7)"), skipping: timeout expired waiting for volumes to attach or mount for pod "default"/"nginx-9lkqc". list of unmounted volumes=[mypvc]. list of unattached volumes=[mypvc default-token-sbqsg]
на всех машинах modprobe rbd, install ceph-common все как в мурзилке
ось центос 7.5 везде


Grigory
12.09.2018
12:57:02
слушайте, у меня тут затык такой, может я чего-то не понимаю или разучился гуглить(
вот у меня скажем есть БД из 3 реплик, по православному, в виде StatefulSet, каждая реплика на отдельной ноде в разных AZ. К примеру, db-0, db-1, db-2 и соотв в зонах zone-a, zone-b, zone-c. И вот я убиваю ноду в зоне b, потому что БД из двух нод должна работать тоже. Но у StatefulSet есть такое поведение как
Ordered Pod Creation:
For a StatefulSet with N replicas, when Pods are being deployed, they are created sequentially, in order from {0..N-1}. Notice that the web-1 Pod is not launched until the web-0 Pod is Running and Ready
И в моем случае db-1 висит в Pending статусе естественно (потому что ноды нет в этом AZ) и из-за этого не запускается db-2, и никогда не запустится. Хотя если бы запустилась, кластер бы работал.
Никто с этим не сталкивался и не знает как обойти это?
(Не надо только говорить что k8s не место для БД :) это не моя прихоть)
точно, разучился:
https://kubernetes.io/docs/concepts/workloads/controllers/statefulset/#pod-management-policies
спасибо!

Google

Anton
12.09.2018
13:05:39
погоди, а почему db-1 не running после убийства db-0?

Grigory
12.09.2018
13:06:25
я убил db-1, которая в зоне b :)
ну в любом случае ответ уже нашел)

bebebe
12.09.2018
14:51:19
коллеги, кто-нибудь делает helm CI через chartmuseum?
https://github.com/helm/chartmuseum

Igor
12.09.2018
14:54:04
Мы

bebebe
12.09.2018
14:55:01
Мы
испытываете какие-нибудь боли?

Igor
12.09.2018
14:55:09
Да
Индекс на лету создаёт
Если много файлов то отваливается по тайм-ауту

bebebe
12.09.2018
14:55:55

Igor
12.09.2018
14:55:58
Ну мы его тоже в к8s запускали
Потом починили эту проблему
Вроде ок
А вообще он очень быстро развивается

bebebe
12.09.2018
14:56:29
а PVC где в самом k8s? или на внешнем s3,google bucket,etc?

Igor
12.09.2018
14:56:41
S3 bucket
Вообщем я давно не смотрел что они там нового навыкатывали
Если че могу познакомить с мантайнером, для быстрого фидьека

bebebe
12.09.2018
14:58:06

Igor
12.09.2018
14:58:44
Про индекс имел в виду при старте

Google

Igor
12.09.2018
14:58:51
Когда работает все ок

Nik
12.09.2018
16:33:50

Andrey
12.09.2018
16:40:31
меняй ресурс через аннотации, тебе ж написали

Nik
12.09.2018
17:04:24

Andrey
12.09.2018
17:04:44
ресурса, в котором у тебя под
у тебя под не рестартует, потому что ресурс не поменялся
если ты в него запихаешь аннотацию, которая зависит от переменной, то определение ресурса будет меняться

Nik
12.09.2018
17:07:17
зависит
не?

Andrey
12.09.2018
17:08:42
> ресурса, в котором у тебя под

Nik
12.09.2018
17:09:39

Andrey
12.09.2018
17:09:48
да
в ссылке, которую тебе дали, в качестве примера Deployment

Nik
12.09.2018
17:10:28
эмм. А то что я складываю конфиг в configMap не есть верно?

Andrey
12.09.2018
17:10:46
верно, просто это не всё
у тебя configMap меняется, а поды не рестартуют
поэтому тебе надо сделать явную зависимость в ресурсе с подами, чтоб они рестартовали

Nik
12.09.2018
17:11:41
просто хостую зависмость. понял
но я не понял, как при апдейте чарта обновить values?

Google

Andrey
12.09.2018
17:12:26
--set param=value
если меняешь один параметр, а остальные должны остаться неизменными, делай --reuse-values --set param=value

Nik
12.09.2018
17:22:10
хотя че спрашивать, ща попробую

Andrey
12.09.2018
17:22:28
да, речь именно про helm upgrade

Nik
12.09.2018
17:23:44

Andrey
12.09.2018
17:24:44
да

Nik
12.09.2018
17:25:17
--set common/values.yaml
Error: failed parsing --set data: key map "common/values" has no value

Andrey
12.09.2018
17:25:25
$ helm upgrade -h | grep '\--values'
To override values in a chart, use either the '--values' flag and pass in a file
You can specify the '--values'/'-f' flag multiple times. The priority will be given to the
-f, --values valueFiles specify values in a YAML file or a URL(can specify multiple) (default [])

Nik
12.09.2018
17:25:55

Andrey
12.09.2018
17:26:00
--set для передачи через аргумент

Nik
12.09.2018
17:26:00
он говорит незля такие ключи
а теперь прошло
и рестартует поды

Andrey
12.09.2018
17:26:26
ты меня обманываешь, не может он такое говорить :)

Nik
12.09.2018
17:26:34
б**
я себя обманываю
helm upgrade --install