@kubernetes_ru

Страница 847 из 958
Alexander
26.09.2018
07:32:04
Он работает на этапе vmdk placement

Konstantin
26.09.2018
07:32:06
Виртуалки переезжают на соседние хосты быстро без downtime
Вот именно. Виртуалки переедут, но pv не поддерживают перемещение между datastore. Я именно поэтому и обратился

Alexander
26.09.2018
07:33:01
Я уточню у нашей cna команды какие есть варианты

И что другие заказчики делают

Google
Konstantin
26.09.2018
07:33:23
Alik
26.09.2018
08:23:47
Привет! Кто-нибудь использует git-secret для хранения куберовских secret-ов/приватных конфигов в гите?

Pavel
26.09.2018
09:07:23
Привет! Кто-нибудь использует git-secret для хранения куберовских secret-ов/приватных конфигов в гите?
Если нужно шифровать yaml или json, то попробуй sops. Он поддерживает gpg, AWS kms и шифрует не весь файл, а только значения. Под капотом helm secret тоже sops.

Andrey
26.09.2018
09:31:42
Всем привет, а под кубернетис ноду нужно swap выделять или кубер его не использует?

Anton
26.09.2018
09:34:24
Кубер не юзает свап

Alexey
26.09.2018
09:34:45
в оф.доке даже написано что его следует отключать

resource limiting может криво работать

Andrey
26.09.2018
09:36:05
а для самой ОС на которой он будет развернут?

Alexey
26.09.2018
09:38:24
без разницы, везде нужно отключать

Stanislav
26.09.2018
09:38:58
Где он вообще нынче нужен, кроме ноутов, где он может для сброса памяти на диск использоваться?

Alexey
26.09.2018
09:40:08
на хостах с базами где много памяти, т.к. иногда лучше затормозиться в свопе, чем упасть по out-of-memory

и то, с нынешними ssd/nvme тормозов и не заметишь особо

Евгений
26.09.2018
09:52:14
Google
Евгений
26.09.2018
09:52:43
особенно если ещё gc по свопу пойдет

DASTAN
26.09.2018
10:08:45
всем привет, создаю хелм чарт, и хочу затянуть образ с приватного реестра.

DASTAN
26.09.2018
10:09:03
создал helpers tpl дефинишн

там ошибка приходит

denied: access forbidden

в деплойменте: imagePullSecrets: - name: {{ .Values.imageCredentials.name }}

ну и соответственно в values.yaml создаю imageCredentials: name: registry: username: password:

подскажите?

Vladimir
26.09.2018
10:11:10
авторизоваться надо бы

Alexey
26.09.2018
10:13:06
как раз таки лучше быстро рестартнуться, чем долго тупить
это справделиво для всякого stateless говна

DASTAN
26.09.2018
10:13:49
авторизоваться надо бы
у меня получилось вроде, добавил secret.yaml в чарт

название указал хардкодом в деплойменте

Alexey
26.09.2018
10:14:37
если oomkiller прийдет к базе, особенно если у той буферный пул >64GB то придется рекавериться, а это займет какое-то время , так что быстро рестартануться не получится

чем больше пул, тем дольше рекавери

Евгений
26.09.2018
10:18:46
это справделиво для всякого stateless говна
а ещё для распреденных систем

Banschikov
26.09.2018
10:20:51
Всем привет! Подскажите, как правильно работает Deployment? У меня в тестовом окружении все deployment имеею одну реплику. Я думал что одна реплика = Replicaset = 1. Но в итоге вижу в каждом Deployment несколько Replicaset, которые "мертые" и одна рабочая. Как это работает?

Dmitry
26.09.2018
10:24:23
У деплоймента есть .spec.revisionHistoryLimit - сколько старых RS он хранит.

DASTAN
26.09.2018
10:28:42
правильно ли разделять бэк и фронт на два разные чарты

Google
DASTAN
26.09.2018
10:28:43
?

может еще бд и тд

Banschikov
26.09.2018
10:30:52
У деплоймента есть .spec.revisionHistoryLimit - сколько старых RS он хранит.
Все спасибо! Увидел. по умолчанию 10 штук хранит

Anton
26.09.2018
10:36:52
товарищи можно как то у пода увеличить shared mem?

хак с моунтом /dev/shm -> emptyDir : Memory не канает

Алексей
26.09.2018
10:47:21
Доброго времени суток, кто знает куда обращаться с вопросами по опеншифту? может чатик есть?

Banschikov
26.09.2018
10:48:34
У деплоймента есть .spec.revisionHistoryLimit - сколько старых RS он хранит.
А чем черевато если я сделаю кол-во 0 ? kubectl rollout не будет работать?

Dmitry
26.09.2018
10:48:57
Скорее всего да, но не знаю.

Banschikov
26.09.2018
10:55:57
Скорее всего да, но не знаю.
А не прояснишь еще с одной непоняткой? Заметил при обновлении Deployment, создается 2 пода, потом первый под который перешел в состояние Running остается жить, а второй впадает в состояние Teminating

Алексей
26.09.2018
10:59:13
спасибо

Тимур
26.09.2018
11:05:00
Господа, сталкнулся с проблемой в kubernetes. После ребута кластера не взлетают kube-dns, flannel и kube-proxy поды с ошибками: "nameserver limits were exceeded some nameservers have been omitted the applied nameserver", может кто сталкивался?

ал
26.09.2018
11:41:40
юзай nginx он лучше работает с ssl
привет, можно немного подробностей тут? в чем заключается "лучше"?

Михаил
26.09.2018
11:43:15
привет, можно немного подробностей тут? в чем заключается "лучше"?
Из мыла рассказывали, что тестировали. И отказались от траефика

Alexey
26.09.2018
11:47:25
есть ссылка на рассказ?
последний митап по куберу

https://corp.mail.ru/ru/press/events/496/

Google
ал
26.09.2018
11:49:11
спасибо

Anton
26.09.2018
13:23:47
стоит перезжать с calico:2.6 на 3.1 граблей нет?

Anton
26.09.2018
13:33:26
стоит перезжать с calico:2.6 на 3.1 граблей нет?
деплоил с нуля, изменений не заметил даж

Andrey
26.09.2018
13:33:47
стоит перезжать с calico:2.6 на 3.1 граблей нет?
я переехал на 3.2.2 день назад, граблей не вижу

с 2.6.8

Anton
26.09.2018
13:34:27
А улучшения?)

Anton
26.09.2018
13:49:12
А улучшения?)
за этим в changelog =)

Oleksandr?
26.09.2018
15:14:34
Привет, кто сталкивался с [init] This might take a minute or longer if the control plane images have to be pulled. ^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B^[[B Unfortunately, an error has occurred: timed out waiting for the condition This error is likely caused by: - The kubelet is not running - The kubelet is unhealthy due to a misconfiguration of the node in some way (required cgroups disabled) - Either there is no internet connection, or imagePullPolicy is set to "Never", so the kubelet cannot pull or find the following control plane images: - k8s.gcr.io/kube-apiserver-amd64:v1.10.8 - k8s.gcr.io/kube-controller-manager-amd64:v1.10.8 - k8s.gcr.io/kube-scheduler-amd64:v1.10.8 - k8s.gcr.io/etcd-amd64:3.1.12 (only if no external etcd endpoints are configured) If you are on a systemd-powered system, you can try to troubleshoot the error with the following commands: - 'systemctl status kubelet' - 'journalctl -xeu kubelet' couldn't initialize a Kubernetes cluster

хотя он вроде как запущен systemctl status kubelet ● kubelet.service - kubelet: The Kubernetes Node Agent Loaded: loaded (/lib/systemd/system/kubelet.service; enabled; vendor preset: enabled) Drop-In: /etc/systemd/system/kubelet.service.d └─10-kubeadm.conf Active: active (running) since Wed 2018-09-26 17:31:40 EEST; 30min ago Docs: http://kubernetes.io/docs/ Main PID: 14349 (kubelet) Tasks: 56 (limit: 4915) CGroup: /system.slice/kubelet.service └─14349 /usr/bin/kubelet --cluster-domain=cluster.local --authorization-mode=Webhook --client-ca-file=/var/lib/localkube/certs/

Artem
26.09.2018
15:19:18
попробуй docker pull на эти образы сделать на этом хосте

Oleksandr?
26.09.2018
15:19:30
спасибо

Duke66
26.09.2018
15:28:16
Проблема с сетью: из контейнера не достуна сеть, например пинг до 8.8.8.8. tcpdump`ом вижу пакеты он контейнера из сети для подов и на выходе с сервера они превращаються в серый адрес что на eth0 ( белый на не физическом интерфейсе). Может быть есть идеи как исправить такое поведение?

Oleksandr?
26.09.2018
15:33:21
Banschikov
26.09.2018
16:33:09
Товарищи, подскажите, нормальное ли это поведение. Есть PersistentVolumeClaim: kind: PersistentVolumeClaim apiVersion: v1 metadata: name: taskmanager-data annotations: volume.beta.kubernetes.io/storage-class: hdd-retain spec: accessModes: - ReadWriteOnce storageClassName: hdd-retain resources: requests: storage: 5Gi Монтирую его в Deployment: volumes: - name: taskmanager-data persistentVolumeClaim: claimName: taskmanager-data В итоге далее происходит следующас ситуация: Когда при CI Helm обновляет релиз командой helm upgrade test —install —recreate-pods —force, то созадется новый PersistentVolumeClaim и монтируется в под. Это бага хэлма может быть? кто может использует подобные связки и конфигурации?

Maksim
26.09.2018
18:29:11
Товарищи есть годный мануал по Прометею + Ingress Nginx?

Графана законектилась но где-то туплю метрики не летят в промитей

Mikhail
26.09.2018
18:30:53
В таргетах есть что-нибудь?

Прометей в общем случае сам ходит за метриками

Google
Maksim
26.09.2018
18:33:16
Ингрес ставил через Хельм метрики поставил тру

Andor
26.09.2018
18:33:29
прометей-то у тебя настроен?

Maksim
26.09.2018
18:34:16
А Прометей ставил с руки таргеты в конфигурации поставил

Sergey
26.09.2018
18:34:32
Andor
26.09.2018
18:35:31
в прометее кубер не сконфигурен прост

прометей видимо про кубер просто ничего не знает

Stas
26.09.2018
19:27:25
Вопрос на засыпку пытливым истиводам: заменяет ли истио собой датапас kube-proxy? То есть у истио есть возможность реконсилировать эндпоинты сервисов и роутить трафик сразу на них минуя правила айпитейблз хоста как это делают ингресс контроллеры для которых сервис только способ получить список эндпоинтов. В блогпосте окметра это было сделано путем создания хедлес сервисов, значит ли это что по умолчанию истио работает не так и сконфигурить это без хака невозможно? не понимаю зачем нужен балансировщик межсервисный если с истио все что от него нужно есть в самом энвое?

Страница 847 из 958