@kubernetes_ru

Страница 216 из 958
Magistr
24.07.2017
12:23:18
правда кубер постарше

Дмитрий
24.07.2017
13:11:45
Есть проблема при загрузки основных образов из кастомного реестра, который использует Basic Auth через nginx. При этом образ pause загружается без проблем! Врсия 1.7.1 у меня!

Paul
24.07.2017
13:13:25
у меня после ребута хоста гластер поломался
есть ненулевой шанс, что данные потеряны безвовзратно

Magistr
24.07.2017
13:14:06
ну на 2х живух нодах данные живы

Google
Айбелив
24.07.2017
13:17:39
данные целы, а вот хекети умирает и больше провизионинг не работает

Dmitry
24.07.2017
14:51:46
Кстати.. кто обновился до 1.7 и использует встроенный в kubelet cadvisor, вас ждет сюрприз - в :10250/metrics нету больше container_ метрик. Необходимо использовать порт cadvisor'а :4194/metrics

причем раньше мы указывали --cadvisor-port=0 и метрики мержились, сейчас этого нету

поэтому... я вам принес лекарство

https://gist.github.com/dshmelev/95b9dddaa2a9a77af568f10205f2b08e

Alexander
24.07.2017
15:31:29
Ребят, а как с кубами сделать следующее: - в docker-compose.yml у меня были вольюмы типа: - ./templates/nginx/nginx.conf:/etc/nginx/nginx.conf:ro - ./templates/nginx/certs/:/etc/nginx/certs/:ro - ./scripts/nginx-entrypoint.sh:/entrypoint.sh:ro которые при запуске контейнера использовались. Как это правильнее всего конвертировать, есть какие-то best-practice? Не в ConfigMap же это пихать или в общий сторедж.

пока склоняюсь к тому, чтобы иметь namespace-специфичный storage и из него монтировать нужные файлы/конфиги

Dmitry
24.07.2017
15:42:49
ну конфиг точно в configmap

Maksim
24.07.2017
15:43:00
Зависит от того что было

КОнфиг в cm

но есть проблемка nginx.conf маунтился в фаил кубер так не умеет

Dmitry
24.07.2017
15:43:31
секреты я бы положил в секреты до поры до времени.. потом, может, какое-нибудь хранилище прикрутил

Maksim
24.07.2017
15:44:04
Вот эту конфу

Google
Maksim
24.07.2017
15:44:04
- ./templates/nginx/nginx.conf:/etc/nginx/nginx.conf:ro - ./templates/nginx/certs/:/etc/nginx/certs/:ro

напрямую в кубере не воспроизвести

Artem
24.07.2017
15:52:25
И в чем же проблема воспроизвести?

Maksim
24.07.2017
15:53:44
нельзя маунтиить в файл

маунтпонит это дирректория

а тут получается nginx/nginx.conf и следом nginx/certs/

Artem
24.07.2017
15:55:08
А положить серты по другому пути не вариант?

Dmitry
24.07.2017
15:55:13
можно

Вот пример

https://gist.github.com/tuannvm/0fc6e94a3759c91b1abe71c149152f77

Maksim
24.07.2017
15:56:00
версия кубера?

Dmitry
24.07.2017
15:56:23
https://kubernetes.io/docs/concepts/storage/volumes/#using-subpath

Maksim
24.07.2017
15:57:37
у меня такая же конфигурация поражадет папку

Dmitry
24.07.2017
15:58:26
в v1.3.0-alpha.4 появилась фича для докера

Dmitry
24.07.2017
18:44:22
именно так =)

# For Kubernetes 1.7.3 # replacement: /api/v1/nodes/${1}/proxy/metrics/cadvisor

vladget
24.07.2017
20:36:31
Там proxy pass на github.io =) https://github.com/kubernetes/k8s.io/blob/master/k8s.io/configmap-nginx.yaml
таки нет... там 301 c https://kubernetes.github.io -> http://kubernetes.io/ -> https://kubernetes.io/ так шо лаги были имено у них

Fike
24.07.2017
20:41:10
Ну GH при указании cname именно так редиректить и будет

Google
Aleksandr
24.07.2017
21:02:15
wget -S -O /dev/null "https://kubernetes.github.io" —header="Host: kubernetes.io" HTTP request sent, awaiting response... HTTP/1.1 200 OK Server: GitHub.com

vladget
24.07.2017
21:04:55
ну так про обратное говорили, что там proxy_pass на https://kubernetes.github.io с https://kubernetes.io

там бы был редирект луп

Aleksandr
24.07.2017
21:24:49
всё правильно, там в конфиге указано location / { ... proxy_set_header Host kubernetes.io; proxy_pass https://kubernetes.github.io;

Роман
25.07.2017
06:49:45
нельзя маунтиить в файл
volumeMounts: mountPath: /var/www/config/file.yml subPath: file.yml name: php ... volumes: - name: php configmap: name: file-yaml

Версия 1.7

Maksim
25.07.2017
06:50:54
Версия 1.7
Я в 1.5 живу))

Alma Trey
25.07.2017
07:00:35
Crypto tradind - уникальный канал, который научит вас трейдингу на криптовалюте. @Cryptootrading

Роман
25.07.2017
10:32:32
А как работает kube-dns? Приложения каждый раз отправляют запрос на резолв или где-то это кэшируется? Постоянная ошибка, что приложение не может зарезолвить сервис postgres, однако, запущено уже 24 инстанса с kube-dns...

Denis
25.07.2017
10:39:02
А сервис настроен точно?

Роман
25.07.2017
10:43:10
А сервис настроен точно?
Работает. Но время от времени в логах эта ошибка. При больших нагрузках появляется с постоянной периодичностью.

Denis
25.07.2017
10:47:39
Так может надо заскейлить днс серверы?

Let Eat
25.07.2017
10:50:57
хм, откуда 24 инстанса тогда? там имеется Horizontal pod autoscaler , который стартует новые поды если CPU слишком высокий, это он вам 24 запустил?

Роман
25.07.2017
10:54:45
хм, откуда 24 инстанса тогда? там имеется Horizontal pod autoscaler , который стартует новые поды если CPU слишком высокий, это он вам 24 запустил?
Да. Там автоскэйлер. Я сам его настроил на столько. Постепенно увеличивал. С ростом инстансов ошибок с резолвом становилось меньше.

Let Eat
25.07.2017
11:26:17
а CPU загружен в kube-dns?

может у вас ноды перегружены по CPU? у kube-dns requests.cpu по умолчанию что-то вроде 100m (0.1 CPU), что не так важно если нода свободна, но если CPU в дефиците, то этот параметр превращается по сути в weight

Google
Let Eat
25.07.2017
11:28:37
и если рядом есть поды с requests.cpu == 2, то kube-dns остаются объедки :)

Yury
25.07.2017
11:29:08
Кто-нибудь ставил 1.7 через kubeadm? dns резолвить kubernetes.default ни в какую не хочет

Yury
25.07.2017
11:47:31
А сеть какая?
пробовал и flannel и weave - результат один. сеть ходит. А без суффикса не резолвится сервис

Admin
ERROR: S client not available

Artem
25.07.2017
11:48:54
кто k8s на ранчере 1.6.3 разворачивал, есть тут такие

?

Aleksey
25.07.2017
12:12:04
Дня доброго! Подскажите, кто валидирует ямлины при apply —dry-run? Локальный клиент или кластер?

Yury
25.07.2017
12:13:31
1.7.1 via kubeadm, weave
видимо "место проклято"

Aleksey
25.07.2017
12:16:36
оба
А можно выяснить кто именно завернул ямлину? У меня nodeSelector через раз проходит валидацию и я уже хз куда копать (показать не могу, начальство запретило)

При том именно через раз. Не прошло @ Выпил чаю @ Прошло @ Сходил погулять @ Не прошло %)

Let Eat
25.07.2017
12:19:16
хм, у вас точно нет loadbalancer за которым apiserver разных версий? :))

Aleksey
25.07.2017
12:20:05
хм, у вас точно нет loadbalancer за которым apiserver разных версий? :))
нет, но локально у меня 1.7.2, а вот на кластере 1.5.6/1.5.1

Let Eat
25.07.2017
12:20:14
локальную валидацию можно было отключать флагом (оно в сообщении об ошибке выводит его)

удаленную отключить нельзя

Aleksey
25.07.2017
12:21:32
Хм, то есть без фалага мы уверены, что оно валидируется два раза, при том первый прогон локально?

Google
Let Eat
25.07.2017
12:22:29
100% валидируется локально без всякийх флагов и стандартном kubeconfig. может не так тщательно, как на сервере, но какие-то проверки на известные/неизвестные поля проходит

знаю, потому что руки и кривые и оно мне на мои ямлы ругалось локально часто

Aleksey
25.07.2017
12:23:47
Но блин, куда копать, если алерт флапается на неизменяемом файле? 0_0

Let Eat
25.07.2017
12:24:23
ну накиньте —v=10 может чего прояснится

я бы ставил на заблудший apiserver отличной версии от остальных, других объяснений на ум не приходит :)

Aleksey
25.07.2017
12:25:07
Спасибо, потыкаюсь

Let Eat
25.07.2017
12:25:53
как ошибка то выглядит? гуглится?

Aleksey
25.07.2017
12:26:36
error validating data: found invalid field nodeSelector

Ну и если повезло и валидация прошла, то всё хорошо и вешается куда надо

Let Eat
25.07.2017
12:30:03
будет чудо, если это не разные версии apiserver

впрочем nodeSelector с незапамятных времен , так что может и не разные версии :)наврят ли у вас 0.10 где-то запущенно :)

Let Eat
25.07.2017
13:02:36
уменьшите 24 до разумного :)

Роман
25.07.2017
13:05:00
уменьшите 24 до разумного :)
Сделал по количеству нод)

Alexander
25.07.2017
13:21:02

Страница 216 из 958