
Magistr
24.07.2017
12:23:18
правда кубер постарше

Дмитрий
24.07.2017
13:11:45
Есть проблема при загрузки основных образов из кастомного реестра, который использует Basic Auth через nginx. При этом образ pause загружается без проблем! Врсия 1.7.1 у меня!

Paul
24.07.2017
13:13:25

Magistr
24.07.2017
13:14:06
ну на 2х живух нодах данные живы

Google

Айбелив
24.07.2017
13:17:39
данные целы, а вот хекети умирает и больше провизионинг не работает

Dmitry
24.07.2017
14:51:46
Кстати.. кто обновился до 1.7 и использует встроенный в kubelet cadvisor, вас ждет сюрприз - в :10250/metrics нету больше container_ метрик. Необходимо использовать порт cadvisor'а :4194/metrics
причем раньше мы указывали --cadvisor-port=0 и метрики мержились, сейчас этого нету
поэтому... я вам принес лекарство
https://gist.github.com/dshmelev/95b9dddaa2a9a77af568f10205f2b08e

Alexander
24.07.2017
15:31:29
Ребят, а как с кубами сделать следующее:
- в docker-compose.yml у меня были вольюмы типа:
- ./templates/nginx/nginx.conf:/etc/nginx/nginx.conf:ro
- ./templates/nginx/certs/:/etc/nginx/certs/:ro
- ./scripts/nginx-entrypoint.sh:/entrypoint.sh:ro
которые при запуске контейнера использовались.
Как это правильнее всего конвертировать, есть какие-то best-practice? Не в ConfigMap же это пихать или в общий сторедж.
пока склоняюсь к тому, чтобы иметь namespace-специфичный storage и из него монтировать нужные файлы/конфиги

Dmitry
24.07.2017
15:42:49
ну конфиг точно в configmap

Maksim
24.07.2017
15:43:00
Зависит от того что было
КОнфиг в cm
но есть проблемка nginx.conf маунтился в фаил кубер так не умеет

Dmitry
24.07.2017
15:43:31
секреты я бы положил в секреты до поры до времени.. потом, может, какое-нибудь хранилище прикрутил

Maksim
24.07.2017
15:44:04
Вот эту конфу

Google

Maksim
24.07.2017
15:44:04
- ./templates/nginx/nginx.conf:/etc/nginx/nginx.conf:ro
- ./templates/nginx/certs/:/etc/nginx/certs/:ro
напрямую в кубере не воспроизвести

Artem
24.07.2017
15:52:25
И в чем же проблема воспроизвести?

Maksim
24.07.2017
15:53:44
нельзя маунтиить в файл
маунтпонит это дирректория
а тут получается nginx/nginx.conf и следом nginx/certs/

Artem
24.07.2017
15:55:08
А положить серты по другому пути не вариант?

Dmitry
24.07.2017
15:55:13
можно
Вот пример
https://gist.github.com/tuannvm/0fc6e94a3759c91b1abe71c149152f77

Maksim
24.07.2017
15:56:00
версия кубера?

Dmitry
24.07.2017
15:56:23
https://kubernetes.io/docs/concepts/storage/volumes/#using-subpath

Maksim
24.07.2017
15:57:37
у меня такая же конфигурация поражадет папку

Dmitry
24.07.2017
15:58:26
в v1.3.0-alpha.4 появилась фича для докера

Let Eat
24.07.2017
18:41:41
но по новому пути

Dmitry
24.07.2017
18:44:22
именно так =)
# For Kubernetes 1.7.3
# replacement: /api/v1/nodes/${1}/proxy/metrics/cadvisor

vladget
24.07.2017
20:36:31

Fike
24.07.2017
20:41:10
Ну GH при указании cname именно так редиректить и будет

Google

Aleksandr
24.07.2017
21:02:15
wget -S -O /dev/null "https://kubernetes.github.io" —header="Host: kubernetes.io"
HTTP request sent, awaiting response...
HTTP/1.1 200 OK
Server: GitHub.com

vladget
24.07.2017
21:04:55
ну так про обратное говорили, что там proxy_pass на https://kubernetes.github.io с https://kubernetes.io
там бы был редирект луп

Aleksandr
24.07.2017
21:24:49
всё правильно, там в конфиге указано
location / {
...
proxy_set_header Host kubernetes.io;
proxy_pass https://kubernetes.github.io;

Роман
25.07.2017
06:49:45
нельзя маунтиить в файл
volumeMounts:
mountPath: /var/www/config/file.yml
subPath: file.yml
name: php
...
volumes:
- name: php
configmap:
name: file-yaml
Версия 1.7

Maksim
25.07.2017
06:50:54

Alma Trey
25.07.2017
07:00:35
Crypto tradind - уникальный канал, который научит вас трейдингу на криптовалюте. @Cryptootrading

Роман
25.07.2017
10:32:32
А как работает kube-dns? Приложения каждый раз отправляют запрос на резолв или где-то это кэшируется?
Постоянная ошибка, что приложение не может зарезолвить сервис postgres, однако, запущено уже 24 инстанса с kube-dns...

Denis
25.07.2017
10:39:02
А сервис настроен точно?

Paul
25.07.2017
10:42:23

Роман
25.07.2017
10:43:10
А сервис настроен точно?
Работает. Но время от времени в логах эта ошибка. При больших нагрузках появляется с постоянной периодичностью.

Denis
25.07.2017
10:47:39
Так может надо заскейлить днс серверы?

Let Eat
25.07.2017
10:47:57
так и так 24 уже

Роман
25.07.2017
10:49:44

Let Eat
25.07.2017
10:50:57
хм, откуда 24 инстанса тогда? там имеется Horizontal pod autoscaler , который стартует новые поды если CPU слишком высокий, это он вам 24 запустил?

Роман
25.07.2017
10:54:45

Let Eat
25.07.2017
11:26:17
а CPU загружен в kube-dns?
может у вас ноды перегружены по CPU? у kube-dns requests.cpu по умолчанию что-то вроде 100m (0.1 CPU), что не так важно если нода свободна, но если CPU в дефиците, то этот параметр превращается по сути в weight

Google

Let Eat
25.07.2017
11:28:37
и если рядом есть поды с requests.cpu == 2, то kube-dns остаются объедки :)

Yury
25.07.2017
11:29:08
Кто-нибудь ставил 1.7 через kubeadm? dns резолвить kubernetes.default ни в какую не хочет

Роман
25.07.2017
11:46:21

Yury
25.07.2017
11:47:31
А сеть какая?
пробовал и flannel и weave - результат один. сеть ходит. А без суффикса не резолвится сервис

Admin
ERROR: S client not available

Роман
25.07.2017
11:48:42

Artem
25.07.2017
11:48:54
кто k8s на ранчере 1.6.3 разворачивал, есть тут такие
?

Айбелив
25.07.2017
12:06:02

Aleksey
25.07.2017
12:12:04
Дня доброго! Подскажите, кто валидирует ямлины при apply —dry-run? Локальный клиент или кластер?

Yury
25.07.2017
12:13:31

Let Eat
25.07.2017
12:14:10

Aleksey
25.07.2017
12:16:36
оба
А можно выяснить кто именно завернул ямлину? У меня nodeSelector через раз проходит валидацию и я уже хз куда копать (показать не могу, начальство запретило)
При том именно через раз. Не прошло @ Выпил чаю @ Прошло @ Сходил погулять @ Не прошло %)

Let Eat
25.07.2017
12:19:16
хм, у вас точно нет loadbalancer за которым apiserver разных версий? :))

Aleksey
25.07.2017
12:20:05

Let Eat
25.07.2017
12:20:14
локальную валидацию можно было отключать флагом (оно в сообщении об ошибке выводит его)
удаленную отключить нельзя

Aleksey
25.07.2017
12:21:32
Хм, то есть без фалага мы уверены, что оно валидируется два раза, при том первый прогон локально?

Google

Let Eat
25.07.2017
12:22:29
100% валидируется локально без всякийх флагов и стандартном kubeconfig. может не так тщательно, как на сервере, но какие-то проверки на известные/неизвестные поля проходит
знаю, потому что руки и кривые и оно мне на мои ямлы ругалось локально часто

Aleksey
25.07.2017
12:23:47
Но блин, куда копать, если алерт флапается на неизменяемом файле? 0_0

Let Eat
25.07.2017
12:24:23
ну накиньте —v=10 может чего прояснится
я бы ставил на заблудший apiserver отличной версии от остальных, других объяснений на ум не приходит :)

Aleksey
25.07.2017
12:25:07
Спасибо, потыкаюсь

Let Eat
25.07.2017
12:25:53
как ошибка то выглядит? гуглится?

Aleksey
25.07.2017
12:26:36
error validating data: found invalid field nodeSelector
Ну и если повезло и валидация прошла, то всё хорошо и вешается куда надо

Let Eat
25.07.2017
12:30:03
будет чудо, если это не разные версии apiserver
впрочем nodeSelector с незапамятных времен , так что может и не разные версии :)наврят ли у вас 0.10 где-то запущенно :)

Роман
25.07.2017
12:54:34

Let Eat
25.07.2017
13:02:36
уменьшите 24 до разумного :)

Роман
25.07.2017
13:05:00

Alexander
25.07.2017
13:21:02

Let Eat
25.07.2017
14:12:28