
Fike
12.10.2017
07:57:14
вам нужен не PV, а Object Storage, хоть тот же GCS

Andrey
12.10.2017
08:18:48
ок, спасибо за совет!

Kvendingoldo
12.10.2017
10:03:59
Господа, а можно ли как-то передать айпишник loadbalancer в параметры контейнера у deployment?

vladget
12.10.2017
10:37:03
запускаю в поде supervisord с десятком процессов (знаю, так делать нельзя) оно вроде раз отрабатывает и "залипает" процессы весят, но ничего не делают
образ: alpine

Google

vladget
12.10.2017
10:38:03
щас попробую запустить на ubuntu, но мне кажется это какие то лимиты ресурсов куба
дело не в alpine

Anton
12.10.2017
12:03:11
eviction manager может при DiskPressure condition на ноде выселяет все поды? чет я не пойму в этом логики. ощущение что он гонял поды с ноды на ноду, создавая проблемы
https://kubernetes.io/docs/tasks/administer-cluster/out-of-resource/
судя по всему при срабатывании eviction condition вполне мог пытаться пересадить поды на другую ноду. чет мне это не помогло совсем, а наоборот

vladget
12.10.2017
12:07:46
Я нашел... воркеры рвали связь с rabbitmq (отдельностоящим) из-за net.ipv4.tcp_tw_recycle=1 на нем... а так как поды за NAT'ом все херилось

Andrey
12.10.2017
12:38:28
кстати, оффтоп - во все деплойменты которые не юзают кластерное api и/или не имеют правильного настроеного rbac (а это 99%) добавляйте в спеку automountServiceAccountToken: false (в идеале конечно еще securityContext неплохо прописывать но это уже на любителя)
юзкейс: если ваше крутое приложение поломает хацкер то ему будет сложнее добраться до api кубера ?
(я тут ревизию провел у знакомого куберовода и удивился как легко можно кластером зарулить лол)

Алексей
12.10.2017
13:37:52
Может кто подсказать, как уменьшить таймаут перемонтирования RBD для пода в случае его перезапуска? Сейчас таймаут до 10-15 минут.

Paul
12.10.2017
14:28:36
скандалы, интриги, расследования!

Andrey
12.10.2017
14:29:08
дак токен-то монтируется по дефолту

Paul
12.10.2017
14:31:24
оппачки

Andrey
12.10.2017
14:32:14
сделай дейскрайб любого пода, там будет строчка:
Mounts:
/var/run/secrets/kubernetes.io/serviceaccount from default-token-73ss0 (ro)

Google

Paul
12.10.2017
14:39:17
а вот это прям караул
спасибо


Vitaliy
12.10.2017
14:57:45
Спасибо за ответы,
интересны кейсы, может кто еще накинет?
Я немного слупок, но:
У нас есть шаблон для создания нэймспэйсов. Там по умолчанию создаётся LimitRange. Для CPU лимит 5. Для memory 1.5. Числа выведены эмпирически.
Также есть Resource Quota. Эти настройки запрещают создание подов, где нет requests и limits
В графане есть дашборды по общей capacity кластера. Есть дашборды с таблицами, где сравнивается реальное потребление пола и его requests limits. Метрики достаются из kubelet и kube-state-metrics
Ещё в kubelet ставим флаги kube-reserved, system-reserved. Т.к. были проблемы с oom killer
Еще можно из kubernetes API достать данные по ресурсам подов, а дальше как угодно агрегировать. Я например писал консольную команду, чтобы найти все поды с неправильно указанными ресурсами
И есть один жирный минус: если что-то не так с ресурсами, то создаётся deployment, replicaset. А вот поды просто не создаются. Helm этого не видит например. И коллеги тоже не видят и не понимают что не так
а securityContext делать больно. Приходится практически перебором. 99% докер образов хаба под это не заточены. Хотят рут и capabilities на CHOWN, SETUID, SETGID


Arslanbekov
12.10.2017
15:18:44
@zakharovvi спасибо за расписанный ответ :)

Paul
12.10.2017
15:20:58

Vitaliy
12.10.2017
15:21:43
я скорее про официальные: mariadb, redis, postgres, prometheus, grafana и т.д.
свои собирать и поддерживать в порядке больно. Последнее время особенно от этого страдаю. Своих образов штук 30

vladget
12.10.2017
16:22:25
https://www.nginx.com/resources/library/kubernetes-cookbook/?mkt_tok=eyJpIjoiTVRjMFpEVXpZVGc0TWpVeSIsInQiOiI3aUtiZ2UzY29aU2xKamtTOEhoT0twR1JIN1RaaDFLT3JqaTdtd2owVXNld01jYktucFk1eGxXSmJMUFlZN1pFbTlRS0lpbEhFYWNkencxcDA4Q0dzM1Noa2RJQThueDVmZUI4ZjlXaW1CRENTbGFOXC9pOVd2bVNYMzFUSW5RaG4ifQ%3D%3D
регистрацию хотят
Спасибо, а то смне ссылку так и не прислали :)

Let Eat
12.10.2017
20:32:12
evicition там кажется крайний случай )

Google

Let Eat
12.10.2017
20:35:37

Gkio
13.10.2017
07:57:24
hello i can communicate in russian but its difficult for me to type is there any good architecture for microservices and use sockets for each microservices or just have 1 socket for all services?

Anton
13.10.2017
08:13:32
причем видно что он срабатывал еще раз вчера вечером и я понятия не имею почему
вдруг ему взбредает в голову
kubelet[28382]: W1012 17:36:48.046037 28382 eviction_manager.go:331] eviction manager: attempting to reclaim nodefs
kubelet[28382]: I1012 17:36:48.046053 28382 eviction_manager.go:345] eviction manager: must evict pod(s) to reclaim nodefs
и начинает выгонять поды (все)
kubelet[28382]: I1012 17:36:48.046263 28382 eviction_manager.go:363] eviction manager: pods ranked for eviction:

Egor
13.10.2017
08:19:17
всеобщее здравствуйте

Mikhail
13.10.2017
08:25:39

Gkio
13.10.2017
08:27:27
service = microservice

Mikhail
13.10.2017
08:29:03

Let Eat
13.10.2017
08:50:53

Gkio
13.10.2017
08:51:14
:D

Let Eat
13.10.2017
08:52:08

Anton
13.10.2017
08:54:31

Let Eat
13.10.2017
08:56:55
попробуй запстить kubelet с --v=4

Egor
13.10.2017
10:24:09
парни, направьте в нужную сторону:
1. Есть хост машина с установленым kubectl
2. Есть виртуалбокс с бубунтой (или федорой или дебианом или еще с чем)
Возможно ли развернуть кластерок на виртуалке? Что почитать?

Let Eat
13.10.2017
10:25:52
miniukube
minikube start. done

Egor
13.10.2017
10:26:05
Дело в том, что у меня есть локально установленый докер, но я не хочу заморачиваться с $env и прицеплять его к миникубу (это в случае если я захочу локально его ставить)
miniukube
ставить миникуб в виртуальную машину? т.е. виртуалка в виртуалке?

Google

Алексей
13.10.2017
10:30:44
Подскажите, хочу понять кубы.
Могу ли я в рамках одного впс все установить?
Или нужен ещё один сервак как управляющий?

Let Eat
13.10.2017
10:32:14

Vitaliy
13.10.2017
10:54:17
дашборды нагуглили, или сами сделали?
Всё сами.
На многие вопросы все равно сложно отвечать. Например "сколько серверов для тестов можно переназначить на продакшн без ущерба производству"

Alexander
13.10.2017
10:58:13
... продакшн ... производству - тавтология?

Vitaliy
13.10.2017
11:04:29
Ой. Под производством я имел ввиду разработку и тестирование)

Alexander
13.10.2017
11:09:46
трудности перевода. сложно, когда терминология то русская то англ.

Let Eat
13.10.2017
12:23:24

Alexander
13.10.2017
12:35:28

Vitaliy
13.10.2017
13:00:42
выложите куда-нибудь, чтобы помочь несчастным копи-пастерам? :)
Я уже скидывал как-то. Там всё банально: https://www.evernote.com/shard/s123/sh/22d6d0af-dc84-4183-b024-c5d87a325df3/49c133cdff169b9a
дашборд из json непросто будет запустить, т.к. там reocrding rules
https://gist.github.com/zakharovvi/7c97929f2ca05620c365535057c90a59

Let Eat
13.10.2017
19:15:29

Fike
13.10.2017
19:16:38
вроде обсуждали и приходили к общему мнению о неработоспособности и что внутри тот же цеф, который у многих здесь стоит

Paul
13.10.2017
19:22:49
рукс нельзя использовать

Let Eat
13.10.2017
19:24:08
(не в прод)

Paul
13.10.2017
19:24:44
потому, что это запуск цефа внутри контейнера. Проще, логичнее и удобнее вытащить цеф в отдельную инсталляцию и использовать его снаружи
работать будет заметно надежнее6 отлаживать проще. Впрочем, если есть желание есть кактус - отговорить невозможно

Let Eat
13.10.2017
19:26:54

Paul
13.10.2017
20:29:30
мне не нравится попытка тюнинговать бульдозер в самолет. Инструменты все-таки лучше под задачу подбирать. А не наоборот

Let Eat
13.10.2017
20:32:55
в чем контейнер ограничвает цеф?

Google

Paul
13.10.2017
20:40:25
а ничего, что контейнер иммутабелен?

Let Eat
13.10.2017
20:41:41
volume в нем зато нет)

Ivan
13.10.2017
21:35:15
Правда до 1.8 ещё не обновил... Но скоро

KrivdaTheTriewe
14.10.2017
19:18:24
Есть хорошее чтиво за цеф с стори оф сексесс , подбираю фс, для распределенного хранения мелких блобов

Paul
14.10.2017
19:29:31
ничего не понял. в чем вопрос-то?

Gleb
14.10.2017
20:17:20
а так вряд ли ты что то вменяемое найдешь

Fike
14.10.2017
20:21:47
откуда вы берете й в kubernetes? :3