
Dmitriy
23.09.2016
09:48:15
https://prometheus.io

Andrey
23.09.2016
09:49:02
а нет статей как его настраивать грамотно? а то я почитал сайт: "вот вам набор болтов и гаек, а автомобиль сами собирайте - раз вы это читаете то скорее всего вы механник" )

Dmitriy
23.09.2016
09:49:05
https://www.influxdata.com/time-series-platform/telegraf/
я не видел грамотных статей

Google

Andrey
23.09.2016
09:49:41
прометеус И телеграф, или прометеус ИЛИ телеграф? они дополняют или заменяют?

Dmitriy
23.09.2016
09:49:54
у нас в связке работают
в телеграфе есть поддержка большого количества сервисов, из коробки по сути. В прометеусе нету части из них
а тк все пишут в инфлюксдб, то разницы нету особой

Andrey
23.09.2016
09:51:27
ну вот мне надо просто знать все ли ок с кластером: когда по ресурсам перебор, когда начали поды отваливаться с ошибками... короче состояние знать, желательно без лишних телодвижений или с внятными мануалами
чего-то одного хватит, или бросать текущую професию и в девопсы закапываться?

Dmitriy
23.09.2016
09:51:42
такого нету) ну или я не нашел

Andrey
23.09.2016
09:51:54
эх

Dmitriy
23.09.2016
09:52:03
мы сами определяли метрики которые нам важны и какие алерты слать

Andrey
23.09.2016
09:52:38
типа "программист"
ну я на бэкенде плотно засел так что полюбому пересекается с devops щас, фронендам в этом плане проще

Vladimir
23.09.2016
10:24:17
k8s стартует контейнер, а через 30 секунд Killing container with docker id 4460572e63c0: Need to kill pod.
что это может быть?

Google

kay
23.09.2016
10:25:04
livenessprobe и timeout
> At the bottom of the kubectl describe output there are messages indicating that the liveness probes have failed, and the containers have been killed and recreated.
http://kubernetes.io/docs/user-guide/liveness/

Vladimir
23.09.2016
10:27:57
вот так стоит:
ports:
- containerPort: 3000
name: http-server
livenessProbe:
httpGet:
path: /login
port: 3000
initialDelaySeconds: 60
timeoutSeconds: 5
но почему-то убивается ровно через 30 сек

kay
23.09.2016
10:30:03
а эти изменения видны в самом k8s? kubectl get pods bla -o yaml ?

Vladimir
23.09.2016
10:33:48
не видны

kay
23.09.2016
10:34:07
вот в этом и проблема
может ты pod не рестартанул, может синтаксическая ошибка где-то

Vladimir
23.09.2016
10:35:05
ок, щас попробую найти проблему
оказалось у меня конфилктовали названия в конфигах для веб приложения и воркера. по одиночке они работали, а если вместе запусить, то кубернетес убивал их
Failed to pull image, no space left on device
на машине 27 gb свободного места. другие контейнеры запустились
Есть какие-то мысли?

kay
23.09.2016
12:30:01
inodes?

Fike
23.09.2016
12:30:04
на всякий - с инодами все в порядке?

kay
23.09.2016
12:30:06
df -ih /var/lib

Vladimir
23.09.2016
12:30:24
df -ih /var/lib
Filesystem Inodes IUsed IFree IUse% Mounted on
/dev/xvda1 2.0M 51K 2.0M 3% /

kay
23.09.2016
12:30:46
df -h /var/lib?

Fike
23.09.2016
12:31:09
https://github.com/docker/docker/issues/10613 возможно, оно

Vladimir
23.09.2016
12:31:09
df -h /var/lib
Filesystem Size Used Avail Use% Mounted on
/dev/xvda1 32G 3.3G 27G 11% /

Ivan
23.09.2016
12:36:45

kay
23.09.2016
12:37:25
если btrfs, то проверить место можно sudo btrfs fi show

Google

Vladimir
23.09.2016
12:37:31
ext4
/dev/xvda1 on / type ext4 (rw,relatime,data=ordered)
sudo btrfs fi show
Btrfs v3.17

Ivan
23.09.2016
12:40:06
у докера ранее были суровые косяки с понятием о free space при использовании btrfs, например https://github.com/docker/docker/issues/5900 Сейчас не знаю, но возможно из той же оперы
docker info | grep Storage

Vladimir
23.09.2016
12:41:12
docker info | grep Storage
WARNING: No swap limit support
WARNING: No kernel memory limit support
WARNING: No cpu cfs quota support
WARNING: No cpu cfs period support
Storage Driver: aufs

Ivan
23.09.2016
12:42:47
хмм. тогда не знаю сходу

kay
23.09.2016
12:43:21
кстати вот и причина того, почему ресурсы не работают

Ivan
23.09.2016
12:43:49
btrfs я не юзал особо. но, возможно, причина где-то здесь https://btrfs.wiki.kernel.org/index.php/FAQ#Understanding_free_space.2C_using_the_original_tools

Alexander
23.09.2016
12:44:12
Ядро какое?

Vladimir
23.09.2016
12:45:21
uname -r
3.16.0-4-amd64

Alexander
23.09.2016
12:45:53
меняй на 4

Alexander
23.09.2016
12:46:13
но это не решит проблему с местом :))

Vladimir
23.09.2016
12:46:31
ок :-)

Alexander
23.09.2016
12:47:05
может ты куда /var/lib засунул на отдельный партишен ?
ну и тут был разговор про драйвера стораджей, ну и советовали overlay2

Vladimir
23.09.2016
12:50:23
вроде всё на одном партишене.
ок, я понял, что нужно пересоздать кластер, учитывая эти нюансы
я пользовался кубернетовским туториалом для aws. Что можно использовать другое для этого?

Dmitriy
23.09.2016
14:55:26

Zon
23.09.2016
15:27:49
Пока я не напилил свой костыль, расскажите, как вы ssl ключи манаджите для k8s? Чтоб не руками

Google

kay
23.09.2016
15:30:04
http://kubernetes.io/docs/user-guide/ingress/#tls
kubectl create --namespace="namespace" secret tls mytlskeys --cert=/path/to/cert.crt --key=/path/to/key.key

Zon
23.09.2016
15:33:09
Я про те, что нужны самому куберу для работы
а не внутренние хранилище
на этапе создания хостов

kay
23.09.2016
15:34:14
у меня скрипты у которых есть доступ к ca.key. на основе его создаются client/server/client-server ключики

Admin
ERROR: S client not available

Zon
23.09.2016
15:35:29
там это через openssl делается или как-то живее?

kay
23.09.2016
15:36:29
я через cfssl делал
в ansible
всё автоматом
если ключика на ноде нет, то запускается cfssl и генерится ключик

Zon
23.09.2016
15:37:22
к серваку cfssl подключается?
центральному

kay
23.09.2016
15:37:53
по хорошему конечно нужно API server но у меня скриптами

Dmitriy
23.09.2016
15:38:06

kay
23.09.2016
15:38:53
@noodlensk у меня wildcard на два года

Zon
23.09.2016
15:39:11

Dmitriy
23.09.2016
15:39:32

Zon
23.09.2016
15:39:36

Google

Zon
23.09.2016
16:02:24
https://www.terraform.io/docs/providers/tls/index.html вот это восхитительно для тестов, я вам скажу

Artur
23.09.2016
21:16:26
и как оно в связке работает?

Alexander
25.09.2016
08:25:22
Может повторюсь, но вот еще хороший пример деплоя кластера на AWS с помощью Terraform
https://github.com/kz8s/tack/

Zon
25.09.2016
09:00:53

Artem
25.09.2016
13:56:22
день добрый, впервые буду разворачивать кластер(на aws), как я понял лучше использовать https://github.com/kubernetes/kops и можете подсказать, не будет ли проблем с его настройкой если на aws аккаунте уже поднят один кластер, и как и надоли менять настройки kubctl что бы переключаться между кластерами? или какие бы еще методы посоветывали чтобы развернуть его. заранее благодарен

Andrey
26.09.2016
07:49:07
а расскажите кто как labels использует для структуры?

Lev
26.09.2016
13:19:52
@vkfont у нас nodeSelector по лейблам есть

Andrey
26.09.2016
13:26:05
не, я всмысле какие лабелы пихаешь в деплойменты и всякие другие репликасеты? ну там унификация, бест практисес и тп

Alexander
26.09.2016
13:40:15
app
service
Ну и лейбы на ноды еще навешал

Andrey
26.09.2016
14:18:05
че-то несуразица с кубернетесом получается, никак не могу придумать где хранить статику и как ее отображать
с одной стороны есть nginx к которому можно стораджи подключать
с другой стороны не могу пазл собрать как и куда пихать html (или я плохо гуглю, или в инете вообще рецептов нет для казалось бы простого юзкейса):
- configmap был бы выходом если б там не было бага с ошибкой - нижним подчеркиванием (типа в 1.4 исправили)
- запускать docker-инстансы с веб-серверами и вмонтированой статикой для отображения пары хтмл-страничек кажется мне черезчур
- есть google bucket но нет доступа к нему хранилищами (опять же образ с gcfuse готовить и подмантировать в поды выглядит как удаление гландов через задницу)
посоветуйте че, совсем запутался
вот есть kubectl, есть папка с index.html - как дальше поступать?


Fike
26.09.2016
14:23:06
на мелкой статике впиливал бы в контейнер с нджинксом
на большой у нас планировалось сразу отправлять данные в cdn, но не дошли до этого этапа
т.е. контейнеры бы вообще не имели доступа к статике

Andrey
26.09.2016
14:24:00
впиливать в контейнер с нджинксом :(