
Dmitry
04.07.2017
19:38:45
удаляется по дефолту. вопрос как этот дефолт изменить

Let Eat
04.07.2017
19:43:02
поидее ничего не должно удаляется. данные стираются про переиспользовании PV, т.е. в момент когда появляется новый PVC взамен старого и указывает на тот же PV

Dmitry
04.07.2017
19:45:06
persistentVolumeReclaimPolicy

Google

Айбелив
04.07.2017
19:45:20
Volumes that were dynamically provisioned are always deleted

Let Eat
04.07.2017
19:46:26
о как, ошибся

Paul
04.07.2017
19:46:51

Artem
04.07.2017
19:51:15
http://contiv.github.io
есть кто делал/хочет такое сделать?
если кому то интересно такое по работе пишите в личку, обсудим
также интересны экспертные мнения по данному вопросу.

Let Eat
04.07.2017
20:03:44
не знаю чем contiv хороши, но вот есть перцы https://www.aporeto.com/product/ , которые очень интересно внедряют информацию о приложении ( JWT токен кажется или ссылку где его найти) внутрь SYN/SYN-ACK/ACK хэндшейка :) В итоге в момент хендшейка уже ясно, кто стучится и имеет ли право, так же все проверки только вовремя этих трех пакетов происходит,после них уже никакого оверхеда - просто данные льются напрямую, как будто и не было ничего :)
вот это: https://github.com/aporeto-inc/trireme

Artem
04.07.2017
20:07:36
contiv с Cisco дружит. если есть у кого ACI или CliQr

Pavel
04.07.2017
20:09:17
contiv и есть циско, у этих прожектов немного разные назначения

Artem
04.07.2017
20:12:40
есть у кого позитивный опыт или желание его приобрести?

Pavel
04.07.2017
20:14:30
под эту срань нужен как минимум рукастый сетевик

Google

Pavel
04.07.2017
20:14:33
эт для ооооч больших интерпрайзов, кажется
дааааа, они это намутили чтоб ту всю секурити что в обычных сетях у них есть, распространить и на псевдосети контейнеров...

Pavel
04.07.2017
20:44:52
вот это киска
коты, налетай

Artem
04.07.2017
22:30:52
вот и я про что.

Altai
04.07.2017
22:39:54
Верно понимаю, что с Docker 17.06 Kubernetes пока не поднять?
Ещё вот такую дичь обнаружил: https://github.com/coreos/tectonic-installer
Кто-нибудь использовал?

Dmitry
05.07.2017
00:30:37
в случае ceph, volume тупо удаляется без возможности восстановления. и как я понял это стандартная политика для dynamic PV provisioning


Altai
05.07.2017
01:47:36
Пытаюсь поднять с помощью kubeadm, упорно flannel 1/2, время от времени проскакивает "Ready".
kubeadm init --pod-network-cidr=10.244.0.0/16
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
Собственно, ЧЯДНТ?
В syslog пачки сообщений о том, что тот или иной контейнер не найден, вида
445 cni.go:258] CNI failed to retrieve network namespace path: Cannot find network namespace for the terminated container "5db3f6...
Затем
445 cni.go:294] Error adding network: open /run/flannel/subnet.env: no such file or directory
Jul 5 04:42:02 localhost kubelet[445]: E0705 04:42:02.214693 445 cni.go:243] Error while adding to cni network: open /run/flannel/subnet.env: no such file or directory
И другие ошибки, связанные с subnet.env-файлом. Почему flannel его не генерирует? :(

Let Eat
05.07.2017
06:11:16

Роман
05.07.2017
06:36:40

Denis
05.07.2017
08:26:35
а кто нибудь прикручивал linkerd или istio? Мне очень нравится идея по максимуму делегировать инфраструктуре такие штуки как circuit breaker, retry policy, метрики L4 и L7, всякие service dicovery

Altai
05.07.2017
08:42:37
Какая версия Docker?
У меня работает.

Роман
05.07.2017
08:45:20

Айбелив
05.07.2017
08:45:48

Google

Роман
05.07.2017
08:46:42

Igor
05.07.2017
08:48:00

Роман
05.07.2017
08:49:18
этот варнинг с версии 1.7 убрали
[kubeadm] WARNING: kubeadm is in beta, please do not use it for production clusters.
[init] Using Kubernetes version: v1.7.0
[init] Using Authorization modes: [Node RBAC]
[preflight] Running pre-flight checks
[preflight] WARNING: docker version is greater than the most recently validated version. Docker version: 17.06.0-ce. Max validated version: 1.12

Igor
05.07.2017
08:49:37
хм

Altai
05.07.2017
08:52:31
@tetramin, та же версия, также пробовал и на 17.05 на "чистой" машинке. Какие-то дополнительные действия при поднятии делались, кроме
kubeadm init --pod-network-cidr=10.244.0.0/16
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
?
Оно секунд 20 в Ready после переезагрузки, а потом бесконечно падает в 1/2.

Роман
05.07.2017
08:53:34

Altai
05.07.2017
08:56:03
А при включении rbac дополнительно придется указывать всякое там только своим подам, kubernetes с собственными разберется сам?

Роман
05.07.2017
08:58:08

Altai
05.07.2017
08:59:14
Хм... Надо же. И действительно, теперь "running" всё. Спасибо. :З

Khramov
05.07.2017
09:38:50
Ребят, как лучше прокинуть docker.sock с хоста внутрь пода?

Айбелив
05.07.2017
09:41:45

Denis
05.07.2017
09:42:16
А кто нибудь знает аналог AWS с датацентрами в России?

Andrey
05.07.2017
09:48:49

Ilya
05.07.2017
09:50:23

Denis
05.07.2017
09:51:04

Khramov
05.07.2017
09:51:36
хотим Jenkins запустить в кубе, и чтобы пулил с гита образы при изменении и компилил их

Dmitry
05.07.2017
10:05:30
Ребят, а кто какие средства использует для мониторинга http запросов между сервисами внутри куба?

Khramov
05.07.2017
10:08:34
heapster

Andrey
05.07.2017
10:11:16
кто-нибудь сталкивался с этой мессагой? навскидку на что может ругаться?
StatefulSet in version "v1beta1" cannot be handled as a StatefulSet: quantities must match the regular expression '^([+-]?[0-9.]+)([eEinumkKMGTP]*[-+]?[0-9]*)$'
https://pastebin.com/Z6QzF7Cy

Роман
05.07.2017
10:16:05

Google

Andrey
05.07.2017
10:16:31
я с деплоймента переделал, деплоймент норм запускался
(это кстати не лишний пробел, просто pastebin так отрендерил %(

Роман
05.07.2017
10:17:43
Да. Точно.

Andrey
05.07.2017
10:19:41
https://github.com/kubernetes/apimachinery/blob/master/pkg/api/resource/quantity.go вот тут ругается
не могу понять какую единицу измерения я неправильно написал / опустил
а все допер, сори :)

Admin
ERROR: S client not available

Andrey
05.07.2017
10:22:07
размер диска надо в Gi а не Gb, протупил


Dmitry
05.07.2017
10:45:31
Вообщем поднял кластер на CoreOS из 8 нод. Туда пересли внутренние сервисы, типа TeamCity, YouTrack, sentry, registry и прочее. Там же крутился ceph. Все это работало до тех пор, пока не начали переносить на кластер нагрузки с прода. После этого ноды начали умирать как мухи - одна за другой. Умирала нода, на которой был запущен именно этот контейнер. После этого под скедулился на другой ноде и умирала она. Ноды умирали по жесткому - уходили в ребут. Причина пока не ясна, т.к. системный раздел при загрузке вайпится.
Что вообще происходит догадались не сразу. Сейчас потихоньку даем нагрузку и ждем когда ребутнется нода, чтобы посмотреть лог. Хотя не факт, что в логе что-то будет. Возможно происходит kernel panic, тогда врятли что-то запишется в лог.
Это bare-metal. OVH. На машинах этого же класса прод живет спокойно под CentOS (без кубера).
Собственно сейчас недеюсь получить какой то лог, а потом буду пробовать кубер завести под CentOS.


Mikhail
05.07.2017
12:29:49
у нас подобное было, но вроде как вылечилось (тьфу-тьфу) апдейтом ядра с 3.16 на 4.9, вертится на Debian


Paul
05.07.2017
12:30:46
Вообщем поднял кластер на CoreOS из 8 нод. Туда пересли внутренние сервисы, типа TeamCity, YouTrack, sentry, registry и прочее. Там же крутился ceph. Все это работало до тех пор, пока не начали переносить на кластер нагрузки с прода. После этого ноды начали умирать как мухи - одна за другой. Умирала нода, на которой был запущен именно этот контейнер. После этого под скедулился на другой ноде и умирала она. Ноды умирали по жесткому - уходили в ребут. Причина пока не ясна, т.к. системный раздел при загрузке вайпится.
Что вообще происходит догадались не сразу. Сейчас потихоньку даем нагрузку и ждем когда ребутнется нода, чтобы посмотреть лог. Хотя не факт, что в логе что-то будет. Возможно происходит kernel panic, тогда врятли что-то запишется в лог.
Это bare-metal. OVH. На машинах этого же класса прод живет спокойно под CentOS (без кубера).
Собственно сейчас недеюсь получить какой то лог, а потом буду пробовать кубер завести под CentOS.
если не секрет - как решили проблему бэкапа? я сейчас изучаю варианты


Dmitry
05.07.2017
12:31:33
пока никак не решили
OVH предлагает 10TB за 64 евро кажется. Именно для бекапов. Доступ по FTP(S) и NFS. Вот думаем его и взять
а то S3 дороговато выйдет
причем уже успели ребутнуться все ноды из восьми)

Mikhail
05.07.2017
12:34:50
а версия докера?

Dmitry
05.07.2017
12:35:06
1.12.6

Altai
05.07.2017
12:35:46
@nailgunster, это история про развертывание с tectonic, так?

Google

Dmitry
05.07.2017
12:36:35
разворачивал своим провиженером https://github.com/nailgun/seedbox
но думаю суть не в этом
сейчас эта версия на всех нодах https://coreos.com/releases/#1353.7.0
в момент разворачивания она была latest stable

Paul
05.07.2017
12:40:20
пока никак не решили
я имел ввиду - у вас тот же ютрак уже перенесен в кубер, вы же делаете как-то его резервные копии?

Dmitry
05.07.2017
12:41:28
ютрек сам себя бекапит. там используется один вольюм для данных и один для бекапов
но надежного бекапа пока нет

Paul
05.07.2017
12:42:05

Dmitry
05.07.2017
12:42:37
я это и написал выше)
пока с ребутами не разобрался, смысл что-то бекапить

Paul
05.07.2017
12:47:07
подход отличный. Я последние 2 месяца пытаюсь локализовать возможные риски, чтобы не уничтожить пользовательскую инфраструктуру случайной ошибкой (хотя кластер у меня уже 3 месяца как работает, в общем-то). :)

Dmitry
05.07.2017
12:51:12
кроме ютрека особо терять нечего. конфигурации в teamcity меняются редко, sentry больше как лог ошибок не более того. а вообще про бекапы согласен. как раз думал как это сделать до того как все посыпалось

Pavel
05.07.2017
12:52:32
бакулу натравите сырые диски срезать и всё тут :) ну если денег много можно акронис

Altai
05.07.2017
12:54:15
@nailgunster, тот же новоразвернутый через kubeadm. Стабильненько падает kube-dns в 1/3 2/3. Может ещё какое-нибудь дополнительное действие было там? :)

Dmitry
05.07.2017
12:59:55
когда нода сама уходит в ребут, у меня остается только два подозреваемых - железо или ядро. железо исключаю, т.к. история повторилась на восьми нодах из восьми и на таком же железе рядом стабильно работает CentOS. остается ядро.
но чтобы не быть голословным, сейчас жду пока опять крашнется чтобы увидеть лог. там либо будет что-то интересное, либо он просто оборвется в произвольном месте, что скорее всего будет значить kernel panic…

Pavel
05.07.2017
13:01:05
у них есть прикол, что если включен их мониторинг, и при этом нода недоступна, то они её ребутят

Dmitry
05.07.2017
13:01:55
я мониторинг отключил