@kubernetes_ru

Страница 199 из 958
Dmitry
04.07.2017
19:38:45
удаляется по дефолту. вопрос как этот дефолт изменить

Let Eat
04.07.2017
19:43:02
удаляется по дефолту. вопрос как этот дефолт изменить
прямо весь volume удаляется (скажем EBS) или только PV ресурс?

поидее ничего не должно удаляется. данные стираются про переиспользовании PV, т.е. в момент когда появляется новый PVC взамен старого и указывает на тот же PV

Dmitry
04.07.2017
19:45:06
persistentVolumeReclaimPolicy

Google
Айбелив
04.07.2017
19:45:20
Volumes that were dynamically provisioned are always deleted

Let Eat
04.07.2017
19:46:26
о как, ошибся

Artem
04.07.2017
19:51:15
http://contiv.github.io

есть кто делал/хочет такое сделать?

если кому то интересно такое по работе пишите в личку, обсудим

также интересны экспертные мнения по данному вопросу.

Let Eat
04.07.2017
20:03:44
не знаю чем contiv хороши, но вот есть перцы https://www.aporeto.com/product/ , которые очень интересно внедряют информацию о приложении ( JWT токен кажется или ссылку где его найти) внутрь SYN/SYN-ACK/ACK хэндшейка :) В итоге в момент хендшейка уже ясно, кто стучится и имеет ли право, так же все проверки только вовремя этих трех пакетов происходит,после них уже никакого оверхеда - просто данные льются напрямую, как будто и не было ничего :)

вот это: https://github.com/aporeto-inc/trireme

Artem
04.07.2017
20:07:36
contiv с Cisco дружит. если есть у кого ACI или CliQr

Pavel
04.07.2017
20:09:17
contiv и есть циско, у этих прожектов немного разные назначения

Artem
04.07.2017
20:12:40
есть у кого позитивный опыт или желание его приобрести?

Pavel
04.07.2017
20:14:30
под эту срань нужен как минимум рукастый сетевик

Google
Pavel
04.07.2017
20:14:33


эт для ооооч больших интерпрайзов, кажется

дааааа, они это намутили чтоб ту всю секурити что в обычных сетях у них есть, распространить и на псевдосети контейнеров...

Pavel
04.07.2017
20:44:52
вот это киска

коты, налетай

Artem
04.07.2017
22:30:52
вот и я про что.

Altai
04.07.2017
22:39:54
Верно понимаю, что с Docker 17.06 Kubernetes пока не поднять?

Ещё вот такую дичь обнаружил: https://github.com/coreos/tectonic-installer Кто-нибудь использовал?

Dmitry
05.07.2017
00:30:37
выставить ему reclaim policy
reclaim как я понял только для статичных PV годится. типо как их очищать от старых данных

Volumes that were dynamically provisioned are always deleted
да вот как раз хотелось бы этот always заменить на что нибудь

в случае ceph, volume тупо удаляется без возможности восстановления. и как я понял это стандартная политика для dynamic PV provisioning

Altai
05.07.2017
01:47:36
Пытаюсь поднять с помощью kubeadm, упорно flannel 1/2, время от времени проскакивает "Ready". kubeadm init --pod-network-cidr=10.244.0.0/16 kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml Собственно, ЧЯДНТ? В syslog пачки сообщений о том, что тот или иной контейнер не найден, вида 445 cni.go:258] CNI failed to retrieve network namespace path: Cannot find network namespace for the terminated container "5db3f6... Затем 445 cni.go:294] Error adding network: open /run/flannel/subnet.env: no such file or directory Jul 5 04:42:02 localhost kubelet[445]: E0705 04:42:02.214693 445 cni.go:243] Error while adding to cni network: open /run/flannel/subnet.env: no such file or directory И другие ошибки, связанные с subnet.env-файлом. Почему flannel его не генерирует? :(

Let Eat
05.07.2017
06:11:16
Denis
05.07.2017
08:26:35
а кто нибудь прикручивал linkerd или istio? Мне очень нравится идея по максимуму делегировать инфраструктуре такие штуки как circuit breaker, retry policy, метрики L4 и L7, всякие service dicovery

Altai
05.07.2017
08:42:37
Какая версия Docker?

У меня работает.

Роман
05.07.2017
08:45:20
Какая версия Docker?
Docker 17.06.0-ce Kubernetes 1.7

Айбелив
05.07.2017
08:45:48
Docker 17.06.0-ce Kubernetes 1.7
в кубере же вроде написано, что он неподдерживает такую версию докера

Google
Роман
05.07.2017
08:46:42
в кубере же вроде написано, что он неподдерживает такую версию докера
Там написан ворнинг при старте кубеадма, что он протестирован для работы с докером 1.12, а с версиями выше - на ваш страх и риск.

Роман
05.07.2017
08:49:18
этот варнинг с версии 1.7 убрали
[kubeadm] WARNING: kubeadm is in beta, please do not use it for production clusters. [init] Using Kubernetes version: v1.7.0 [init] Using Authorization modes: [Node RBAC] [preflight] Running pre-flight checks [preflight] WARNING: docker version is greater than the most recently validated version. Docker version: 17.06.0-ce. Max validated version: 1.12

Igor
05.07.2017
08:49:37
хм

Altai
05.07.2017
08:52:31
@tetramin, та же версия, также пробовал и на 17.05 на "чистой" машинке. Какие-то дополнительные действия при поднятии делались, кроме kubeadm init --pod-network-cidr=10.244.0.0/16 kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml ? Оно секунд 20 в Ready после переезагрузки, а потом бесконечно падает в 1/2.

Altai
05.07.2017
08:56:03
А при включении rbac дополнительно придется указывать всякое там только своим подам, kubernetes с собственными разберется сам?

Роман
05.07.2017
08:58:08
А при включении rbac дополнительно придется указывать всякое там только своим подам, kubernetes с собственными разберется сам?
На сколько я понял, он там с версии 1.5+ по дефолту включен. Например, дашборду тоже нужно rbac, но это в инструкции есть. И weavescope тоже. Своим подам надо будет, если ты где-то будешь это использовать.

Altai
05.07.2017
08:59:14
Хм... Надо же. И действительно, теперь "running" всё. Спасибо. :З

Khramov
05.07.2017
09:38:50
Ребят, как лучше прокинуть docker.sock с хоста внутрь пода?

Denis
05.07.2017
09:42:16
А кто нибудь знает аналог AWS с датацентрами в России?

Ilya
05.07.2017
09:50:23
Ребят, как лучше прокинуть docker.sock с хоста внутрь пода?
А зачем? не советуют использовать docker на хосте, которым управляет кубернетес. Если надо позапускать контейнеры или получить какую-нибудь инфу, лучше использовать api кубернетеса и сервисные аккаунты.

Denis
05.07.2017
09:51:04
selectel vpc?
гляну спасибо

Khramov
05.07.2017
09:51:36
хотим Jenkins запустить в кубе, и чтобы пулил с гита образы при изменении и компилил их

Dmitry
05.07.2017
10:05:30
Ребят, а кто какие средства использует для мониторинга http запросов между сервисами внутри куба?

Khramov
05.07.2017
10:08:34
heapster

Andrey
05.07.2017
10:11:16
кто-нибудь сталкивался с этой мессагой? навскидку на что может ругаться? StatefulSet in version "v1beta1" cannot be handled as a StatefulSet: quantities must match the regular expression '^([+-]?[0-9.]+)([eEinumkKMGTP]*[-+]?[0-9]*)$' https://pastebin.com/Z6QzF7Cy

Google
Andrey
05.07.2017
10:16:31
я с деплоймента переделал, деплоймент норм запускался

(это кстати не лишний пробел, просто pastebin так отрендерил %(

Роман
05.07.2017
10:17:43
Да. Точно.

Andrey
05.07.2017
10:19:41
https://github.com/kubernetes/apimachinery/blob/master/pkg/api/resource/quantity.go вот тут ругается

не могу понять какую единицу измерения я неправильно написал / опустил

а все допер, сори :)

Admin
ERROR: S client not available

Andrey
05.07.2017
10:22:07
размер диска надо в Gi а не Gb, протупил

Dmitry
05.07.2017
10:45:31
можно подробнее?
Да, сейчас расскажу

Вообщем поднял кластер на CoreOS из 8 нод. Туда пересли внутренние сервисы, типа TeamCity, YouTrack, sentry, registry и прочее. Там же крутился ceph. Все это работало до тех пор, пока не начали переносить на кластер нагрузки с прода. После этого ноды начали умирать как мухи - одна за другой. Умирала нода, на которой был запущен именно этот контейнер. После этого под скедулился на другой ноде и умирала она. Ноды умирали по жесткому - уходили в ребут. Причина пока не ясна, т.к. системный раздел при загрузке вайпится. Что вообще происходит догадались не сразу. Сейчас потихоньку даем нагрузку и ждем когда ребутнется нода, чтобы посмотреть лог. Хотя не факт, что в логе что-то будет. Возможно происходит kernel panic, тогда врятли что-то запишется в лог. Это bare-metal. OVH. На машинах этого же класса прод живет спокойно под CentOS (без кубера). Собственно сейчас недеюсь получить какой то лог, а потом буду пробовать кубер завести под CentOS.

Mikhail
05.07.2017
12:29:49
у нас подобное было, но вроде как вылечилось (тьфу-тьфу) апдейтом ядра с 3.16 на 4.9, вертится на Debian

Paul
05.07.2017
12:30:46
Вообщем поднял кластер на CoreOS из 8 нод. Туда пересли внутренние сервисы, типа TeamCity, YouTrack, sentry, registry и прочее. Там же крутился ceph. Все это работало до тех пор, пока не начали переносить на кластер нагрузки с прода. После этого ноды начали умирать как мухи - одна за другой. Умирала нода, на которой был запущен именно этот контейнер. После этого под скедулился на другой ноде и умирала она. Ноды умирали по жесткому - уходили в ребут. Причина пока не ясна, т.к. системный раздел при загрузке вайпится. Что вообще происходит догадались не сразу. Сейчас потихоньку даем нагрузку и ждем когда ребутнется нода, чтобы посмотреть лог. Хотя не факт, что в логе что-то будет. Возможно происходит kernel panic, тогда врятли что-то запишется в лог. Это bare-metal. OVH. На машинах этого же класса прод живет спокойно под CentOS (без кубера). Собственно сейчас недеюсь получить какой то лог, а потом буду пробовать кубер завести под CentOS.
если не секрет - как решили проблему бэкапа? я сейчас изучаю варианты

Dmitry
05.07.2017
12:31:33
пока никак не решили

OVH предлагает 10TB за 64 евро кажется. Именно для бекапов. Доступ по FTP(S) и NFS. Вот думаем его и взять

а то S3 дороговато выйдет

причем уже успели ребутнуться все ноды из восьми)

Mikhail
05.07.2017
12:34:50
а версия докера?

Dmitry
05.07.2017
12:35:06
1.12.6

Altai
05.07.2017
12:35:46
@nailgunster, это история про развертывание с tectonic, так?

Google
Dmitry
05.07.2017
12:36:35
разворачивал своим провиженером https://github.com/nailgun/seedbox

но думаю суть не в этом

сейчас эта версия на всех нодах https://coreos.com/releases/#1353.7.0

в момент разворачивания она была latest stable

Paul
05.07.2017
12:40:20
пока никак не решили
я имел ввиду - у вас тот же ютрак уже перенесен в кубер, вы же делаете как-то его резервные копии?

Dmitry
05.07.2017
12:41:28
ютрек сам себя бекапит. там используется один вольюм для данных и один для бекапов

но надежного бекапа пока нет

Dmitry
05.07.2017
12:42:37
я это и написал выше)

пока с ребутами не разобрался, смысл что-то бекапить

Paul
05.07.2017
12:47:07
подход отличный. Я последние 2 месяца пытаюсь локализовать возможные риски, чтобы не уничтожить пользовательскую инфраструктуру случайной ошибкой (хотя кластер у меня уже 3 месяца как работает, в общем-то). :)

Dmitry
05.07.2017
12:51:12
кроме ютрека особо терять нечего. конфигурации в teamcity меняются редко, sentry больше как лог ошибок не более того. а вообще про бекапы согласен. как раз думал как это сделать до того как все посыпалось

Pavel
05.07.2017
12:52:32
бакулу натравите сырые диски срезать и всё тут :) ну если денег много можно акронис

Altai
05.07.2017
12:54:15
@nailgunster, тот же новоразвернутый через kubeadm. Стабильненько падает kube-dns в 1/3 2/3. Может ещё какое-нибудь дополнительное действие было там? :)

Dmitry
05.07.2017
12:59:55
когда нода сама уходит в ребут, у меня остается только два подозреваемых - железо или ядро. железо исключаю, т.к. история повторилась на восьми нодах из восьми и на таком же железе рядом стабильно работает CentOS. остается ядро. но чтобы не быть голословным, сейчас жду пока опять крашнется чтобы увидеть лог. там либо будет что-то интересное, либо он просто оборвется в произвольном месте, что скорее всего будет значить kernel panic…

Dmitry
05.07.2017
13:01:55
я мониторинг отключил

Страница 199 из 958