Logan
Sn00part
http://contiv.github.io
Sn00part
есть кто делал/хочет такое сделать?
Sn00part
если кому то интересно такое по работе пишите в личку, обсудим
Sn00part
также интересны экспертные мнения по данному вопросу.
G72K
не знаю чем contiv хороши, но вот есть перцы https://www.aporeto.com/product/ , которые очень интересно внедряют информацию о приложении ( JWT токен кажется или ссылку где его найти) внутрь SYN/SYN-ACK/ACK хэндшейка :) В итоге в момент хендшейка уже ясно, кто стучится и имеет ли право, так же все проверки только вовремя этих трех пакетов происходит,после них уже никакого оверхеда - просто данные льются напрямую, как будто и не было ничего :)
G72K
вот это: https://github.com/aporeto-inc/trireme
Sn00part
contiv с Cisco дружит. если есть у кого ACI или CliQr
Pavel
contiv и есть циско, у этих прожектов немного разные назначения
Sn00part
есть у кого позитивный опыт или желание его приобрести?
Pavel
под эту срань нужен как минимум рукастый сетевик
Pavel
Pavel
эт для ооооч больших интерпрайзов, кажется
Pavel
дааааа, они это намутили чтоб ту всю секурити что в обычных сетях у них есть, распространить и на псевдосети контейнеров...
Pavel
Pavel
коты, налетай
Sn00part
вот и я про что.
A
Верно понимаю, что с Docker 17.06 Kubernetes пока не поднять?
A
Ещё вот такую дичь обнаружил: https://github.com/coreos/tectonic-installer
Кто-нибудь использовал?
Dmitry
в случае ceph, volume тупо удаляется без возможности восстановления. и как я понял это стандартная политика для dynamic PV provisioning
Dmitry
A
Пытаюсь поднять с помощью kubeadm, упорно flannel 1/2, время от времени проскакивает "Ready".
kubeadm init --pod-network-cidr=10.244.0.0/16
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
Собственно, ЧЯДНТ?
В syslog пачки сообщений о том, что тот или иной контейнер не найден, вида
445 cni.go:258] CNI failed to retrieve network namespace path: Cannot find network namespace for the terminated container "5db3f6...
Затем
445 cni.go:294] Error adding network: open /run/flannel/subnet.env: no such file or directory
Jul 5 04:42:02 localhost kubelet[445]: E0705 04:42:02.214693 445 cni.go:243] Error while adding to cni network: open /run/flannel/subnet.env: no such file or directory
И другие ошибки, связанные с subnet.env-файлом. Почему flannel его не генерирует? :(
G72K
Роман
Denis
а кто нибудь прикручивал linkerd или istio? Мне очень нравится идея по максимуму делегировать инфраструктуре такие штуки как circuit breaker, retry policy, метрики L4 и L7, всякие service dicovery
A
Какая версия Docker?
A
У меня работает.
Igor
Роман
этот варнинг с версии 1.7 убрали
[kubeadm] WARNING: kubeadm is in beta, please do not use it for production clusters.
[init] Using Kubernetes version: v1.7.0
[init] Using Authorization modes: [Node RBAC]
[preflight] Running pre-flight checks
[preflight] WARNING: docker version is greater than the most recently validated version. Docker version: 17.06.0-ce. Max validated version: 1.12
Igor
хм
A
@tetramin, та же версия, также пробовал и на 17.05 на "чистой" машинке. Какие-то дополнительные действия при поднятии делались, кроме
kubeadm init --pod-network-cidr=10.244.0.0/16
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
?
Оно секунд 20 в Ready после переезагрузки, а потом бесконечно падает в 1/2.
Роман
A
А при включении rbac дополнительно придется указывать всякое там только своим подам, kubernetes с собственными разберется сам?
A
Хм... Надо же. И действительно, теперь "running" всё. Спасибо. :З
Khramov
Ребят, как лучше прокинуть docker.sock с хоста внутрь пода?
Салтыдык
Denis
А кто нибудь знает аналог AWS с датацентрами в России?
Andrey
Khramov
хотим Jenkins запустить в кубе, и чтобы пулил с гита образы при изменении и компилил их
Dmitry
Ребят, а кто какие средства использует для мониторинга http запросов между сервисами внутри куба?
Khramov
heapster
Anonymous
кто-нибудь сталкивался с этой мессагой? навскидку на что может ругаться?
StatefulSet in version "v1beta1" cannot be handled as a StatefulSet: quantities must match the regular expression '^([+-]?[0-9.]+)([eEinumkKMGTP]*[-+]?[0-9]*)$'
https://pastebin.com/Z6QzF7Cy
Роман
Anonymous
я с деплоймента переделал, деплоймент норм запускался
Anonymous
(это кстати не лишний пробел, просто pastebin так отрендерил %(
Роман
Да. Точно.
Anonymous
https://github.com/kubernetes/apimachinery/blob/master/pkg/api/resource/quantity.go вот тут ругается
Anonymous
не могу понять какую единицу измерения я неправильно написал / опустил
Anonymous
а все допер, сори :)
Anonymous
размер диска надо в Gi а не Gb, протупил
Dmitry
Вообщем поднял кластер на CoreOS из 8 нод. Туда пересли внутренние сервисы, типа TeamCity, YouTrack, sentry, registry и прочее. Там же крутился ceph. Все это работало до тех пор, пока не начали переносить на кластер нагрузки с прода. После этого ноды начали умирать как мухи - одна за другой. Умирала нода, на которой был запущен именно этот контейнер. После этого под скедулился на другой ноде и умирала она. Ноды умирали по жесткому - уходили в ребут. Причина пока не ясна, т.к. системный раздел при загрузке вайпится.
Что вообще происходит догадались не сразу. Сейчас потихоньку даем нагрузку и ждем когда ребутнется нода, чтобы посмотреть лог. Хотя не факт, что в логе что-то будет. Возможно происходит kernel panic, тогда врятли что-то запишется в лог.
Это bare-metal. OVH. На машинах этого же класса прод живет спокойно под CentOS (без кубера).
Собственно сейчас недеюсь получить какой то лог, а потом буду пробовать кубер завести под CentOS.
Knyage
у нас подобное было, но вроде как вылечилось (тьфу-тьфу) апдейтом ядра с 3.16 на 4.9, вертится на Debian
Logan
Вообщем поднял кластер на CoreOS из 8 нод. Туда пересли внутренние сервисы, типа TeamCity, YouTrack, sentry, registry и прочее. Там же крутился ceph. Все это работало до тех пор, пока не начали переносить на кластер нагрузки с прода. После этого ноды начали умирать как мухи - одна за другой. Умирала нода, на которой был запущен именно этот контейнер. После этого под скедулился на другой ноде и умирала она. Ноды умирали по жесткому - уходили в ребут. Причина пока не ясна, т.к. системный раздел при загрузке вайпится.
Что вообще происходит догадались не сразу. Сейчас потихоньку даем нагрузку и ждем когда ребутнется нода, чтобы посмотреть лог. Хотя не факт, что в логе что-то будет. Возможно происходит kernel panic, тогда врятли что-то запишется в лог.
Это bare-metal. OVH. На машинах этого же класса прод живет спокойно под CentOS (без кубера).
Собственно сейчас недеюсь получить какой то лог, а потом буду пробовать кубер завести под CentOS.
если не секрет - как решили проблему бэкапа? я сейчас изучаю варианты
Dmitry
пока никак не решили
Dmitry
OVH предлагает 10TB за 64 евро кажется. Именно для бекапов. Доступ по FTP(S) и NFS. Вот думаем его и взять
Dmitry
а то S3 дороговато выйдет
Dmitry
Dmitry
причем уже успели ребутнуться все ноды из восьми)
Knyage
а версия докера?
Dmitry
1.12.6
A
@nailgunster, это история про развертывание с tectonic, так?
Dmitry
разворачивал своим провиженером https://github.com/nailgun/seedbox
Dmitry
но думаю суть не в этом
Dmitry
сейчас эта версия на всех нодах https://coreos.com/releases/#1353.7.0
Dmitry
в момент разворачивания она была latest stable
Logan
пока никак не решили
я имел ввиду - у вас тот же ютрак уже перенесен в кубер, вы же делаете как-то его резервные копии?
Dmitry
ютрек сам себя бекапит. там используется один вольюм для данных и один для бекапов
Dmitry
но надежного бекапа пока нет
Logan
Dmitry
я это и написал выше)
Dmitry
пока с ребутами не разобрался, смысл что-то бекапить