@kubernetes_ru

Страница 750 из 958
Михаил
09.08.2018
22:09:44
ну твоё нежелание не решает проблему
оператор для куба! который оркестрирует lxc!

через либвиртъ

Andor
09.08.2018
22:10:02
но это получится куб в кубе

Vadim
09.08.2018
22:10:03
пока нет
А длкер выдержит хотя бы 100 контейнеров? А не страшно им всем одну ФС отдавать?

Google
Andor
09.08.2018
22:10:55
оператор для куба! который оркестрирует lxc!
есть же управлялка виртуалками через кубер

Михаил
09.08.2018
22:11:07
Andor
09.08.2018
22:11:13
ага

Vadim
09.08.2018
22:11:49
Есть и autoscaler'ы, пока только для aws, но это не предел

kvaps
09.08.2018
22:11:51


Andor
09.08.2018
22:12:01
там же как раз libvirt

Михаил
09.08.2018
22:12:19
а что не так?

Vadim
09.08.2018
22:12:26
Аки опеншлак с их undercloud и overcloud

nn
09.08.2018
22:14:39
ну мы будем тестировать контейнерд и cri-o
интересно, можно ли сделать ноду кубернетес как контейнер, впихнуть это в докер, и в контейнерах кубернетеса запустить еще один такой же слой...

Google
Михаил
09.08.2018
22:15:12
пошла ночная жара

nn
09.08.2018
22:15:24
можно
ого, пойду железо закупать под это дело

Vadim
09.08.2018
22:16:02
Вы там в своем барметале совсем от жизни отстали :)

Михаил
09.08.2018
22:16:19
со своей веселухой

kvaps
09.08.2018
22:16:51
а что не так?
не вижу причин решать следствие а не саму проблему, есть baremetal, я бы постарался сделать все возможное, что бы оставить его таким же baremetal, чем проще система - тем она стабильнее

Andor
09.08.2018
22:17:43
ну оттуда же и вопрос о стабильности доскера

Andor
09.08.2018
22:18:53
lxc и было решением этой проблемы, когда подов на ноде много не взлетало

Dmitry
09.08.2018
22:19:00
митап в записи можно посмотреть? ютуб говорит что все

Andor
09.08.2018
22:19:02
если есть решение получше - лично я буду рад

Михаил
09.08.2018
22:19:15
но обещали порезать

через 2 недели

Andor
09.08.2018
22:19:34
ну и как-то жирновато например отдавать целый хост с 256гб памяти под аписервер+етцд, если у тебя например все хосты одинаковые

kvaps
09.08.2018
22:19:50
если честно я не вижу причин почему это не должн работать, кроме как podCIDR предопределенный на ноду, но я не тестил, так что я хз

Dmitry
09.08.2018
22:19:59
Плз ссылочку на поток

Михаил
09.08.2018
22:20:06
https://www.youtube.com/watch?v=xzw1HMBMcR8

только в начало отматай

Google
kvaps
09.08.2018
22:21:22
ну и как-то жирновато например отдавать целый хост с 256гб памяти под аписервер+етцд, если у тебя например все хосты одинаковые
ну мое мнение что мастеру не нужно быть мощным, при желании ему и виртуалку выделить можно, или три

тупо под мастер

Andor
09.08.2018
22:21:37
но если виртуалку, то надо эти виртуалки тоже где-то запускать

kvaps
09.08.2018
22:21:50
а все остальное на baremethal

кстати ovirt так делает

стандартная установка в ha подразумевает установку мастера в ha-виртуалку

а он потом из этой виртуалки самими хостами рулит

Vadim
09.08.2018
22:23:23
ну мое мнение что мастеру не нужно быть мощным, при желании ему и виртуалку выделить можно, или три
Возле мастера еще неплохо рядом etcd иметь - и тут нужен быстрый io минимум

kvaps
09.08.2018
22:24:29
ну если нужен быстрый etcd то он вообще без проблем деплоится там же на baremethal

в трех экземплярах

Sergey
10.08.2018
03:24:39


Меня одного смущает этот слайд с выступления MailRu на последнем митапе?

Это же стандартный Baremetal кластер кубера в чем соль то их сервиса, если они делают тоже самое что и все?

Все сервисы примитивные и используются всеми подряд, каких то "Вау у них Envoy\Istio искаропки!" нет Может кто то сможет найти вкусности их облака?

Konstantin
10.08.2018
03:46:12
И без фото, карта и погнал
спустя 2 недели пришёл ответ ^_^ , но всё равно не даёт платёжный счёт создать, фото паспорта\карты ждёт )) This credit, along with your $300 GCP free trial, provides you with $500 to try Google Cloud Platform.

Twelfth
10.08.2018
05:23:02
kvaps
10.08.2018
05:56:58
А в чем допил заключается?
На хосте нужно добавить overlay модуль в автозагрузку echo overlay >> /etc/modules Добавить следующие строки в конфиг LXC-контейнера lxc.apparmor.profile: unconfined lxc.cap.drop: lxc.cgroup.devices.allow: a lxc.mount.auto: proc:rw sys:rw Начиная с v11.0, куб требует shared для маунтов. Грязный хак внутри контейнера: echo '#!/bin/sh -e mount --make-rshared /' > /etc/rc.local Плюс если планируете использовать HA, не мешало бы применить патч для проксмоса из этого баг репорта: https://bugzilla.proxmox.com/show_bug.cgi?id=1842 sed -i 's/forceStop => 1/forceStop => 0/' /usr/share/perl5/PVE/HA/Resources/PVECT.pm

Еще можно явно прописать следующие опции docker'у : --storage-driver overlay2 --iptables=false --ip-masq=false всегда так делаю [x]

Igor
10.08.2018
06:06:34
Кто-то успешно запускал Istio на minikube чтобы canary deploys с весами для endpoints работали?

Google
S
10.08.2018
06:12:57
Trial на GCP не все возможности открывает вам. У кого есть интерес попробовать hard way на железках Packet, всегда welcome

S
10.08.2018
06:23:54
верно

Alexander
10.08.2018
06:24:48
Извиняюсь, я только слышал про hard way, его можно пройти на виртуалках on premise ?

S
10.08.2018
06:25:03
нам нужны тестеры имплементация, от вас публичные ваши опыты

Hard way это значит все руками, так эффективно и максимальный опыт

Если будет замечен спрос с СНГ, будем открыты в Москве и Санкт-Петербурге. Точки уже выбраны:)

S
10.08.2018
06:34:28
@denyasmail нет

S
10.08.2018
06:37:04
Packet

Я к тому, выше дискусия на счет Trial GCP, пока не передейте оплачивемый план, доступы и ресурсы имеют значительный лимит. Надо понимать, что полный доступ в этой фазе никто не даст. Если для пару тестов хватает, тогда да - GCP даст потестить.

Многие пользуются всякими kops, pharmer, juju и удивляются что не подымаются Stacks, лимиты жесткие у GCP, еще тяжелей с AWS стало. Следят все что привышает лимит 3

Vadim
10.08.2018
06:49:29
FRA1 серый, AMS1 в основном желтый :( https://www.packet.net/bare-metal/locations/

S
10.08.2018
07:12:47
@vrutkovs актуальный статус Вы можете в любое время своим личным API запросить.



Mikhail
10.08.2018
07:15:48
нам нужны тестеры имплементация, от вас публичные ваши опыты
Если вы мне дадите ресурсов навсегда, я готов вписаться и выдать вам отчёт.

S
10.08.2018
07:20:47
@azalio заполните форму CNCF, https://github.com/cncf/cluster/issues/new

я продвину )

Vadim
10.08.2018
07:26:35
О, вы помогаете CNCF? Круто, спасибо

Google
Alexander
10.08.2018
08:25:23
Всем привет. А у кого-нибудь был опыт размещения k8s сразу в двух средах: в доверенной и DMZ. То есть как бы так изолировать ноды в DMZ и анально там все зарезать, чтобы у СБ не возникло вопросов

Maria
10.08.2018
08:31:32
Спасибо за вчерашний митап @DenisIzmaylov , ребят, спасибо за вопросы и проявленный интерес. Много спрашивали, что же мы делаем и предлагем в итоге)) 1) Вот опен сорсная платформа Containerum https://github.com/containerum/containerum/ UI для Kubernetes (принимаются любые пожелания, участие в добавлении функционала), попробовать ее можно и онлайн https://containerum.com/software/ . 2) Разворачиваем куб где угодно, любой версии и оказываем поддержку https://containerum.com/kubernetes/

Ivan
10.08.2018
08:35:03
этот коммент сделал наш вечер))) спасибо?
Я тоже от души посмеялся, сидя в зале)

Robert
10.08.2018
09:21:51
kubectl exec -ti <> /bin/sh не отдает консоль, стакливался кто нибудь?

после exit сессия завершается, но консоль не отвечает

Oleg ?
10.08.2018
09:32:08
Всем привет. Никто не подскажет в чем может быть дело. Есть deployment, три реплики, образы тянутся с приватного гитлаб регистри. Стабильно одна реплика не взлетает типа registry http access denied . Каждый раз это происходит на разных нодах. напрямую ssh и docker pull отрабатывает.

NAME READY STATUS RESTARTS AGE pod/my-service-55bc8c4b8-ng75s 0/1 ImagePullBackOff 0 1m pod/my-service-55bc8c4b8-sh8kj 1/1 Running 0 1m pod/my-service-55bc8c4b8-zglws 1/1 Running 0 1m

Valentin
10.08.2018
09:32:59
образы не могут тянуться из гитлаб регистри, они тянутся из докер регистри

Страница 750 из 958