Zon
Расскажите какие и насколько вам это понравилось :)
Стас Щетинников
Zon
Я пока посмотрел на fission и funktion и не могу сказать, что все просто и приятно...
Zon
Но есть ли другой опыт? Может я что-то не так делаю..
Стас Щетинников
ну это просто и приятно должно бвть для тех кто использует, а не сопровождает инфраструктуру
Zon
ну, не могу сказать, чтоб разработчики порадовались. для зависимостей отдельный контейнер самому собирать
Victor
Расскажите какие и насколько вам это понравилось :)
Я пробовал эти два + kubeless
Идея хорошая, но пока больше проблем чем пользы.
Если фичи из всех трех в один собрать то еще более менее
а так у одного крона нет, у другого flow(цепочек задач)
FAAS умеет метрики по функциям собирать, эти троя пока лимиты по ресурсам опять таки пока не задать
Dmitry
а кто знает, зачем в helm добавили серверную часть (tiller), чем не угодила прошлая реализация helmc? сейчас из-за этого проблемы с RBAC. в гугле искал - не нашел
Dmitry
вот собственно теперь думают какой костыль им добавить, чтобы RBAC работал https://github.com/kubernetes/helm/issues/1918
Dmitry
roleRef:
apiGroup: rbac.authorization.k8s.io
kind: ClusterRole
name: cluster-admin
subjects:
- kind: ServiceAccount
name: tiller
namespace: kube-system
Dmitry
ну как-то так
Dmitry
да это понятно. только после этого все кто имеет доступ к tiller, фактически получают cluster-admin
G72K
G72K
Так что смысла тоже не вижу. Моя версия - кому то хотелось grpc пощупать :)
Jev
Привет господа от Canonical
Alexey
и вам не хворать)
Jev
Кто нибудь в Бостон едет? https://www.openstack.org/summit/boston-2017/
Denis
Это прямо вопрос для @openstack_ru :)
Alexey
Dmitry
Jev
Там все уже все на Kubernetes делают :-)
Jev
Как раз обсуждал эту тему только что с City Network
Logan
Logan
а если у вас один аписерв - потенциально будут проблемы, ибо SPOF
Vladimir
ребят, подскажите один момент, не могу догнать никак. если мы делаем запрос в какой-то под, а этот под на другой машине, то как трафик идет? меня интересует с точки зрения security
я так понял, что kube-proxy этим заниматеся (в том числе iptables меняет в записимости от созданных сервисов), но как траффик с машины на машину попадает? kube-proxy торчит на каком-то порту?
G72K
Vladimir
в деве да, но в проде будет на calico скорее всего. в этом есть разница?
G72K
в flannel трафик из контейнера поднимается в flanneld , где он оборачивается по дефолту в vxlan , и отправляется на ноду где находится под назначения, там он принимается flanneld и извлекается оригинальный пакет из vxlan и отдается локальному поду
Vladimir
а что значит "отправляется на ноду где находится под назначения"? это значит там кто-то слушает какой-то порт?
M
а кто-нибудь использует rbd с hyperkube? как вы прописываете PATH, чтобы controller-manager увидел rbd ?
Sn00part
https://kubernetes.io/docs/concepts/storage/persistent-volumes/#ceph-rbd
Anonymous
сорян за оффтоп (хотя и не совсем оффтоп): кубернетес -> вся эта девопвсокая фигня на блидинг эдж
а есть актуальные ресурсы на русском про прометеусу, или как обычно?
Logan
Logan
Английский, в перспективе - китайский. Если нужно работать с промышленностью - имеет смысл учить немецкий и итальянский
Anonymous
ну как обычно, раньше русский запаздывал просто потому что позже доходило
а щас уже последние лет 5 я смотрю и смысла нет на русском искать, все равно те кому надо перешли давно на английские материалы
это норм, просто решил че-нить на канале спросить для поддержания флейма :)
Anonymous
про китайский тема кстати :)
Rustem
Японский тоже ничего
G72K
Dmitry
кто нибудь использует PodSecurityPolicy?
Dmitry
вкратце - оно не работает) вся суть раскрыта в последнем абзаце тут https://kubernetes.io/docs/concepts/policy/pod-security-policy/
PodSecurityPolicy authorization uses the union of all policies available to the user creating the pod and the service account specified on the pod. When pods are created via a Deployment, ReplicaSet, etc, it is Controller Manager that creates the pod… Access to given PSP policies for a user will be effective only when deploying Pods directly.
Dmitry
непонятно зачем вообще это тогда. надеюсь придумают что нибудь в следующих версиях
G72K
это разве не про доступ к PodSecurityPolicy Objects?
G72K
т..е абзац не про то, что полиси не будет применима для подов запущенных из deployment
Dmitry
по моему как раз про это
G72K
кажется, что про доступ, потому что "Access to given PSP policies", ну легко проверить, попробую на недел
Dmitry
но начинается со слов authorization uses the union of all **policies available to the user**
Dmitry
а так да, лучше проверить
Jev
Дамы и Господа добрый день с Boston Openstack Summit
Jev
Если у кого-то есть специфический интерес в определённом решении Kubernetes могу от вас поговорить тут с кем надо
Sn00part
вопрос из другой оперы немного, мурано совсем закопали или коммунити забрала?
Jev
https://kubernetes.io/docs/getting-started-guides/ubuntu/
Jev
Друзья из Мирантис придут спрошу
A
halp
А если в kubectl describe pvc есть евент
7m 7m 1 {persistentvolume-controller } Warning ProvisioningFailed Failed to provision volume with StorageClass "standard": rbd: create volume failed, err: exit status 1
где можно найти логи с причиной ошибки?
Logan
Logan
багов с провижнингом там два:
- если у вас включен страйпинг - том не монтируется. Проверяется просто - создайте том и подмонтируйте.
- в любом случае при монтировании тома появляется warning, о том у вас используется устаревший формат rbd. Это не лечится, есть патч, но в mainline его нет.
A
хм, спасибо
»все команды провижнинга
а их где найти?
G72K
Logan
Logan
Logan
но проблема там общая
A
https://github.com/kubernetes/kubernetes/blob/83846e3a6ad9baab92c266d2fbf086a87f110b9e/pkg/volume/rbd/rbd_util.go#L359 попробовал так создать,
в выводе rbd
protocol feature mismatch, my fffffffffff < peer 4000fffefdfffff missing 400000000000000
ну и действительно, в hyperkube у меня неправильный rbd с ceph version 0.80.7
Artem
Вопрос есть по кластеру версии 1.6.2 в gke
Есть pv который маунтится с nfs шары, на кластере версии 1.5.2 все отлично работает, на тестовом версии выше почему то с этим жи конфигами вместо pv из nfs куб нарезает диски в gcp, в чем может быть проблема?
Конфиг примерно такой:
apiVersion: v1
kind: PersistentVolume
metadata:
name: nfsshare
spec:
capacity:
storage: 20Gi
accessModes:
- ReadWriteMany
persistentVolumeReclaimPolicy: Recycle
nfs:
path: "/storage"
server: 10.x.x.x
---
apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: nfsshare
spec:
accessModes:
- ReadWriteMany
resources:
requests:
storage: 20GiИзменений в примерах конфигов по ссылкам в доках что-то не нашел.
Lex
привет, может кто сталкивался
Lex
сетаплю воркеры по https://github.com/kelseyhightower/kubernetes-the-hard-way/blob/818501707e418fc4d6e6aedef8395ca368e3097e/docs/06-kubernetes-worker.md
Lex
стартанули, сертификаты увидел, заапрувил, но ноды не добавились kubectl get nodes пустой
Lex
мало того, через некоторое время появились новые сертификаты на апрув
Lex
ну или подскажите, куда копать или как повысить болтливость лога
yolkov
--v=10
Zon
Вот у меня тоже задача - нужно подпихивать в поды большие куски моделей для ML. суммарно 3-4 гигабайта. Модели иногда обновляются. Сейчас есть ReadOnly диск в гугле, но обновлять его совсем неудобно. Какие есть варианты?
Zon
Под при старте эти модели грузит в память
Zon
Я думаю сделать дата-контейнеры, но скачивание их тоже займет немало времени
G72K
мы в AWS сделали DaemonSet, который скачивает новые версии баз и кладет их в фиксированное место на хосте, все кому надо, подключают его к себе и читают
Zon
"фиксированное место на хосте" - это хост вольюм?
G72K
да, предопределенный путь на хосте
G72K
просто есть соглашение: все базы лежат на хосте в папке /ebs
Logan
коллеги, а может мне кто-нибудь внятно объяснить, для чего нужен HELM? ведь есть же docker hub, а конфиги все равно каждый сам себе пишет. Или я что-то делаю не так?
G72K
докер имадж не описывает того, как запускать приложение