@kubernetes_ru

Страница 203 из 958
Айбелив
06.07.2017
19:56:30
я тут еще пару дней назад обновился до 1.7

теперь вот баги разгребаю

Let Eat
06.07.2017
19:56:41
(если kubeadm так не делает и токены для serviceaccount генерируются не из сертифкатов, то плюс ему в карму)

Айбелив
06.07.2017
19:57:26
(если kubeadm так не делает и токены для serviceaccount генерируются не из сертифкатов, то плюс ему в карму)
ещё как из сертификатов. Там помимо serviceaccout ещё config map'ы есть с сертификатами внутри

Google
Let Eat
06.07.2017
19:58:27
это наследство calico наверное? install-cni.sh?

Айбелив
06.07.2017
20:02:12
не, там "искакопки" прям в cluster-info cm запихнутый корневой

Let Eat
06.07.2017
20:02:54
забэкапили :)))

Айбелив
06.07.2017
20:03:04
лел, сейчас на третью багу наткнулся, нода не может зарегистрироваться (нода называется с большой буквы, а пытается зарегистрироваться с маленькой)

Let Eat
06.07.2017
20:03:35
все имена маленькие должны быть, оно там как-то в DNS попадает (или может попасть)

Айбелив
06.07.2017
20:03:51
https://github.com/kubernetes/kubernetes/blob/c8c4fff8be1c1da08a6dec37f8aee44e2a426456/plugin/pkg/admission/noderestriction/admission.go#L211

видимо весёлая сегодня ночь будет, завтра типа релиз, а я кластер развалил

пойду курну с горя

Let Eat
06.07.2017
20:05:29
зачем с отверткой в щиток лезть?)

работало ж

лампочки мигали

Khramov
06.07.2017
20:05:57
:D

Google
Айбелив
06.07.2017
20:11:01
в следующий раз буду себя бить по рукам

ибо с каждым минорным релизом конкурсы всё интернеснее и интереснее

Let Eat
06.07.2017
20:11:40
что там вкусного в 1.7? я еще не вчитывался

Айбелив
06.07.2017
20:11:56
local-volume

у нас самописная была, захотелось готовое

+ некоторые фиксы

Let Eat
06.07.2017
20:16:57
зачем он нужен?

hostPath обернутый же, нет?

Айбелив
06.07.2017
20:19:31
hostPath обернутый же, нет?
нужно привязывать поды к нодам и создавать шарды из volumes

Dmitry
06.07.2017
20:24:05
я помню мне тут говорили, что я неправильный, если хочу эту фичу. в итоге завел ceph, но скорости сети не хватило. тоже свой hostPath provisioner пришлось на коленке написать и плюс модифицировать kube-scheduler.

радует, что теперь это искаропки

Let Eat
06.07.2017
20:26:43
> нужно привязывать поды к нодам это и раньше было, нет? > создавать шарды из volumes не совсем понимаю, что это значит спрашиваю потому, что я может тоже хочу local volumes, но не знаю об этом

Dmitry
06.07.2017
20:27:36
теперь поды самому не надо привязывать, это делает scheduler на основе информации в PV

и теперь можно использовать PVC с local StorageClass ами

https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume

Айбелив
06.07.2017
20:30:18
именно

Dmitry
06.07.2017
20:32:44
@yourallah а что у ввас было самописное?

Айбелив
06.07.2017
20:32:57
не я писал, коллега

но что-то похожее, только чуть проще

Google
Айбелив
06.07.2017
20:33:16
и прям очень наколеночное

Dmitry
06.07.2017
20:34:19
у меня тоже) https://github.com/nailgun/k8s-hostpath-provisioner

Let Eat
06.07.2017
20:35:48
https://github.com/kubernetes-incubator/external-storage/tree/master/local-volume
я видимо EBS избалован, может на свое железе оно и полезно

Dmitry
06.07.2017
20:36:20
когда нет сети на 10Gbps очень полезно)

@rossmohax вы просили историю про CoreOS, прочитали?

Айбелив
06.07.2017
20:43:36
ды даже когда она есть, но хочется HA и мало пространства

Let Eat
06.07.2017
20:45:20
@rossmohax вы просили историю про CoreOS, прочитали?
про ребуты? там где "все ребутнулось, ничего непонятно"? :)

Dmitry
06.07.2017
20:46:20
оно самое) но в итоге то все факты говорят о том, что ядро там сыроватое. если end-user софт его в панику отправляет

если бы был прямой доступ к серверу, большее удалось бы выяснить

ну попробую теперь центос

Let Eat
06.07.2017
20:48:38
разве там нету консоли?

ну и sysctl kernel.panic=0 чтобы оно висело и ждало вас :)

Dmitry
06.07.2017
20:51:12
в OVH можно заказать доступ KVM-IP за несколько десятков евро. пару раз заказывал. но они блин после заказа еще могут протупить несколько дней. а лежачая нода проблемы вызывает. хотелось бы конечно побольше выяснить…

Let Eat
06.07.2017
20:52:24
удалите ноду из куба, скажите, что так и было

новую ноду взамен , а повисшая пусть висит пока KVM-IP не принесут

Dmitry
06.07.2017
20:52:46
дак у нас там local storage)

уже надоело эксперементировать

Let Eat
06.07.2017
20:53:23
local storage как -то переносится между нодами? (не знаком c OVH)

Dmitry
06.07.2017
20:53:54
нет. это bare metal

локальный диск просто

Google
Let Eat
06.07.2017
20:54:21
ну тогда в чем проблема. что нода висит в панике, но исключена из куба?

Dmitry
06.07.2017
20:54:22
и пока нода лежит - некоторые сервисы не могут работать

которые там данные хранят

Let Eat
06.07.2017
20:55:31
ааа, после перезагрузки она живой в строй возрващается?

Admin
ERROR: S client not available

Dmitry
06.07.2017
20:55:59
ну да. данные на диске то никто не трогает

Let Eat
06.07.2017
20:56:10
да , стремно тогда.

Айбелив
06.07.2017
21:00:23
а у нас KVM включен ^.^

Dmitry
06.07.2017
21:05:18
это где?

Айбелив
06.07.2017
22:09:27
Dmitry
07.07.2017
00:47:06
это на самом OVH? мы просто на SYS

Alexey
07.07.2017
06:48:12
Парни, а в кубах записывается нода для сервис дискавери, как например в консуле(some-machine.node.consul) в их DNS?

Robert
07.07.2017
07:45:51
Привет есем, есть тут кто практикующий React Server-side Rendering в контексте Docker/Kubernetes? Мы разбираемся с проблемой скорости рендеринга, которая отличается на порядок между локальными запусками и версиями в облаке на Google Cloud (50 vs 250ms), может у кого был подобный опыт?

Роман
07.07.2017
07:46:44
Попробую ещё раз. А вдруг!

Кто-нибудь деплоит проекты из гитлаба в кубер?

Айбелив
07.07.2017
07:57:28
Timur
07.07.2017
07:59:55
Кто-нибудь деплоит проекты из гитлаба в кубер?
Деплою на тестовое окружение только. На одном стейдже в раннере собираются образы и заливаются в реджестри. Если они собрались, то на следующем стейдже делается kubectl set image для деплоймента.

Делал по этому тутору: https://about.gitlab.com/2016/12/14/continuous-delivery-of-a-spring-boot-application-with-gitlab-ci-and-kubernetes/

Роман
07.07.2017
08:18:20
Деплою на тестовое окружение только. На одном стейдже в раннере собираются образы и заливаются в реджестри. Если они собрались, то на следующем стейдже делается kubectl set image для деплоймента.
У меня нубовский вопрос: не получается настроить гитлаб и кубер. Я включил интеграцию с кубером в проекте гитлаба. Там нужно указать токен и адрес аписервера, а также неймспейс. Я указал токен, который кубеадм сгенерил автоматом (при kubeadm init). Но пайплайн гитлаба говорит: $ kubectl get deployments -l app=$CI_ENVIRONMENT_SLUG Error from server (Forbidden): User "system:bootstrap:<токен-ид>" cannot list deployments.extensions in the namespace "test". (get deployments.extensions) Что ему ещё нужно?

Google
Artem
07.07.2017
08:22:24
у меня все довольно проще

только у нас gke

настроил gcloud sdk на раннере и с него просто через kubectl все делается

Роман
07.07.2017
08:28:49
К сожалению, у нас не gke

Роман
07.07.2017
09:08:31
Нужен токен default ServiceAccount этого nemespace
Именно его вписывать в настройки интеграции?

Igor
07.07.2017
09:09:18
С ним работает, но я предпочитаю сделать ещё один SA - deploy-robot и использовать его

Роман
07.07.2017
09:20:03
А подскажите по ролям и ролебиндингам: Создал я роль: rules: - apiGroups: - "" resources: - replicationcontrollers - services verbs: - post - put И для неё ролебиндинг. Но всё равно получаю ошибку: User "system:serviceaccount:<namespace>:default" cannot create replicationcontrollers in the namespace "<namespace>". (post replicationcontrollers) Что я делаю не так?

Andrey
07.07.2017
10:38:07
Ку! народ есть какой-то отдельынй чат по rancher - ?

Роман
07.07.2017
10:43:24
а ролебиндинг какой?
apiVersion: rbac.authorization.k8s.io/v1beta1 kind: RoleBinding metadata: name: gitlab-rolebinding namespace: <namespace> roleRef: apiGroup: rbac.authorization.k8s.io kind: Role name: gitlab subjects: - kind: ServiceAccount name: default namespace: <namespace>

Страница 203 из 958