
Vitaliy
10.04.2017
09:12:42
я так плохо сказал?

Let Eat
10.04.2017
09:14:10
смысл фразы в том, что могут быть строгие секьюрити полиси, которые не дают никакого доступа за предел куба, только по особому исключению и проч. в этом случае адвертайзить какой-нибудь внешний Nginx не получится, так как он будет вне куба

Tigran
10.04.2017
10:32:31
немного оффтопик - у кого нибудь есть ссылка на чатик про ансибл?

Fike
10.04.2017
10:33:49
@pro_ansible кажется

Google

Fike
10.04.2017
10:34:00
угадал!

Tigran
10.04.2017
10:34:08
спасибо)

yolkov
10.04.2017
15:39:03
https://deis.com/blog/2017/deis-to-join-microsoft/

Denis
10.04.2017
15:39:57
Началось

Paul
10.04.2017
15:46:05
Хана deis-у теперь. Закопают.

Denis
10.04.2017
15:46:31
Да ну
Наоборот
Deis теперь может быть следующим слоем
Потому как Kubernetes не даёт полноценного Git Workflow

Paul
10.04.2017
15:50:50
так и не должен :)
мне кажется, что мс просто угробит разработку, вот и все

Михаил
10.04.2017
15:58:14
Родина им OpenShift дала, нет, мы обмажемся хельмом, сверху повесим DIES, будем говорить, что кактус горький и колючий, но кроваво красный энтерпрайз не будем использовать)
не могу остановиться)

Google

Zon
10.04.2017
18:15:26

Ihor
10.04.2017
18:20:22

Paul
10.04.2017
18:20:32

Ihor
10.04.2017
18:22:53
Во-первых, у Microsoft большие надежды и планы на Kubernetes. Люди уровня Brendan Burns не переходят в никуда.
Во-вторых, даже если Microsoft и угробит разработку Helm внутри компании, из комьюнити Helm никуда не денется - это полноценный официальный проект Kubernetes.

Paul
10.04.2017
18:44:23


Ihor
10.04.2017
18:46:05
Я-то прекрасно понимаю как это делается в нашем комьюнити.
Хелм - это не проект Майкрософта. Это проект Kubernetes. Нет репозитория microsoft/helm, есть kubernetes/helm. И все стратегические решения, которые могут повлиять на Helm, будут приниматься не Майкрософтом.
К счастью, я один из тех людей, которые имеют представление и влияние на подобные решения, так что я понимаю о чем я говорю.

Paul
10.04.2017
19:37:19

Vitaliy
11.04.2017
12:45:47
Господа, помогите понять.
Я хочу чтобы мой докер всегда обращался к приватному регистри.
я в /etc/docker/daemon.json прописываю registry-mirrors: ["fqdn:port"]
и... как только я делаю pull с моим тегом без указание регистри - оно не работает. если сделать pull с указанием регистри то работает
тож самое для кубернетеса. создал секрет с указанием сервера....
тот-же эффект
пихаю секрет в imagePullSecrets и оно работает только если указать имадж вместе с регистри

Fike
11.04.2017
12:49:26
https://www.google.ru/search?q=docker+default+registry
https://github.com/docker/docker/issues/11816
десять секунд на составление запроса к гуглу

Lupsick
11.04.2017
16:39:08
docker в coreos перестал отвечать вообще
что можно сделать?
docker ps стакается

Paul
11.04.2017
16:41:00

Lupsick
11.04.2017
16:44:55

Paul
11.04.2017
16:46:11
а у вас сислог не настроен?

Lupsick
11.04.2017
16:46:54
я не работал ни разу с coreos
объясните мне, пожалуйста, как проверять

Denis
11.04.2017
17:09:24
Лучше в @docker_ru :)

Google

Lupsick
11.04.2017
17:10:31

Denis
11.04.2017
17:13:46
А, тебе эти люди нужны, тогда в @coreos_ru

Ihor
11.04.2017
17:22:13

Paul
12.04.2017
14:48:45
коллеги, есть ли тут кто-нибудь, кто использует ceph rbd как хранилище данных? Нужна консультация

Denis
12.04.2017
14:51:12
@SinTeZoiD
Но вообще даже @ceph_ru есть :)

Михаил
12.04.2017
14:51:33
и ты там есть, ага)
и там даже есть те кто это делал

Denis
12.04.2017
14:51:48
Шах и мат

Михаил
12.04.2017
14:51:49
и запихивал ceph в докер

Denis
12.04.2017
14:51:55
И выпихивал?

Михаил
12.04.2017
14:52:24

Paul
12.04.2017
14:58:42
это больше по кубу вопрос, нежели по цефу. Ок, спрошу сначала там, но подозреваю что потом придется спрашивать тут

Stanislav
12.04.2017
15:38:15

Paul
12.04.2017
15:39:09
сейчас споткнулся вот о такую ошибку: ProvisioningFailed storageclass.storage.k8s.io "slow" not found
при этом storageClass присутствует:
apiVersion: storage.k8s.io/v1beta1
kind: StorageClass
metadata:
name: slow
provisioner: kubernetes.io/rbd
parameters:
monitors: 172.16.0.1:6789,172.16.0.2:6789,172.16.0.3:6789
adminId: admin
adminSecretName: ceph-secret-admin
adminSecretNamespace: "kube-system"
pool: kube
userId: kube
userSecretName: ceph-secret-user
claim:
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: myclaim
spec:
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 10Mi
storageClassName: slow

Let Eat
12.04.2017
15:40:04
1.6?

Paul
12.04.2017
15:40:15
да

Admin
ERROR: S client not available

Google

Paul
12.04.2017
15:40:33
там где-то синтаксис поменялся?

Igor
12.04.2017
15:41:32
kubectl describe storageclasses slow

Let Eat
12.04.2017
15:41:53
они переезжали с аннотаций на ключи полноценные, может переименовали чего.

Paul
12.04.2017
15:42:32
root@app1 ~ # kubectl describe storageclass slow
Name: slow
IsDefaultClass: No
Annotations: <none>
Provisioner: kubernetes.io/rbd
Parameters: adminId=admin,adminSecretName=ceph-secret-admin,adminSecretNamespace=kube-system,monitors=172.16.0.1:6789,172.16.0.2:6789,172.16.0.3:6789,pool=kube,userId=kube,userSecretName=ceph-secret-user
Events: <none>

Igor
12.04.2017
15:42:36
вообще динамический провизионинг работает если rbd утилита присутствует там, где apiserver

Paul
12.04.2017
15:42:46
она присутсвует, это точно

Igor
12.04.2017
15:43:22
apiserver запущен как сервис на хосте или в статическом поде?

Paul
12.04.2017
15:43:37
сервис.

Igor
12.04.2017
15:44:24
тогда вроде все верно, но я бы сначала протестировал, не динамический, а простой провизионинг

Paul
12.04.2017
15:44:54
он тоже не работает, но иначе. В какой момент должен создаваться rbd image? на pv, claim или при утилизации?

Igor
12.04.2017
15:45:50
смотреть так же полезно с помощью describe сам claim
kind: PersistentVolume
apiVersion: v1
metadata:
name: rbd-prometheus-volume
labels:
kubernetes.io/cluster-service: "true"
spec:
capacity:
storage: 8Gi
accessModes:
- ReadWriteOnce
rbd:
monitors:
{% for item in k8s_storage_hosts %}
- {{ item }}:{{ ceph_monitor_port }}
{% endfor %}
pool: rbd
image: prometheus
user: admin
keyring: /etc/ceph/ceph.client.admin.keyring
secretRef:
name: ceph-secret
fsType: xfs
readOnly: false
persistentVolumeReclaimPolicy: {{ k8s_volume_reclaim_policy }}
---
вот намирмер для такого имидж создается заранее и форматируется xfs
rbd create prometheus --size 8G --pool rbd --image-feature layering
rbd map prometheus
mkfs.xfs /dev/rbd/rbd/prometheus
rbd unmap /dev/rbd/rbd/prometheus

Paul
12.04.2017
15:49:27
вопрос в том, можно ли не создавать и форматировать имидж заранее?
сам куб не будет это делать?

Igor
12.04.2017
15:50:35
в не динамическом провижионинге точно не будет
но убедиться - проверить что все работает лучше на нём
значит надо создать для тестов и отформатировать, потом смотреть что с динамикой
Извиняюсь, мне нужно идти, надеюсь чем-то помог :)

M
13.04.2017
09:55:24

Google

M
13.04.2017
09:55:27
как то так
https://github.com/kubernetes/kubernetes/commit/e4ec433470bb8d23e750a477d22657e3a4a53b83

Алексей
13.04.2017
11:10:21
https://habrahabr.ru/company/flant/blog/326414/

Zon
13.04.2017
11:24:46
Я пытаюсь из CI напрямую helm использовать, но не понятно, как безопасно к tiller серверу подключиться. Есть идеи? Кто-то пытался?
Ключевой момент - не использовать k8s credentials

Dmitry
13.04.2017
11:44:36
ingress для него c TLS

Zon
13.04.2017
12:48:02
И TLS клиент серт?