Mikhail
14.09.2017
10:47:25
о,спасибо :)
Mikhail
14.09.2017
11:32:21
http://container-solutions.com/kubernetes-hard-way-explained-chapter-1/?utm_source=telegram.me&utm_medium=social&utm_campaign=v-bloge-container-solutions-nachalas-ser - разжуют в рот положат!
dk
14.09.2017
11:42:32
Mikhail
14.09.2017
11:43:44
я хз
Google
Roman
14.09.2017
11:44:04
Нет. На самом деле это реклама серой толстовки :)
Сергей
14.09.2017
11:46:33
это скрытая реклама гугло клауда
кто спонсирует того и рекламируют
там как бы цель на примере одного провайдера показать как сие дело ставится
плюс кубернетс сообщество на всех митапах говорит юзайте или gke или вариант от ажура
все остальные варианты - ваша личная попоболь
Mikhail
14.09.2017
12:00:36
кто знает что будет если у меня 3 апи сервера, а тут --apiserver-count int написано 2? )
Andrey
14.09.2017
12:02:12
Я несколько контор вживую видел, кто живет на опеншифт - сборка от редхата.
Mikhail
14.09.2017
12:02:14
(я пока не заметил негативных последствий)
Lev
14.09.2017
12:20:48
k8s 1.7.6 is out
bebebe
14.09.2017
12:26:12
k8s 1.7.6 is out
https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG.md#changelog-since-v175
Mikhail
14.09.2017
12:27:11
:)
Google
Nikita Kurinnyi
14.09.2017
12:29:15
Не подскажете как лечить такую ошибку?
FailedSync Error syncing pod
причем не полнятно почему, вроде саммый обычный deployment
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: elasticsearch
labels:
app: elasticsearch
cmp: services
spec:
replicas: 1
template:
metadata:
labels:
app: elasticsearch
cmp: services
spec:
containers:
- name: main
image: elasticsearch:5.5.2
imagePullPolicy: Always
ports:
- name: elastic
containerPort: 9200
protocol: TCP
Maksim
14.09.2017
13:09:58
filed sync pod значит кублет не может получить статус от контейнера
Let Eat
14.09.2017
13:18:41
bebebe
14.09.2017
13:20:10
забавно было бы этого бота в телеграм
Magistr
14.09.2017
13:21:03
а есть такой у цивила
Mikhail
14.09.2017
13:31:08
Nikita Kurinnyi
14.09.2017
13:34:06
там трабла была в 5 эластики, он сильно много оперативы просил при старте
Let Eat
14.09.2017
13:34:16
подробнее https://github.com/kubernetes/kubernetes/issues/22609
Mikhail
14.09.2017
13:36:19
я его не использую
но спасибо!
Maksim
14.09.2017
13:43:49
Ребят, а можено задать какой-то скрипт, который будет запускаться в поде после его старта, но не заменяя entrypoint и command у контейнера
?
Let Eat
14.09.2017
13:44:02
очень вероятно, что используете. все контроллеры внутри ходят туда (nginx-ingress, external-dns, какой-нибудь prometheus operator)
Maksim
14.09.2017
13:44:44
-)
Let Eat
14.09.2017
13:45:19
https://kubernetes.io/docs/tasks/configure-pod-container/attach-handler-lifecycle-event/
Mikhail
14.09.2017
13:48:58
Google
Let Eat
14.09.2017
13:51:51
ну вот dashboard туда и ходит точно :)
Mikhail
14.09.2017
13:52:39
Но у меня нет кластер днс )
Let Eat
14.09.2017
13:53:46
Alisa
14.09.2017
20:27:42
@DenisIzmaylov
вот ребята сделали хорошего чистильщика спама
@daysandbox_bot
он по определенным паттернам удаляет сразу же сообщения и пишет причину
Denis
14.09.2017
21:46:40
Наши друзья в Telegram обещают скоро допилить алгоритм антиспам
Вах
Ark — утилита от Heptio для Kubernetes кластеров.
Позволяет создавать/восстанавливать бекапы текущего состояния кластера, создавать идентичные окружения, переносить конфигурацию между различными облачными провайдерами.
https://goo.gl/6JLkjY
Mikhail
15.09.2017
08:36:44
Отличные новости:)
Dmitry
15.09.2017
08:42:18
Paul
15.09.2017
08:45:59
ну зачем? Эту задачу решает полтора скрипта на bash
Let Eat
15.09.2017
08:47:45
Paul
15.09.2017
08:48:03
а еще и jetbrains ide подарит
Roman
15.09.2017
09:14:42
странный вопрос... а как переустановить kubernetes-dashboard ?
Let Eat
15.09.2017
09:20:21
удалить pod
Maksim
15.09.2017
09:20:23
всмысле?
или деплой)))
Roman
15.09.2017
09:23:33
сделал так:
kubectl delete -f https://git.io/kube-dashboard
kubectl create -f https://git.io/kube-dashboard
и теперь
kube-system kubernetes-dashboard-3313488171-lkm1h 0/1 CrashLoopBackOff
и ни туда ни сюда..
Paul
15.09.2017
09:25:04
а что происходит? появился ли деплоймент? а контейнеры?
Google
Roman
15.09.2017
09:28:19
Sep 15 12:27:29 node-02 kubelet[1483]: E0915 12:27:29.378075 1483 pod_workers.go:182] Error syncing pod d066007b-99f7-11e7-aac1-443322110001 ("kubernetes-dashboard-3313488171-x82k6_kube-system(d066007b-99f7-11e7-aac1-443322110001)"), skipping: failed to "StartContainer" for "kubernetes-dashboard" with CrashLoopBackOff: "Back-off 20s restarting failed container=kubernetes-dashboard pod=kubernetes-dashboard-3313488171-x82k6_kube-system(d066007b-99f7-11e7-aac1-443322110001)"
в логе :-/
контейнер 'k8s_kubernetes-dashboard_kubernetes-dashboard....' в докере есть
Let Eat
15.09.2017
09:31:26
надо смотреть kubectl logs
Jaroslav
15.09.2017
09:35:52
Господа, а как снести куб на центосе со всеми настройками и прочим, чтобы поставить его с нуля, если просто уum'ом удалить, то после установки он снова в предыдущем (кривом) состоянии, etcd тоже удалял, результата 0
Admin
Maksim
15.09.2017
09:36:00
смотри логи пода, явно ошибка найстройки
Roman
15.09.2017
09:36:04
"configured logging driver does not support reading" :)
Maksim
15.09.2017
09:36:20
))))
переоди логи докера в json
и перезапускай докер
после анализируй логи
Roman
15.09.2017
09:36:59
а, у меня там syslog прописан.. ok
Jaroslav
15.09.2017
09:45:51
purge??
Не совсем, я по своей криворукости убил системный неймспейс
А потом уже решил все переустановить
Maksim
15.09.2017
09:46:24
Дык ну создай...
Kubectl create namespace kube-system
Jaroslav
15.09.2017
09:47:46
Так он же не пересоздаст свои поды днс и прочего
Только неймспейс
Google
Maksim
15.09.2017
09:55:27
ыдк потом зайди на github
и сделай деплои
все деплои лежат открыто на гитхабе
Jaroslav
15.09.2017
10:06:16
Окей, спасибо!
Maksim
15.09.2017
10:08:39
по сути тебе нужно поднять
1. DNS
2. heapster+influxdb
3. dashboard
4. loggeing (elk)
Jaroslav
15.09.2017
10:23:44
На самом деле я нашёл способ выпилить все окончательно и переставить с kubeadm
Paul
15.09.2017
10:24:57
P.
15.09.2017
13:12:52
Допустим есть много разнородного софта, который периодически надо обновлять (дженкинс, базы данных, версии кубернитеса / нод в GCP, сюда же фреймворки и библиотеки)
Как принято за этим всем следить чтобы вещи не оставались на старых версиях?
Andrey
15.09.2017
16:49:04
Пока один вариант - helm ± dockerhub
P.
15.09.2017
20:06:53
У меня итак все через докерхаб настроено. Helm обязательно посмотрю подробнее.
Я скорее имел в виду какие-нибудь не совсем технологические решения.
Что мне пришло в голову: устроить "день апгрейдов" каждый месяц в который проходишься по списку софта, узнаешь не вышло ли новой версии и обновляешь
Пока один вариант - helm ± dockerhub