@kubernetes_ru

Страница 270 из 958
Mikhail
14.09.2017
10:47:25
о,спасибо :)

Mikhail
14.09.2017
11:32:21
http://container-solutions.com/kubernetes-hard-way-explained-chapter-1/?utm_source=telegram.me&utm_medium=social&utm_campaign=v-bloge-container-solutions-nachalas-ser - разжуют в рот положат!

dk
14.09.2017
11:42:32
https://github.com/kelseyhightower/kubernetes-the-hard-way Оно?
Это точно не реклама гугель-клауда?

Mikhail
14.09.2017
11:43:44
я хз

Google
Roman
14.09.2017
11:44:04
Нет. На самом деле это реклама серой толстовки :)

Сергей
14.09.2017
11:46:33
это скрытая реклама гугло клауда

кто спонсирует того и рекламируют

там как бы цель на примере одного провайдера показать как сие дело ставится

плюс кубернетс сообщество на всех митапах говорит юзайте или gke или вариант от ажура

все остальные варианты - ваша личная попоболь

Mikhail
14.09.2017
12:00:36
кто знает что будет если у меня 3 апи сервера, а тут --apiserver-count int написано 2? )

Andrey
14.09.2017
12:02:12
Я несколько контор вживую видел, кто живет на опеншифт - сборка от редхата.

Mikhail
14.09.2017
12:02:14
(я пока не заметил негативных последствий)

Lev
14.09.2017
12:20:48
k8s 1.7.6 is out

bebebe
14.09.2017
12:26:12
k8s 1.7.6 is out
https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG.md#changelog-since-v175

Mikhail
14.09.2017
12:27:11
:)



Google
Nikita Kurinnyi
14.09.2017
12:29:15
Не подскажете как лечить такую ошибку? FailedSync Error syncing pod

причем не полнятно почему, вроде саммый обычный deployment apiVersion: extensions/v1beta1 kind: Deployment metadata: name: elasticsearch labels: app: elasticsearch cmp: services spec: replicas: 1 template: metadata: labels: app: elasticsearch cmp: services spec: containers: - name: main image: elasticsearch:5.5.2 imagePullPolicy: Always ports: - name: elastic containerPort: 9200 protocol: TCP

Maksim
14.09.2017
13:09:58
filed sync pod значит кублет не может получить статус от контейнера

Let Eat
14.09.2017
13:18:41
кто знает что будет если у меня 3 апи сервера, а тут --apiserver-count int написано 2? )
норм, они будут подменять свою запись в днс постоянно, но зато если 1 уйдет в даун, то висячей записи не останется

bebebe
14.09.2017
13:20:10
забавно было бы этого бота в телеграм

Magistr
14.09.2017
13:21:03
а есть такой у цивила

Nikita Kurinnyi
14.09.2017
13:34:06
там трабла была в 5 эластики, он сильно много оперативы просил при старте

Let Eat
14.09.2017
13:34:16
у меня bare-metal и запись одна на 3
внутри куба есть свой dns, вот в нем есть запись kubernetes.default.svc.cluster.local вот в нее и добавляют свои ип

подробнее https://github.com/kubernetes/kubernetes/issues/22609

Mikhail
14.09.2017
13:36:19
я его не использую

но спасибо!

Maksim
14.09.2017
13:43:49
Ребят, а можено задать какой-то скрипт, который будет запускаться в поде после его старта, но не заменяя entrypoint и command у контейнера

?

Let Eat
14.09.2017
13:44:02
очень вероятно, что используете. все контроллеры внутри ходят туда (nginx-ingress, external-dns, какой-нибудь prometheus operator)

Maksim
14.09.2017
13:44:44
-)

Let Eat
14.09.2017
13:45:19
https://kubernetes.io/docs/tasks/configure-pod-container/attach-handler-lifecycle-event/

Mikhail
14.09.2017
13:48:58
очень вероятно, что используете. все контроллеры внутри ходят туда (nginx-ingress, external-dns, какой-нибудь prometheus operator)
`$ kubectl get deploy --all-namespaces NAMESPACE NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE kube-system kube-state-metrics 1 1 1 1 1d kube-system kubernetes-dashboard 1 1 1 1 1d` )

Google
Let Eat
14.09.2017
13:51:51
ну вот dashboard туда и ходит точно :)

Mikhail
14.09.2017
13:52:39
Но у меня нет кластер днс )

Let Eat
14.09.2017
13:53:46
Но у меня нет кластер днс )
ааа! вижу. ну дела )

Alisa
14.09.2017
20:27:42
@DenisIzmaylov вот ребята сделали хорошего чистильщика спама @daysandbox_bot он по определенным паттернам удаляет сразу же сообщения и пишет причину

Denis
14.09.2017
21:46:40
Наши друзья в Telegram обещают скоро допилить алгоритм антиспам

Вах

Ark — утилита от Heptio для Kubernetes кластеров. Позволяет создавать/восстанавливать бекапы текущего состояния кластера, создавать идентичные окружения, переносить конфигурацию между различными облачными провайдерами. https://goo.gl/6JLkjY

Mikhail
15.09.2017
08:36:44
Отличные новости:)

Paul
15.09.2017
08:45:59
ну зачем? Эту задачу решает полтора скрипта на bash

Let Eat
15.09.2017
08:47:45
ну зачем? Эту задачу решает полтора скрипта на bash
как зачем? "опыт написания Kubernetes controllers" само в резюме не появится

Paul
15.09.2017
08:48:03
а еще и jetbrains ide подарит

Roman
15.09.2017
09:14:42
странный вопрос... а как переустановить kubernetes-dashboard ?

Let Eat
15.09.2017
09:20:21
удалить pod

Maksim
15.09.2017
09:20:23
всмысле?

или деплой)))

Roman
15.09.2017
09:23:33
сделал так: kubectl delete -f https://git.io/kube-dashboard kubectl create -f https://git.io/kube-dashboard и теперь kube-system kubernetes-dashboard-3313488171-lkm1h 0/1 CrashLoopBackOff

и ни туда ни сюда..

Paul
15.09.2017
09:25:04
а что происходит? появился ли деплоймент? а контейнеры?

Google
Roman
15.09.2017
09:28:19
Sep 15 12:27:29 node-02 kubelet[1483]: E0915 12:27:29.378075 1483 pod_workers.go:182] Error syncing pod d066007b-99f7-11e7-aac1-443322110001 ("kubernetes-dashboard-3313488171-x82k6_kube-system(d066007b-99f7-11e7-aac1-443322110001)"), skipping: failed to "StartContainer" for "kubernetes-dashboard" with CrashLoopBackOff: "Back-off 20s restarting failed container=kubernetes-dashboard pod=kubernetes-dashboard-3313488171-x82k6_kube-system(d066007b-99f7-11e7-aac1-443322110001)"

в логе :-/

контейнер 'k8s_kubernetes-dashboard_kubernetes-dashboard....' в докере есть

Let Eat
15.09.2017
09:31:26
надо смотреть kubectl logs

Jaroslav
15.09.2017
09:35:52
Господа, а как снести куб на центосе со всеми настройками и прочим, чтобы поставить его с нуля, если просто уum'ом удалить, то после установки он снова в предыдущем (кривом) состоянии, etcd тоже удалял, результата 0

Admin


Maksim
15.09.2017
09:36:00
смотри логи пода, явно ошибка найстройки

Roman
15.09.2017
09:36:04
"configured logging driver does not support reading" :)

Roman
15.09.2017
09:36:59
а, у меня там syslog прописан.. ok

Jaroslav
15.09.2017
09:45:51
purge??
Не совсем, я по своей криворукости убил системный неймспейс

А потом уже решил все переустановить

Maksim
15.09.2017
09:46:24
Дык ну создай...

Kubectl create namespace kube-system

Jaroslav
15.09.2017
09:47:46
Так он же не пересоздаст свои поды днс и прочего

Только неймспейс

Google
Maksim
15.09.2017
09:55:27
ыдк потом зайди на github

и сделай деплои

все деплои лежат открыто на гитхабе

Jaroslav
15.09.2017
10:06:16
Окей, спасибо!

Maksim
15.09.2017
10:08:39
по сути тебе нужно поднять

1. DNS

2. heapster+influxdb

3. dashboard

4. loggeing (elk)

Jaroslav
15.09.2017
10:23:44
На самом деле я нашёл способ выпилить все окончательно и переставить с kubeadm

P.
15.09.2017
13:12:52
Допустим есть много разнородного софта, который периодически надо обновлять (дженкинс, базы данных, версии кубернитеса / нод в GCP, сюда же фреймворки и библиотеки) Как принято за этим всем следить чтобы вещи не оставались на старых версиях?

Andrey
15.09.2017
16:49:04
Пока один вариант - helm ± dockerhub

P.
15.09.2017
20:06:53
У меня итак все через докерхаб настроено. Helm обязательно посмотрю подробнее. Я скорее имел в виду какие-нибудь не совсем технологические решения. Что мне пришло в голову: устроить "день апгрейдов" каждый месяц в который проходишься по списку софта, узнаешь не вышло ли новой версии и обновляешь

Пока один вариант - helm ± dockerhub

Страница 270 из 958