@kubernetes_ru

Страница 802 из 958
bebebe
04.09.2018
06:48:47
есть же helm --wait и exit код

(в 2018)

kubectl -n dp delete job ecr-cred-updater panic: runtime error: invalid memory address or nil pointer dereference [signal SIGSEGV: segmentation violation code=0x1 addr=0x48 pc=0x15b84c3] goroutine 1 [running]: k8s.io/kubernetes/pkg/kubectl.ReaperFor(0x1c4d117, 0x5, 0x176ff2d, 0x3, 0x0, 0x0, 0x0, 0xc4208594a0, 0x7f60d2, 0xbedba8e7f5bee9f8) /build/source/_output/local/go/src/k8s.io/kubernetes/pkg/kubectl/delete.go:85 +0x1123 k8s.io/kubernetes/pkg/kubectl/cmd/util.(*ring1Factory).Reaper(0xc42026d9e0, 0xc420234c40, 0x2a52900, 0x1a002046a000, 0xb8, 0xb8) /build/source/_output/local/go/src/k8s.io/kubernetes/pkg/kubectl/cmd/util/factory_object_mapping.go:295 +0x151 k8s.io/kubernetes/pkg/kubectl/cmd/util.(*factory).Reaper(0xc42026da10, 0xc420234c40, 0xc42046a000, 0x7fcee3986000, 0x0, 0x1a77d00) <autogenerated>:1 +0x47

доброе утро, да

Google
Fike
04.09.2018
06:58:08
оперативку с микрокодом проверь

Andor
04.09.2018
06:59:04
Мне никогда не встречались плохие hrы (рекрутеры, кадровики, генералисты), всегда доброжелательные и приятные в общении... чят, зря вы так категоричны
Если не секрет, сколько раз отказывали после собеседования, но не сообщали об этом, а просто переставали отвечать на письма?

Andor
04.09.2018
07:06:59
Ни разу
А сколько раз вообще собеседования были в жизни? В коммерческие компании не по знакомству

Andor
04.09.2018
07:22:34
Это в рф?

Carrol
04.09.2018
07:23:57
Let Eat
04.09.2018
07:33:54
есть же helm --wait и exit код
Это когда хелм работает вдруг и не тупит

Alex
04.09.2018
07:50:41
Добрый день! Кто нибудь юзает rancher 2? Можете описать преимущества над голым k8s?

Banschikov
04.09.2018
07:51:56
Добрый день! Кто нибудь юзает rancher 2? Можете описать преимущества над голым k8s?
Гуишечка для создания кластера и управления им. Ну и конечно дополнительные асбтракции, которые тебе нужно будет изучать и понимать, иначе когда все сломается будет очень плохо.

Google
S
04.09.2018
07:55:01
Их нет
йес) Тинькофф до сих пор не передумал против

Alex
04.09.2018
07:58:42
И ещё вопрос про CNI У меня есть следующие вводные: есть сервис мониторинга, в нем регистрируются рабочие сервисы и далее мониторинг их по шедулеру вызывает. Важно, что бы поды сервисов которые создавались без всякого ведома о существования мониторинга, были доступны для него. Можете что посоветовать?

Banschikov
04.09.2018
07:59:35
базовое API нужно 100% знать. Зачем изучать сверху GUI, если и так все есть?
Кому как удобно. Я просто такие увидел премущевства(нет)

Alexey
04.09.2018
07:59:41
поставить prometheus-operator и идти решать другие задачи.

Alex
04.09.2018
08:00:21
базовое API нужно 100% знать. Зачем изучать сверху GUI, если и так все есть?
Скажим так, сейчас у нас rancher 1.6 и решается вопрос что выбрать, и резонно склоняемся к второй версии

Alexey
04.09.2018
08:00:31
Alexey
04.09.2018
08:01:42
??
мониторинг всего кластера с 1 команды. Доп реализация /metrics у каждой апы и все.

Alex
04.09.2018
08:03:12
Так они у мониторинга регистрируются или о мониторинге ничего не знают?
Сорян, не так написал( Сервисы конечно знают о мониторинге, мониторинг о них нечего не знает

Fike
04.09.2018
08:03:51
йес) Тинькофф до сих пор не передумал против
тиньков вообще адекватная компания со специалистами высокой квалификации

Let Eat
04.09.2018
08:05:10
??
Вам ваш мониторинг предлагают сменить на то, чем пользуются все

Alex
04.09.2018
08:06:16
еще раз вас спрошу, причем тут CNI?
Так так тут я вижу возможные проблемы маршрутизации до сервисов которые явно не указанны при в deployment по этому и спрашиваю. Если на самом деле я заблуждаюсь и с этим все ок, то просто замечательно))

Вам ваш мониторинг предлагают сменить на то, чем пользуются все
Если покажете полноценную альтернативу spring-boot-admin то сменю)

Fike
04.09.2018
08:07:37
Если покажете полноценную альтернативу spring-boot-admin то сменю)
я сильно сомневаюсь, что это мониторинг, и что технологии от спринга вообще стоило брать

bebebe
04.09.2018
08:07:55
Так так тут я вижу возможные проблемы маршрутизации до сервисов которые явно не указанны при в deployment по этому и спрашиваю. Если на самом деле я заблуждаюсь и с этим все ок, то просто замечательно))
вы заблуждаетесь, на самом деле все ок, даже замечательно вы можете вешать аннтоации на нужные вам деплойменты, по этим аннотациям ваш мониторинг может определять запуск микросервисов

Google
Let Eat
04.09.2018
08:09:10
Так так тут я вижу возможные проблемы маршрутизации до сервисов которые явно не указанны при в deployment по этому и спрашиваю. Если на самом деле я заблуждаюсь и с этим все ок, то просто замечательно))
Если вам надо ходить в поды из мониторинга, то надо решить две проблемы: как узнать в какие поды ходить и как до них добраться. Вопрос видимо больше про вторую часть. Мониторинг вне кластера? Тогда самое просто это сделать podCIDR маршрутизируемым (calico с bgp тут может помочь)

Alex
04.09.2018
08:10:46
Вот и у меня вопрос, сможет ли потом мониторинг просто так потом достучаться

bebebe
04.09.2018
08:12:07
Вот и у меня вопрос, сможет ли потом мониторинг просто так потом достучаться
вы можете в свои поды добавить lifecycle, и принудительно ходить в мониторинг регистрируя сервисы

Let Eat
04.09.2018
08:12:11
Второй простой вариант - через apiserver по /proxy подресурсу. Оно плохо документированно. Запустите kubectl --v=7 port-forward до пода, увидите какие там вызовы

Alexey
04.09.2018
08:13:04
Ребят, подскажите пожалуйста доку, по переменным для кубера, не получается найти (может я не те паттерны использую для поиска). Нужно в labels хостейм нод подставить. Хочется именно моей меткой (что бы удобно искать было)

Alex
04.09.2018
08:14:06
вы можете в свои поды добавить lifecycle, и принудительно ходить в мониторинг регистрируя сервисы
Ну с регистрацией в мониторинге проблем нет, это делает само приложение внутри пода. Возможно я ввёл кого то в заблуждение не уточнив, что мониторится именно приложение внутри пода

bebebe
04.09.2018
08:14:58
Ну с регистрацией в мониторинге проблем нет, это делает само приложение внутри пода. Возможно я ввёл кого то в заблуждение не уточнив, что мониторится именно приложение внутри пода
у вас какой-то конкретный k8s кластер, или вам нужно будет деплоить на "абстрактный" кластер заказчика? коннективити между вашим мониторингом и ворклоадами в подах можно проверить достаточно просто...

Alex
04.09.2018
08:16:40
у вас какой-то конкретный k8s кластер, или вам нужно будет деплоить на "абстрактный" кластер заказчика? коннективити между вашим мониторингом и ворклоадами в подах можно проверить достаточно просто...
Кластера ещё нет, скорее всего будем делать поверх rancher 2. На первом столкнулся с проблемой, что мониторинг после регистрации сервиса, не мог до него достучаться, вот и спрашиваю)

Let Eat
04.09.2018
08:17:01
Ну докер хост запускает kubelet так ведь? Значит может ему передать свое имя

Тогда у вас в kubectl get nodes будут нужные имена

Alexey
04.09.2018
08:18:16
Тогда у вас в kubectl get nodes будут нужные имена
мне нужно внутри пода знать где он находится, проще всего это забрать меткой )

Let Eat
04.09.2018
08:19:12
мне нужно внутри пода знать где он находится, проще всего это забрать меткой )
Про поды речь не шла нигде в вашем вопросе :) гуглите downwardAPI

Google
bebebe
04.09.2018
08:19:31
Да
тогда обратитесь к администратору кластера с этим вопросом, почему у вас одно не видит другое, возможно это сделано специально

Alexey
04.09.2018
08:21:04
Про поды речь не шла нигде в вашем вопросе :) гуглите downwardAPI
spec.nodeName ))) Спасибо добрый человек ) Теперь ясно почему сам нагуглить не смог !

Alex
04.09.2018
08:21:36
тогда обратитесь к администратору кластера с этим вопросом, почему у вас одно не видит другое, возможно это сделано специально
Тут похоже возникло немного недопонимания. Ещё в k8s нечего не крутится. Я просто хотел уточнить не будет ли проблем в описанном мною сценарии когда будет крутиться

Let Eat
04.09.2018
08:22:03
Alexey
04.09.2018
08:24:46
Но в labels пода его не запихать без mutating admission plugin
Да можно и так, распарсить его и в ENV засунуть. Но да, не очень то удобно, главное уже 1 способ есть, уже легче, если коллеги ещё способы подскажут - буду благодарен

Alexey
04.09.2018
08:25:29
Подам о своей ноде знать вредно
это системные поды, для монтиторинга хардвари )

Let Eat
04.09.2018
08:26:06
Тогда не вредно :)

bebebe
04.09.2018
08:26:17
можно разложить на хостах директорию и маунтить её через hostpath?

Alexey
04.09.2018
08:27:16
можно разложить на хостах директорию и маунтить её через hostpath?
Можно, не проблема. Просто не очень красивый способ. Я уверен что есть способ боллее простой и красивый, больно кубер мощщщщный )

Let Eat
04.09.2018
08:28:52
можно разложить на хостах директорию и маунтить её через hostpath?
Мега костыль же. https://kubernetes.io/docs/tasks/inject-data-application/downward-api-volume-expose-pod-information/#capabilities-of-the-downward-api

bebebe
04.09.2018
08:30:45
я скорее про ту ситуацию, когда pod прибит гвоздями к ноде

Alexey
04.09.2018
08:34:22
я скорее про ту ситуацию, когда pod прибит гвоздями к ноде
нет, зачем прибивать к ноде. Уже есть в ENV для контейнера поддержка resourceFieldRef (начиная с 1.8). А у меня кубер 1.11 )) Уже почти совсем хорошечно.

M
04.09.2018
08:45:14
ребят а в helm value.yaml можно исопльзовать переменные из Chart.yaml ? вот например чтобы обновлять версию tag для контейнера

Anton
04.09.2018
08:50:27
неа

Игорь
04.09.2018
08:57:38
Коллеги, я разыскиваю людей, которые работали с Loghouse (https://github.com/flant/loghouse) и, возможно, перестали это делать. Мы хотим его серьёзно допиливать, но хочется понять в правильном ли направлении. Пожалуйста, откликнитесь! И подскажите, где ещё можно спросить-поискать таких людей, если не сложно. Спасибо.

Google
Никита
04.09.2018
08:59:39
Михаил, об этом и речь :)
Заведите рассылку, или слак-чат какой-нить. Или канал в телеге!

Игорь
04.09.2018
09:09:55
Дмитрий, мы сейчас это исправляем. Я организую встречу пользователей с разработчиками.

Vadim
04.09.2018
09:23:15
тем временем началась Monitorama - https://www.youtube.com/watch?v=2V1G0Lb6r-g&feature=youtu.be

Nikolai
04.09.2018
09:38:10
Доброго всем дня вероятно данный вопрос неоднократно поднимался в топике, но все же - хотелось бы услышать мнение по паре вопросов: что лучше подойдет для использования в качестве PVC на кластере кубера 1) распределенное хранилище на базе GlusterGS 2) отдельный сервер на базе Ceph Характер данных - метрики мониторинга и графаны, индексы эластика, различные конфигурационные файлы для сервисов, кеш, базы данных stage-окружений (не прод) Собственно, вопрос больше в том, какие могут возникнуть проблемы при использовании той или иной технологии (к примеру, если класер ceph упал, то данные похерились на всех нодах)

Stanislav
04.09.2018
09:39:55
один хрен геморрой будет :-)

Nikolai
04.09.2018
09:40:14
это обнадеживает)

Stanislav
04.09.2018
09:41:06
но с гластером больше неожиданных граблей, а с сефом грабли больше с настройкой (неправильно запланировал количество пулов - через полгода производительности недостаточно)

Nikolai
04.09.2018
09:41:46
хм, а какие, к примеру, могут возникнуть грабли

Stanislav
04.09.2018
09:42:45
у меня внезапные грабли были вида "не могу переписать файл - кем-то залочен", при этом этот файл был распакован только что завершившимся процессом tar.

Страница 802 из 958