Etki
А они не вырубаются сами, если не могут приконнектиться?
Etki
В этом случае куб тупо будет их перезапускать, пока эластик не поднимется
Magistr
я ж правильно понимаю что helm и spinnaker примерно одно и тоже ?
wnmp
Речь об эластиксёрче. От него зависит кибана и логстэш. Нужно, чтобы два последних запустились только после того, как эластик сделает свою грязную работу по инициализации и поднятию. То есть, как только апи-порт доступен и ответил - поднимаем остальное. Реаднесс - это не оно?
Мы недавно это обсуждали и проще конфигурировать сервисы так, что бы им не важно было когда они подняты, т.е. если какого-то сервиса нет, мы продолжаем его пинговать продолжительное время. Как хак, всегда можно wait-for-it поставить, но это костыль.
Anonymous
а кто-нибудь пробовал делать на helm общий шаблон? такой некий chart которому подсовываешь разные values.yml и получаются разныве сервисы
Anonymous
контейнерПорт нужно указывать что бы при expose кубер сам подхватывал порты из объявления деплоя
а можно для тупых? я вот тоже containerPort не знаю: то есть если я не делаю kubectl expose то он нафиг не вперся и можно не задавать? или еще для чего-то нужен?
Anonymous
https://kubernetes.io/docs/api-reference/v1.6/#containerport-v1-core
Anonymous
ContainerPort represents a network port in a single container - три раза прочитал и не понял о чем это
Maksim
ContainerPort represents a network port in a single container - три раза прочитал и не понял о чем это
Суть в том. Если контейнерПорт указан то kubectl expose создает сервис с переадресацией указанных портов, в противном случае expose нужно делать с ключом --port иначе он скажает что у контейнера нет портов и сервис создать нельзя
Anonymous
спасибо :)
Zon
а кто-нибудь пробовал делать на helm общий шаблон? такой некий chart которому подсовываешь разные values.yml и получаются разныве сервисы
Мы думаем про это, но сегодня общался с челом, который исповедует абстрактный yaml в репах, а потом уже по своему (опсовому) разумению из этого генерится ci/cd джоба. Говорит очень хорошо получается. У них 80 аппов и 150 разрабов, возможно он и вправду знает.
Anonymous
Это как?
Zon
Это как?
https://cloudnativeeu2017.sched.com/mobile/#session:37f8979eea81cbd9236717ee8abab2b8 вот тут слайды, видео я думаю найдёшь тоже
Zon
С телефона пересказывать тяжко, сорри
Anonymous
@FolderArchive - канал, где сливают платный полезный - образовательный контент и курсы, например можно скачать курсы "Нетологии" или все курсы "Бизнес Молодости".
Stanislav
https://twitter.com/kubernetesio/status/880661432718811136
Роман
А кто-нибудь деплоит из гитлаба проекты? Вот, не пойму никак - я там yaml файл создаю в проекте. Секция build у меня не вызывает вопросов. А вот деплой... Например я в процессе работы масштабировал проект, дав команду rc увеличить количество реплик. Но в гитлабе в yaml-файле у меня до сих пор прописана одна реплика. Это что - мне нужно всегда деплоить только из гитлаба и там изменения вносить? Не пойму. А если у меня кластер будет при определённой нагрузке динамически изменять количество реплик?
G72K
при apply происходит 3 way merge, так что если вы крутите count каким-нибудь patch (он кажется не создает аннотаций), то из гитлаба при apply счетчик не сбросится, если его в гитлабе и не трогать
G72K
(сам так не делал, теоретизирую)
Роман
Только пробовать, в общем. Просто сейчас постепенно переходим на кубер.
G72K
вобщем, главное rc.count обновлять так, чтобы аннотация оставленная apply из гитлаба не обновлялась.
Роман
вобщем, главное rc.count обновлять так, чтобы аннотация оставленная apply из гитлаба не обновлялась.
Я пока не совсем понимаю. Допустим, я руками через консоль количество реплик увеличу. А yaml не изменится - тогда столько реплик и останется, сколько я руками поставил?
G72K
Если выполняются условия: 1. gitlab делает kubectl apply на yaml (после этого, если вы сделаете kubectl get -o yaml <ресурс>, то увидите сгенерированную аннотацию, в которой будет значение последнего apply для этого ресурса) 2. кручение количества реплик _не_меняет_ эту аннотацию (кажется kubectl patch не меняет, но это вам искать и смотреть как этого добиться) то при следующем apply из гитлаба, количество реплик не изменится
G72K
несмотря на то, что в yaml по-прежнему прописано значение 1. это происходит потому, что apply генерирует патч по сравнению с прошлым apply , сохраненному в автосгенерированной аннотации к ресурсу
Салтыдык
По traefik может кто посоветует что почитать? Интересует TLS + SNI. Именно про Ingress, а то что-то в гугле меня забанили немного.
Kirk
Привет, котаны. Подскажите как красиво поменять hostname для пода? Чтобы он туда не подсовывал имя пода
Anonymous
как раз выше писал
Anonymous
https://kubernetes.io/docs/concepts/services-networking/dns-pod-service/ Если вкратце, то создав сервис, а запись будет service-name.default.svc.test.dom.loc Под получит а запись с ip адресом вначале. Чтобы сделать то что хочется нужно поиграться с аннотацией pod.beta.kubernetes.io/hostname Судя по документации делает примерно то что нужно
Kirk
классический вопрос - а зачем?
некая часть внутренностей контейнера использует в своих целях хостнейм и ругается, если хотснейм больше 32 символов
Denis
Привет! Откуда лучше всего брать образы для apiserver, kube-proxy, kube-scheduler и kube-controller-manager?
Etki
вызов .substring() этим внутренностями не подсунуть?
Denis
Сейчас у меня мастера настроены через юниты, я хочу попробовать все запустить поверх kubelet
Kirk
вызов .substring() этим внутренностями не подсунуть?
да можно накостылить конечно, но мне бы так не хотелось
Denis
coreos/hyperkube
а в чем разница между v1.6.6_coreos.1 и v1.6.6_coreos.0 ?
Denis
а также никого не смущает что там в отчете security scan 18 critical CVE ?
Denis
https://quay.io/repository/coreos/hyperkube/image/2b695152fc71ce2aca6e0ecd3fddae43c8602fb374c65260a9a3806f8d671986?tab=vulnerabilities
Denis
например
G72K
а также никого не смущает что там в отчете security scan 18 critical CVE ?
ты кликни на них, я глянул парочку, там CVE только на apple платформах применимы были
G72K
(тем любопытнее, что quay security scanner принадлежит самим coreos)
Denis
Вот меня тоже это удивило )
Denis
А насчет суффикса 0 и 1 не подскажешь?
G72K
мне кажется суффикс это пересборка на новом базовом образе
G72K
но никогда не проверял, беру последние )
Anonymous
хм, а если я requests.cpu нигде не прописываю, а прописываю только limits.cpu то почему вижу сообщение No nodes are available that match all of the following predicates:: Insufficient cpu (5).? или я что-то пропустил в доках?
G72K
была ручка где-то, которая за тебя прописывала лимиты, если не указано
Anonymous
а ок значит надо явно указывать, спасибо
Artur
подскажите как понять какой StorageClass нужен?
Maksim
Всмысле?
Maksim
сам оценивай какое твое хранилище быстрее какое медленее
Maksim
например ceph на 30Gb/s явно быстрое)
Logan
подскажите как понять какой StorageClass нужен?
в смысле - какой? название же из головы
Салтыдык
для базы fast, для статики slow
Maksim
Дык там сам назначаешь название для каждой своей хранилки подключенной к куберу)
Ayrat
Называй как хочешь :) главное указать к чему цепляешь чепез provisioner parametre
Maksim
хоть серое-бурое в крапинку назови) куберу не важно
Artur
спасибо
Artur
Называй как хочешь :) главное указать к чему цепляешь чепез provisioner parametre
как туда указать ноду в которой будут хранится данные?
Logan
как туда указать ноду в которой будут хранится данные?
в смысле? сторадж - отдельная сущность
Artur
похоже я что то не так делаю
Artur
ну вот есть у меня машина в которая будет выступать стораджем. вот как ее указать в параметрах для PersistentVolume?
Etki
машина сама по себе не может быть стораджем, стораджем может быть сервис
Etki
либо (в виде исключения) hostPath и прочие штуки, созданные исключительно для отработки интересующих штук, но не использования в проде
Etki
под сервисом имеется в виду какой-то поставщик вольюмов хранения (ceph, nfs, прочее), а не кубернетесовский сервис
Салтыдык
hostPath он наверное имеет в виду
Etki
он имеет в виду одну машину, которая будет хранить данные всего кластера
Artur
ну не совсем всего кластера
Artur
hostPath он наверное имеет в виду
работает только на мастере?
Maksim
работает только на мастере?
Работает только на хосте
Maksim
При создания пода, создаёт Папку на Хосте и монтирует в под в качестве vilume
Maksim
И кажись очищает при смерти пода)
Maksim
В последнем не уверен, нужно доку читать
Artur
теперь понял
Artur
спасибо