Sergey
зачем?
Sergey
сайт кубернетса и в перед
Sergey
с его активной разработкой книга по куберу устареет сразу после ее публикации
Sergey
хард вей от кейси что бы понимать как там и вче ставится и между собой работает
dk
Roman
https://github.com/kelseyhightower/kubernetes-the-hard-way
Оно?
Sergey
да
Роман
так докер для кубера с айпитейбл фолс надо запускать
У меня на одной ноде работает gitlab-ci-multi-runner. На этой ноде у меня стоит iptables=true для докера, ибо, в противном случае, поды, созданные мульти-раннером, не имеют доступа в интернет. Не знаю почему и кто виноват, но только так работает.
Sergey
мибо мультираннер не добавляет записи в форвард таблицу
Sergey
ибо он полагается на то, что это докер сделает
Роман
Думаю, второе.
Sergey
а докер не делает ибо кубер и докер с айтипеблс- фалс
Sergey
не это я рассказал почему
Sergey
я это все раскапывал)
Roman
а при падении одной из нод кубер не должен разве перекидывать поды на живые ноды? запускаю через ReplicationController...
Роман
Roman
ага, перекинул 2 реплики nginx.. но суммано зарегано 3 реплики - 2 живых и 1 в состоянии Unknown на ноде, которую зашатдаунил... ща разбираюсь как подчистить эти хвосты...
Mikhail [azalio]
Я недавно поднимал фланель с докером на центос и тоже наткнулся на дроп по умолчанию в форварде
Sergey
Так у докера с какого то релиза по умолчанию дроп на форвард и народ много и долго бугуртил на этот счёт
Sergey
Что докер охуел монопольно брать в оборот фаэрвол
Roman
а есть какая-то волшебная команда чтобы убрать сходшую ноду из кластера? что-то не гуглится :-/
Dmitry
delete node =)
Knyage
kubectl delete node ?)
Roman
сначала похоже надо было kubectl cordon node01 сказать, иначе не хотело :-/
Knyage
По идее ему пофигу,должен был удалить :)
Knyage
Разве когда она в Unknown статусе, он ждет?
Maksim
cordon вызывает перезд подов с заблокированной ноды. cordon эти типо maintance
Maksim
там 3 таймера
Knyage
Ну кордон да, это более правильное выключение
Maksim
1й определяет время обновления статусы ноды 2й ждёт, типо вдруг нода вернётся 3й это время переезда подов
Maksim
где-то была статья про все три таймера
Maksim
ТОгда жди) пошёл искать
Knyage
Maksim
https://habrahabr.ru/company/flant/blog/326062/
Knyage
о,спасибо :)
Mikhail [azalio]
http://container-solutions.com/kubernetes-hard-way-explained-chapter-1/?utm_source=telegram.me&utm_medium=social&utm_campaign=v-bloge-container-solutions-nachalas-ser - разжуют в рот положат!
dk
Mikhail [azalio]
я хз
Roman
Нет. На самом деле это реклама серой толстовки :)
Sergey
это скрытая реклама гугло клауда
Sergey
кто спонсирует того и рекламируют
Sergey
там как бы цель на примере одного провайдера показать как сие дело ставится
Sergey
плюс кубернетс сообщество на всех митапах говорит юзайте или gke или вариант от ажура
Sergey
все остальные варианты - ваша личная попоболь
Mikhail [azalio]
кто знает что будет если у меня 3 апи сервера, а тут --apiserver-count int написано 2? )
Andrey
Я несколько контор вживую видел, кто живет на опеншифт - сборка от редхата.
Mikhail [azalio]
(я пока не заметил негативных последствий)
Lev
k8s 1.7.6 is out
bebebe
k8s 1.7.6 is out
https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG.md#changelog-since-v175
Mikhail [azalio]
:)
Mikhail [azalio]
Nikita
Не подскажете как лечить такую ошибку?
FailedSync Error syncing pod
Nikita
причем не полнятно почему, вроде саммый обычный deployment
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
name: elasticsearch
labels:
app: elasticsearch
cmp: services
spec:
replicas: 1
template:
metadata:
labels:
app: elasticsearch
cmp: services
spec:
containers:
- name: main
image: elasticsearch:5.5.2
imagePullPolicy: Always
ports:
- name: elastic
containerPort: 9200
protocol: TCP
Maksim
filed sync pod значит кублет не может получить статус от контейнера
bebebe
забавно было бы этого бота в телеграм
Magistr
а есть такой у цивила
Mikhail [azalio]
Nikita
там трабла была в 5 эластики, он сильно много оперативы просил при старте
G72K
подробнее https://github.com/kubernetes/kubernetes/issues/22609
Mikhail [azalio]
я его не использую
Mikhail [azalio]
но спасибо!
Maksim
Ребят, а можено задать какой-то скрипт, который будет запускаться в поде после его старта, но не заменяя entrypoint и command у контейнера
Maksim
?
G72K
очень вероятно, что используете. все контроллеры внутри ходят туда (nginx-ingress, external-dns, какой-нибудь prometheus operator)
G72K
Maksim
-)
G72K
https://kubernetes.io/docs/tasks/configure-pod-container/attach-handler-lifecycle-event/
Maksim
G72K
ну вот dashboard туда и ходит точно :)
Mikhail [azalio]
Но у меня нет кластер днс )
G72K
Anonymous
@DenisIzmaylov
вот ребята сделали хорошего чистильщика спама
@daysandbox_bot
он по определенным паттернам удаляет сразу же сообщения и пишет причину
Denis
Наши друзья в Telegram обещают скоро допилить алгоритм антиспам
Denis
Вах