No1
Видимо не мой кейс)
Ivan
Igor
Чтобы куда-то ходить браузеру или Go клиенту по https надо удостоверяться, что у того места куда ходишь лежит валидный сертификат, для этого надо под рукой иметь набор корневых сертификатов основных провайдеров, которые их выдают.
No1
Ну ваш шаблон можно и не только под go использовать:)
Ivan
go-get-нул генератор, запустил, поотвечал Y/N и получил некий скелет сервиса?
Igor
No1
Спасибо вам за реализацию и то, что это в опенсорс отдали:)
Igor
No1
сообщество подхватит:) вещь нужная
Igor
сообщество подхватит:) вещь нужная
Спасибо! Да, еще цель совместными знаниями сделать наиболее оптимальный вариант. Первый образец будет наш, потом можно будет контрибьютить.
Ivan
Можно ещё Dappfile добавить ;]
Igor
Jenkinsfile тоже можно. Мне кажется проект надо поделить на два этапа. Добавить сначала то, без чего нельзя жить и сделать возможность добавлять всё остальное опционально.
Ivan
А вот про сигналы кстати. Нужно на SIGTERM обязательно реагировать? Это наверняка где-то в доке куба есть?
Igor
Если куб хочет закрыть приложение, он его закроет, послав сначала сигнал SIGTERM, потом SIGKILL, если нет реакции. А вот сервису надо успеть корректно закрыть все соединения и прерванные операции.
Igor
1. User sends command to delete Pod, with default grace period (30s)
3. Pod shows up as “Terminating” when listed in client commands
6. The processes in the Pod are sent the TERM signal.
7. (simultaneous with 3), Pod is removed from endpoints list for service, and are no longer considered part of the set of running pods for replication controllers. Pods that shutdown slowly can continue to serve traffic as load balancers (like the service proxy) remove them from their rotations.
Igor
spec.terminationGracePeriodSeconds
Igor
если надо побольше времени дать после SIGTERM
Igor
или поменьше 🙂
Igor
https://kubernetes.io/docs/concepts/workloads/pods/pod/#termination-of-pods
Volodymyr
не могу запулить имейдж influx с heapster....
Volodymyr
подскажите плиз как побороть
Volodymyr
Failed to pull image "gcr.io/google_containers/heapster-influxdb-amd64:v1.3.3": rpc error: code = 2 desc = Error: Status 405 trying to pull repository google_containers/heapster-influxdb-amd64: "v1 Registry API is disabled. If you are not explicitly using the v1 Registry API, it is possible your v2 image could not be found. Verify that your image is available, or retry with dockerd --disable-legacy-registry. See https://cloud.google.com/container-registry/docs/support/deprecation-notices"
Andrew
тег поменяй на 1.1.1
Andrew
они 1.3.3 выпилили
Volodymyr
таки да, спасибо!
Volodymyr
теперь тоже с grafana
Volodymyr
image: gcr.io/google_containers/heapster-grafana-amd64:v4.4.3
Volodymyr
взять может latest?
Andrew
перейди по ссылке в твоем сообщении увидишь какие доступны ;)
Andrew
gcr.io/google_containers/heapster-grafana-amd64:v4.4.3
Volodymyr
такой и стоит
Andrew
по этой ссылке перейди)
Volodymyr
понял ))
Volodymyr
все
Volodymyr
Спасибо!
Anonymous
а кто-то уже пробовал k8s на dc/os в проде?
No1
Coreos?
Anonymous
я про
https://dcos.io/
🤔
Igor
А на CoreOS кто-нибудь Mesos ставил? 🙂
No1
😂
No1
Я не использовал DC/os, но coreos хотелось бы очень:)
No1
Если она стабильна с кубернетесем)
Igor
я тоже не использовал dc/os, но мне кажется в ней ориентир на Mesos
Anonymous
всё так
Anonymous
я наверное что-то не так гуглю:
k8s bare-metal research:
https://github.com/kubernetes/contrib/tree/master/keepalived-vip
https://github.com/kubernetes/contrib/tree/master/service-loadbalancer
https://github.com/kubernetes/ingress/tree/master/controllers/nginx
http://stytex.de/blog/2017/01/25/deploy-kubernetes-to-bare-metal-with-nginx/
https://capgemini.github.io/kubernetes/kube-traefik/
поэтому попрошу вас помочь мне ответить на вопрос:
как мне получить доступ к задеплоенному через kubespray на bare-metal кластеру извне? (через kubectl)
я подозреваю что тут где-то замешан nginx на машине и port-forwarding на docker контейнеры(какие?), но совсем уже потерялся, наставьте на путь верный, пожалуйста :c
Sergey
ну если Вы имеете ввиду доступ на сервис задеплоенный - то минимальный вариант NodePort
Sergey
плюс варианты со всякими там инжест контроллерами
𝚔𝚟𝚊𝚙𝚜
А кто-нибудь знает, можно ли flannel заставить гонять трафик через другой интерфейс?
Anonymous
Sergey
на мастер ноду
Anonymous
да
Sergey
и там кубцтл
Sergey
или по https://ip_master:6443
Sergey
у него такой дефольный
Роман
Anonymous
или по https://ip_master:6443
а если открыт только 22 порт?
то мне надо зайти по ssh, открыть через nginx 6443 порт и форварднуть его на докер-контейнер с апи?
Sergey
ну зайдите по ссх и с мастера через кубстл рулите
𝚔𝚟𝚊𝚙𝚜
Sergey
ну или откройте на мастер ноде 6443 порт
Роман
Роман
Я кубеспреем разворачивал.
𝚔𝚟𝚊𝚙𝚜
спасибо
Роман
спасибо
Если у тебя тоже kubespray, то я вообще поменял переменную ip на calico_ip, так как у меня кластер становился недоступным, когда я ставил ip=внутренний_айпи
𝚔𝚟𝚊𝚙𝚜
нет, я использую kubeadm, но есть желание разделить managment и внутреннюю сеть в разные vlanы
𝚔𝚟𝚊𝚙𝚜
вернее, что бы кубер с нодами общался через один интерфейс, а все vxlanы были в другом
Роман
Подскажите по prometeus: у меня кластер etcd из трёх нод. Мне в конфигмапе прометея нужно все три указывать или только один?
- job_name: 'etcd'
target_groups:
- targets:
- xxx.xxx.xxx.xxx:2379
Logan
Maksim
ага
Maksim
только хипстер нужен для hpa
Maksim
https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/
Роман
Спасибо)
Таймураз
Очень подозрительный аккаунт добавился
Logan
пока он ничего не сделал - репрессии проводить не можем
Logan
кто-нибудь сможет добавить модеров?
Таймураз
То есть аватарка норм?)
Logan
ну хоть меня добавьте, я не знаю. Я постоянно тут сижу