
Lanegan
30.09.2017
07:44:42
Это в прошлом!
Прям клеймо какое-то...

Cyberr
30.09.2017
10:45:10
@cyberdarkk Всё самое интересное про Даркнет и кибербезопасность, подписывайтесь)

Andrey
30.09.2017
12:51:16
(захожу на все эти каналы и нажимаю кнопочку report)

Google

Mikhail
30.09.2017
12:57:29
О, тоже так сделал.

Mikhail чердак
30.09.2017
13:27:54
+

Alisa
30.09.2017
14:32:07
почему helm постоянно скачивает tgz? ?

Paul
30.09.2017
15:14:39
Интересно, почему я не могу отрепортить канал этого милого человека?

Mikhail
30.09.2017
15:17:12
Надо войти в канал.
Нажать join

Andrey
30.09.2017
15:41:22
нахрен join? там info есть

Mikhail
30.09.2017
15:48:42
И где репорт в инфо?

Fike
30.09.2017
15:56:56

Aleksey
30.09.2017
17:29:22
Казалось бы - при чем тут линукс
сорри - кубер

Paul
30.09.2017
21:12:55
в смысле? это боты, они ходят по всем более-менее популярным каналам.

Google

Ivan
02.10.2017
07:26:07
Всем привет!
Столкнулся с такой проблемой - поднимаю сервис, прописываю в нём порты:
type: NodePort
ports:
- name: http
protocol: TCP
port: 80
targetPort: 7180
- name: https
protocol: TCP
port: 443
targetPort: 7143
а когда он запускается, по факту пробрасывается это:
80:30743/TCP,443:2153/TCP
подскажите, с чем это может быть связано и куда копать?
перечитал пару раз мануал по сервисам кубернета - даже намёка не нашёл.
т.е. по факту кубернет игнорирует прописанные в конфиге порты и присваивает случайные.
самое интересное, что даже по этим случайным портам до контейнера достучаться невозможно((


Fike
02.10.2017
07:28:51
If you want a specific port number, you can specify a value in the nodePort field, and the system will allocate you that port or else the API transaction will fail (i.e. you need to take care about possible port collisions yourself). The value you specify must be in the configured range for node ports.
kind: Service
apiVersion: v1
metadata:
name: my-service
spec:
selector:
app: MyApp
ports:
- protocol: TCP
port: 80
targetPort: 9376
nodePort: 30061
# ^^^ вот этого я так понимаю не хватает

Ivan
02.10.2017
07:37:24
ну попробую, вдруг прокатит... с мануалами у них не особо...

Maksim
02.10.2017
07:37:56
А ты его читай правильно)
TargetPort это порт Контейнера
NodePort это порт на ноде, который будет кидаться на targetPort
А Port это порт сервиса используемый в "Виртуальном IP" сервиса
Который то же кидается на TargetPort
В случае если NodePort не указан, кубер берёт рандомный из диапазона установленного ключём —nodeports на старте аписервера

Fike
02.10.2017
07:40:17

Maksim
02.10.2017
07:41:10
А есть ещё одна проблема документации
часть написано для Кубера в GCE часть дл ястенд элоне. часть для поднятого миникубом часть из сырцов

Ivan
02.10.2017
07:45:54
и ещё один вопрос у меня есть))
а как понять, почему контейнер не поднимается?
он висит в статусе Pending
и при этом "kubectl describe po" и "kubectl describe deploy" гооврят, что таких нет, хотя реально они есть))

Anton
02.10.2017
07:48:40
-n intranet добавь

Google

Anton
02.10.2017
07:48:51
неймспейс для kubelet нужно указать

Maksim
02.10.2017
07:49:01
добавь —namespace intranet

Anton
02.10.2017
07:49:28
и я вижу у вас kube-dns не подымается. наверняка до apiserver добраться не может

Ivan
02.10.2017
07:49:29
а ,блин, точно)) забыл))
спасибо!
да, он не поднимается))

Maksim
02.10.2017
07:50:27
ну дык там будет написано чего ему не хватает) Возможно

Ivan
02.10.2017
07:50:42
официальный мануап косячный. там через реплика-контроллер делается, а надо конфиги на даймон-сет переписать, иначе все три экземпляра пытаются подняться на одной ноде

Maksim
02.10.2017
07:50:44
дальше только лесть в кубелтеа на ноде, к которой он прицеплён

Ivan
02.10.2017
07:52:12
ну я не знаю, зачем они через реплика-контроллер написали
https://coreos.com/kubernetes/docs/latest/deploy-addons.html
они же доджны по одному на ноду работать а не все на одной ноде

Maksim
02.10.2017
07:52:30
кто они?)

Ivan
02.10.2017
07:52:59
кто они?)
кто мануал этот писал))
в общем, как руки дойдут - перепишу на даймон-сет

Maksim
02.10.2017
07:53:02
1. в DNS 3 контейнера но под ОДИН!
Они все сцепляются в одну сущность. один из контейнеров вообще sidecar для сбора статитски

Сергей
02.10.2017
07:54:10
если это один под - это одна сущность и ранится на однмо хосте

Maksim
02.10.2017
07:54:15
второй это контроллер DNS, который лазит в апи сервер и подготавливает файлик hosts. Третий это не посредственно ДНС, который читает файлик hosts и резолвит

Сергей
02.10.2017
07:54:44
а маштабируется уже за счет репликации подов на разых хостах
и то с нюансами
если вы раните под на хостах с определенным лейбом, а хостов таких 2, а реплик надо 3 - ну вы поняли

Google

Ivan
02.10.2017
07:55:38


Jan
02.10.2017
11:13:58
здравствуйте, я с глупым вопросом. поднял последний k8s по ману: https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm/ ; использовал calico как сеть
попытался поставить nginx-ingress-controller вот так: kubectl apply -f https://rawgit.com/kubernetes/ingress/master/examples/deployment/nginx/kubeadm/nginx-ingress-controller.yaml
но получаю nginx-ingress-controller-799cd4fcd7-g6b6c 0/1 CrashLoopBackOff в списке get pods
логи говорят следующее:
# kubectl logs nginx-ingress-controller-799cd4fcd7-g6b6c -n kube-system
I1002 11:08:24.985933 7 launch.go:112] &{NGINX 0.9.0-beta.13 git-949b83e https://github.com/kubernetes/ingress}
F1002 11:08:24.999813 7 launch.go:130] ✖️ It seems the cluster it is running with Authorization enabled (like RBAC) and there is no permissions for the ingress controller. Please check the configuration
подскажите, пожалуйста, куда копать?


Никита
02.10.2017
11:19:21
https://github.com/projectcalico/calico/blob/master/v2.3/getting-started/kubernetes/installation/hosted/index.md
RBAC
If using Calico with RBAC, apply the ClusterRole and ClusterRoleBinding specs:
kubectl apply -f {{site.url}}/{{page.version}}/getting-started/kubernetes/installation/rbac.yaml

Jan
02.10.2017
11:19:39

Алексей
02.10.2017
11:41:09

Let Eat
02.10.2017
11:52:03

Roman
02.10.2017
11:53:19

Let Eat
02.10.2017
11:53:49

Maksim
02.10.2017
11:54:46
А что за мода на CoreOS пошла?)

Roman
02.10.2017
11:55:52

Jan
02.10.2017
11:58:27
apply the ClusterRole and ClusterRoleBinding specs
не помогло, логи пода выводят ту же ошибку. centos 7, selinux off
кластер и нода - та же машина. разворачиваю так:
kubeadm reset; rm -rf /var/etcd
kubeadm —pod-network-cidr=192.168.0.0/16 init
kubectl apply -f https://docs.projectcalico.org/v2.6/getting-started/kubernetes/installation/hosted/kubeadm/1.6/calico.yaml
kubectl taint nodes —all node-role.kubernetes.io/master-
kubectl apply -f https://rawgit.com/kubernetes/ingress/master/examples/deployment/nginx/kubeadm/nginx-ingress-controller.yaml
подскажите, пожалуйста, где ошибся. мб в версиях?

Maksim
02.10.2017
11:59:40
а уде потом по документации вычитаь что нужно калико для работы (какие права) и установить ровно их. (Излишние права в проде это плохой тон и потенциальная дыра)


Jan
02.10.2017
12:01:37
ух. я уже размечтался, что сейчас с полпинка k8s разверну для тестов. благодарю, постараюсь разобраться

Maksim
02.10.2017
12:01:42
kubectl apply -f {{site.url}}/{{page.version}}/getting-started/kubernetes/installation/rbac.yaml
В этом yamle описаны правила для калико
почитай его, там скорее всего есть имя пользователя...

Google

Maksim
02.10.2017
12:02:33
и ещё как ты логинешь пользователей? ПО токенам?

Jan
02.10.2017
12:02:55
пока никак. я пытаюсь заставить nginx-ingress работать

Maksim
02.10.2017
12:02:59
я не знаю как работает твоя тулза еплоя
не..
все что касается аписервера является пользователем
в том числе и внутренние (kubelet controller и т.п.)
Все пользователя получают данные от АПИ сервера в три этапа
1. Аутентификация (Определения логина и группы)
2. Авторизация (Определения Ролевой модели (над какими объектами, и что может данный пользователь (группа)
3. "Модульный контроль" (А эта фича вообще доступна/Включена)
Так получает доступ к данным АПИсервера все, без исключения
Я бы выключил rbac авторизацю пока что
у апи сервера есть ключик —authirization=rbac удали его
*И тут Остапа Понесло

Jan
02.10.2017
12:06:25
эта трехэтапная модель - модель RBAC?

Maksim
02.10.2017
12:06:36
RBAC этолько второй этап

Roman
02.10.2017
12:06:38