
Yuriy
20.03.2018
21:53:10
Я чёт запутался

Anton
20.03.2018
21:53:29

Vladislav
20.03.2018
21:53:39

Google

Anton
20.03.2018
21:54:07

Vladislav
20.03.2018
21:55:48

Anton
20.03.2018
21:55:55
можно попробовать kubectl get componentstatuses на одной из контроллер нод

Vladislav
20.03.2018
21:55:58
Парни, кто бота пустил?

Yuriy
20.03.2018
21:56:03

Anton
20.03.2018
21:56:24

Vladislav
20.03.2018
21:57:12

Anton
20.03.2018
22:02:27
он указан в конфиге etcd и конфиге аписервера, поэтому второй может ходить в первый. А ваш etcdctl этим знанием не обладает, поэтому вы получаете ошибку

Vladislav
20.03.2018
22:07:43

Yuriy
20.03.2018
22:07:48
Ok спасибо

Google

Yuriy
20.03.2018
22:07:56
Буду пробовать

Anton
20.03.2018
22:12:50
Любой из списка, но не hostPath
у меня кластер в aws, я было подумал использовать ebs, но у меня там состояние приложения килобайт от силы, поэтому запрашивать под это гигабайт смысла нет, а запрашивать меньше, наверное не очень эффективно. Поэтому, хотелось что-то такое простое, типа emptyDir, только постоянное. С установкой GlusterFS тоже возиться не хочется.
да и не запросишь меньше гига в ebs

Vladislav
20.03.2018
22:16:46

Anton
20.03.2018
22:16:55
текстовый
конфигмап тоже норм вариант, но он не предназначен для записи в него

Vladislav
20.03.2018
22:19:47

Andrey
20.03.2018
22:23:47
Лепнинка ниче такая)

Andor
21.03.2018
07:42:31
ну или может ваще не в файл сохранять? всякие там dynamodb например
или ваще s3

66271
21.03.2018
08:00:43
вот именно, кто придумал хранить стейт на фс ? разработчики гуевых приложух для винды ?

Anton
21.03.2018
08:14:20

Andor
21.03.2018
08:14:58
ну или может ваще не в файл сохранять? всякие там dynamodb например

Anton
21.03.2018
08:14:58

Andor
21.03.2018
08:14:58
или ваще s3
ну s3 почти везде есть
его очень много кто поддерживает

Anton
21.03.2018
08:16:02
это довольно неприятное ограничение на случай если s3 не оказалось

Andor
21.03.2018
08:16:16
тогда и будете решать

Google

Anton
21.03.2018
08:16:28
"тогда" уже наступило

Andor
21.03.2018
08:16:58
ну а pv у вас на чём?
тот же ceph умеет же притворятся s3

Anton
21.03.2018
08:17:41
пв можно в любой момент подключить к чему угодно и это не повлечет изменений в приложении

Andor
21.03.2018
08:19:02
ну блин сделайте под ваши реалии, зачем придумывать что-то ещё?
может тупо в бд класть, если он несколько килобайт?
у вас же есть бд?

66271
21.03.2018
08:19:58
в любой базе, некоторые даже в ampq хранят

Anton
21.03.2018
08:27:05
мои реалии это маленький текстовый файлик и 8 строк кода на его чтение и запись

Andor
21.03.2018
08:28:32
любая бд

Anton
21.03.2018
08:28:38
поэтому если кто-то потом там увидит бд или s3 то умрет от смеха и напишет, чтобы винили во всем меня

Andor
21.03.2018
08:28:40
файлик в данном случае - тоже бд
ну и конечно надо понимать насколько критична потеря этого файлика
если не сильно - то и забей

Alexander
21.03.2018
09:12:29
При изучение kubernetes столкнулся со следующим
Когда создаю под с приватным образом все взлетает ок
а если запускаю DeamonSet c приватным образом то кубернетес не может забрать его из регистру.
кубернетес 1.9.3

Dmitry
21.03.2018
09:47:58

Aleksey
21.03.2018
09:49:26

Alexander
21.03.2018
09:51:34
Вот про неймспейс похоже в точку.
DemonSet в kybe-system
а secret в default
ушел пробовать

Denis
21.03.2018
11:06:14
Ребят подскажите пожалуйста, как правильно
организовать взаимодействие сервисов через доменное имя, хочу на выходе внутри пода иметь доступ к example.com, который ведет на опреденный под(сервис)
в докере реализовывается с помощью алиасов:
networks:
net:
aliases:
- consul
- consul.$DOMAIN
networks:
net:
driver: bridge
подскажите как это сделать в кубе?

Google

Dmitry
21.03.2018
11:07:10
https://kubernetes.io/docs/concepts/services-networking/service/

Denis
21.03.2018
11:08:41
а можно пример? как это делается через сервис?

Anton
21.03.2018
11:09:24
для своих приложений делаешь сервис с селектором, котоырй выберет нужные поды по лейблам

Denis
21.03.2018
11:09:28
если речь идет про externalNAME, то мне нужен что то вроде internalNAME

Anton
21.03.2018
11:09:39
из других приложений тычишь в этот сервис
придется ознакомится с документаций, ссылку нужную дали

Denis
21.03.2018
11:13:46
да имеено так и делаю но заходя внутрь пода я не могу обратится к сервису, пример
apiVersion: v1
kind: Service
metadata:
annotations:
kompose.cmd: kompose convert
kompose.version: 1.7.0 (HEAD)
creationTimestamp: null
labels:
io.kompose.service: consul
name: consul
namespace: sso
spec:
ports:
- name: "consul"
protocol: TCP
port: 8500
targetPort: 8500
type: ExternalName
externalName: consul
type: NodePort
selector:
io.kompose.service: consul
externalIPs: ["10.226.212.165"]
externalName: consul
status:
loadBalancer: {}
он стартует, делает связку со своим нужным подом, но из другого пода обращася к имени consul я не вижу его

Anton
21.03.2018
11:16:50
в том же namespace?

Denis
21.03.2018
11:16:54
да
пинг по ip есть

Anton
21.03.2018
11:17:12
type: ExternalName не то
второй сервис же внутри

Maksim
21.03.2018
11:18:56
у него вообще два раза type
и externalName что-то странное
это kompose посторался?

Denis
21.03.2018
11:19:46
не уже я пробовал

Anton
21.03.2018
11:19:55
type: ClusterIP
и правильный selector

Vladislav
21.03.2018
11:20:01

Andor
21.03.2018
11:20:13
"пробывал"

Google

Andor
21.03.2018
11:20:25
вы реально так это слово произносите?

Maksim
21.03.2018
11:20:42
apiVersion: v1
kind: Service
metadata:
annotations:
kompose.cmd: kompose convert
kompose.version: 1.7.0 (HEAD)
creationTimestamp: null
labels:
io.kompose.service: consul
name: consul
namespace: sso
spec:
ports:
- name: "consul"
protocol: TCP
port: 8500
targetPort: 8500
type: NodePort
selector:
io.kompose.service: consul
status:
loadBalancer: {}
Это всё что нужно

Anton
21.03.2018
11:20:52
kind: Service
apiVersion: v1
metadata:
name: my-service
spec:
selector:
app: MyApp
ports:
- name: http
protocol: TCP
port: 80
targetPort: 9376
- name: https
protocol: TCP
port: 443
targetPort: 9377
пример по ссылке. type по умолчанию clusterip

Denis
21.03.2018
11:21:07
ок, спасибо

Maksim
21.03.2018
11:21:21
Ну да) externalName это от headless CNAME сервиса
Я выше выложил сервис, должен работать (убрал всё лишнее)
NodePort отличается от ClusterIP тем, что на всез нодах, где есть kube-proxy будет настроен проброс рандомного порта в под

Denis
21.03.2018
11:26:00

Maksim
21.03.2018
11:26:08
днс работает?
и как ты проверяшь?

Denis
21.03.2018
11:26:37
[dlozhkin@dev-kbr01 ForgeRockSSO]$ kubectl get service -n sso
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
bootstrap ClusterIP None <none> 55555/TCP 1m
consul NodePort 10.102.125.25 <none> 8500:32011/TCP 1m
frontend NodePort 10.105.20.185 10.226.212.165 80:32676/TCP,443:30288/TCP 1m
openam ClusterIP 10.97.91.77 <none> 8080/TCP,8443/TCP 1m

Anton
21.03.2018
11:26:54
вообще нафига консул внутри к8с? =)

Denis
21.03.2018
11:27:10
там переменные хранятся

Anton
21.03.2018
11:27:28
в его key:value? только за этим он притянут?