
kay
25.10.2016
13:30:00
а какой транспортиспользуется?
ну и желательно конфиг посмотреть

Alexander
25.10.2016
13:32:52
smtp

Artem
25.10.2016
13:36:21
фланель можно под системд вообще запустить

Google

Alexander
25.10.2016
14:00:56
все дело в TLS, надо слать через 587 порт почту
smtp_smarthost: 'smtp.yandex.ru:587'

kay
25.10.2016
14:01:49
починилось?

Alexander
25.10.2016
14:01:53
да
завтра попробую телеграм подключить

kay
25.10.2016
14:02:48
а он что, в логи не писал?

Alexander
25.10.2016
14:03:18
в логи про почту ни строчки
принцип - пуля вылетела, проблемы на вашей стороне

kay
25.10.2016
15:52:17
@sclif13 возможно нужно было включить verbose logging

Alexander
25.10.2016
15:54:07
verbose не нашел, но включал-log.level=debug

kay
25.10.2016
15:57:06
я это и имел в виду
там что-нибудь показывал?

Alexander
25.10.2016
16:01:43
на счет почты ничего, только
2016-10-25T14:23:37.817262708Z time="2016-10-25T14:23:37Z" level=debug msg="Received alert" alert=NodeMemoryUsage[1e1e79e][resolved] component=dispatcher source="dispatch.go:160"

Google

Roman
25.10.2016
16:19:37

kay
25.10.2016
16:58:50
Это если трафика много

Roman
25.10.2016
17:06:24

kay
25.10.2016
17:06:40
да хотя бы 1gb.
а на 100mb можно и vxlan
даже нужно. не userspace же использовать
iperf у меня в виртуалке:
vxlan:
[ 3] local 10.1.67.0 port 57524 connected with 10.1.14.0 port 12345
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-30.0 sec 4.85 GBytes 1.39 Gbits/sec
ethernet:
[ 3] local 192.168.122.117 port 59942 connected with 192.168.122.224 port 12345
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-30.0 sec 24.3 GBytes 6.95 Gbits/sec
kvm в chromebook

Ihor
25.10.2016
18:01:26
kvm в chromebook?

Roman
25.10.2016
18:42:23

kay
25.10.2016
18:54:26
@idvoretskyi да. за это он мне и нравится

Ihor
25.10.2016
18:56:14
Ядро пересобирал?

kay
25.10.2016
18:56:41
нет. обычный дистрибутив linux поставил

Ihor
25.10.2016
18:56:54
А, так неинтересно
У меня стоит в дуалбуте, но не запускаю
ChromeOS хватает с головой

kay
25.10.2016
18:57:46
kvm нет )
docker'а того же

Ihor
25.10.2016
18:58:50
На лаптопе не вижу необходимости
Все есть удаленно

Google

kay
25.10.2016
18:59:03
у меня этот лаптом рабочая лошадка

Ihor
25.10.2016
18:59:42
У меня тоже)
Основной и единственный девайс
SSH и домашняя/рабочая лабы решают все вопросы

Max
26.10.2016
19:21:15
как так то
NAME STATUS VOLUME CAPACITY
pg-claim Bound gfs-local 100Gi
srv-claim Pending
kind: PersistentVolume
...
spec:
capacity:
storage: 100Gi
kind: PersistentVolumeClaim
...
resources:
requests:
storage: 20Gi
Один claim на 20 и второй на 20

Fike
26.10.2016
19:44:36
persistent volume неделим, насколько знаю
кубернетес имеет право захватить volume большего размера, чем указано в claim
поэтому у тебя вся сотня уходит одному потребителю

Dmitry
26.10.2016
21:49:39
привет всем! а как происходит service discovery в системе, где установлен kubernetes?

Fike
26.10.2016
21:50:19
блин, ну документация же http://kubernetes.io/docs/user-guide/services/

Dmitry
26.10.2016
21:50:48

Fike
26.10.2016
21:52:58
использовать dns, а не переменные окружения. это написано там же, но ниже.

Dmitry
26.10.2016
21:54:05
все, прочел, спасибо)
имена сервисов, получается, лучше тоже передать через переменные среды, верно?
не конкретные IP, а названия сервисов, типа 'nats'

Alexandr
27.10.2016
07:13:23
https://www.coursera.org/learn/cloud-networking/home/welcome - первый и единственный курс, за который заплатил на курсере. Минус - "преподы" халявят и много на самостоятельное изучение, сами они больше воду в видосах льют
@kay_rus а есть walkthrough по исходникам kubernetes?

kay
27.10.2016
07:16:23

Alexandr
27.10.2016
07:33:26
"Вот папка server - тут методы, которые отвечают за cluster-info. Мы заюзали шаблон проектирования директирование."

kay
27.10.2016
07:34:56
что-что, прости?

Google

Alexandr
27.10.2016
07:34:59
В идеале - типа такого http://backbonejs.org/docs/backbone.html

kay
27.10.2016
07:35:49
не встречал. мой метод прост. grep, vim, grep, vim

Alexandr
27.10.2016
07:36:58
А где лежит код, который работает с etcd на тему "у нас кластер"

kay
27.10.2016
07:37:19
но если что-то серьезное нужно анализировать, то голова начинает пухнуть, т.к. слишком много переменных нужно в голове держать. наверняка должны быть какие-то утилиты с автоматическими jump'ами по функциям, историей и т.п.
но т.к. это не основной род моих занятий, то я просто vim-grep'аю

Alexandr
27.10.2016
07:38:36
Ясно. Я всё хочу раскурить как там кластер работает. Решил через исходники пойти.

kay
27.10.2016
07:38:49
кластер?
что в твоем понимании кластер? api federation?

Alexandr
27.10.2016
07:39:24
Две машины, для начала

Admin
ERROR: S client not available

Alexandr
27.10.2016
07:40:46
Без вагранта и пре-подготовленных образов чтобы собрать две машины и они бы показали что две ноды доступно.

kay
27.10.2016
07:43:06
запускается etcd (не важно где), затем apiserver на master. apiserver работает с etcd. на worker'ах запускается kubelet, в котором указано где живет apiserver и с каким паролем с ним нужно общаться. а дальше уже идет общение kubelet<->apiserver. etcd используется только как persistent хранилище.
вот чего я точно не встречал и что пригодилось бы многим - как поднять безопасный kubernetes кластер
по умолчанию kubernetes всё наружу выставляет как дешевая проститутка.

Sergey
27.10.2016
07:46:46

kay
27.10.2016
07:47:03
этого не достаточно

Sergey
27.10.2016
07:47:14
там про admission мало информации

kay
27.10.2016
07:47:36
admission - это более высокий уровень. я же говорю про низкоуровневые фишки.

Sergey
27.10.2016
07:47:56
а про аутентификацию пользователей в сервисах и про аутентификацию сервисов друг у друга есть

kay
27.10.2016
07:48:26
@spuzirev ^ опять не то. см. выше.

Google

Sergey
27.10.2016
07:48:41
куда уж ниже уровень?
ниже сеть

kay
27.10.2016
07:48:46
firewall
и дефолтные настройки

Sergey
27.10.2016
07:49:25
фаервол для контейнеров или для охраны хостов?

kay
27.10.2016
07:49:29
я уже сутки голову ломаю над решением проблемы открытых портов на системах, где всего один публичный интерфейс

Sergey
27.10.2016
07:49:32
второе не задача k8s

kay
27.10.2016
07:49:37
а должно быть

Alexandr
27.10.2016
07:49:39
@kay_rus thanks за описание

Sergey
27.10.2016
07:50:04

kay
27.10.2016
07:50:13
я подозревал, что многие будут утверждать что это не проблема k8s
но практика показывает, что либо костыли городить -либо всё встроить в kube-proxy
ну скажем есть vm или baremetal который подключен к интернету без firewall.

Sergey
27.10.2016
07:51:33
ограничивать контейнеры друг от друга, ограничивать контейнеры от мира, от сервисов - это задача k8s. делать фаервол хоста - явно нет.


kay
27.10.2016
07:51:55
и у него всего один интерфейс
предположим k8s работает с дефолтными настройками.
у нас есть мониторинг и все дела
и тут получается, что наружу смотрит следующее:
* http://host:10252/configz
* http://host:10252/debug/pprof/heap
* http://host:10251/configz
* http://host:10251/debug/pprof/heap
* http://host:10255/metrics
* http://host:4194
* ну и самая мякотка https://host:10250 о которой я давно писал https://github.com/kayrus/kubelet-exploit
и вот дилемма. если какие-то сервисы безболезненно завернуть в firewall, то другие, например мониторинг, просто так не завернешь - тебе придется знать ip нод, на которых живет prometheus.
если 10250 повесить на localhost, и запилить ssh, то перестанут работать kubectl exec и kubectl logs.
и что самое страшное - о всех этих проблемах известно давно еще с 2015 года. и никто не хочет это фиксить. а если предложить решение, то оно превращается во флейм.
потому наиболее правильное решение внедрить логику firewall'а в kube-proxy
т.к. он работает с api и знает всё обо всех
имхо конечно


Alexandr
27.10.2016
08:03:49
"делать фаервол хоста - явно нет." - а best practices? Судя по @kay_rus best practices - идите в Google Cloud.