
Anton
15.02.2018
10:53:48
а роль то есть такая?
она вроде "cluster-admin"

Denis
15.02.2018
10:56:14
А CRI-O какие варианты предлагает по логам кстати?

Andrey
15.02.2018
10:56:56

Google

Vadim
15.02.2018
10:58:17

Denis
15.02.2018
10:58:36
в файл?
или там плагины
?

Vadim
15.02.2018
10:59:04
да, в файл
ну и https://github.com/kubernetes-incubator/cri-o/issues/377

Denis
15.02.2018
10:59:24
спасибо почитаю

kvaps
15.02.2018
11:13:31
Блин, какой кубернетес все таки крутой..

Sergey
15.02.2018
11:13:49

kvaps
15.02.2018
11:13:55
:)
чем больше погружаешься тем больше любви излучаешь к нему)
самое сложное - это пройти стадию отторжения в самом начале пути

Sergey
15.02.2018
11:15:29

Google

kvaps
15.02.2018
11:16:34
догадываюсь у такого сумбурно развивающегося проекта навенрняка такой же сумбурный код.
Но я не за реализацию я больше за идею

Aleksey
15.02.2018
11:26:24

Алексей
15.02.2018
12:03:46
как ограничить видимое количество cpu ( ядер ) в поде?

Maksim
15.02.2018
12:09:34
resources limits

Sergey
15.02.2018
12:15:28

Vadim
15.02.2018
12:19:22

Denis
15.02.2018
12:23:50
The Kubernetes type system is built at runtime, so type checks must be done at runtime
Лол
You dawg, I heard you like runtimes so we took what usually happens during compilation and put it inside your runtime.

Tony
15.02.2018
12:25:36
Поднял Minio в k8s. Он отвечает в 2 раза дольше, чем если поднять через docker run. Kubernetes ставил через kubespray, Network plugin: flannel. Как мне это чудо дебагать?

Айбелив
15.02.2018
12:28:54

Vladislav
15.02.2018
12:30:12

Айбелив
15.02.2018
12:30:47
я слышал, что за это слово банят в некоторых чатах

Vadim
15.02.2018
12:30:55
>Ну и на самом деле все нормально
стадия первая: отрицание =)
не знаю как решить - дженериками или переписыванием на расте, я только осветил проблему

Vladislav
15.02.2018
12:32:41
Проблема - чувак не понял как делать. Решение - документация и примеры.

Vadim
15.02.2018
12:34:43
да-да, просто опишем в доках что нужно делать - и проблема исчезла

Алексей
15.02.2018
12:40:44
Resource limits cpu?
Это ограничение количества процесорного времени
А мне нужно чтобы под видел ограниченное количество процессоров
Не все 64 а только 4

Google

Maksim
15.02.2018
12:44:56

Fike
15.02.2018
12:49:24
такого нет в докере
Limit the specific CPUs or cores a container can use. A comma-separated list or hyphen-separated range of CPUs a container can use, if you have more than one CPU. The first CPU is numbered 0. A valid value might be 0-3 (to use the first, second, third, and fourth CPU) or 1,3 (to use the second and fourth CPU).

Mikhail
15.02.2018
12:50:39

Maksim
15.02.2018
12:52:12

Aleksey
15.02.2018
12:59:31

Andrey
15.02.2018
13:29:09
а вы таски по расписанию запускаете юзая кронджобс, или внешней хренью разруливаете?

Let Eat
15.02.2018
13:36:42
как ограничить видимое количество cpu ( ядер ) в поде?
Никак, 99% читают /proc/cpuinfo а оно с хоста. Можно лечить LD_PRELOAD в теории, наверняка у кого нибудь есть уже. 1% делает умно и читает sched_get affinity (jvm 8 кажется так делает тоже), а значит можно заставить "увидеть" при помощи нового CPUManager (включается в kubelet) корректное количество CPU

Sergey
15.02.2018
13:38:08
под каким юзером стартуете поды на coreos?
nobody/nogroup?

noname
15.02.2018
13:38:40
Всем привет. Подскажите есть ли возможность отключить создание автоматических правил iptables и использовать свои?

Denis
15.02.2018
13:40:18
не ставь kube-proxy
на ноду

Алексей
15.02.2018
13:41:00
@rossmohax спасибо

noname
15.02.2018
13:41:31
а если всего 2 физических сервера в режиме мультимастер?

Elia
15.02.2018
13:43:09
господа, а никто не сталкивался с тем, что при превышении лимитов по памяти/cpu одного из подов, перезапускается весь репликасет?

Maksim
15.02.2018
13:45:00

Elia
15.02.2018
13:46:12

Maksim
15.02.2018
13:46:29

Google

Fike
15.02.2018
13:51:40

Alexandr
15.02.2018
14:53:01
strace-ом найти функцию + читать её usage

Aleksey
15.02.2018
15:13:13
Чятик, подскажите, могу ли я в один сервис запихнуть больше одного селектора? Хочу 22 порт пускать напрямую в приложение, а 80/443 через проксю.
Гугл говорит, что я не могу сделать это в рамках одного сервиса. А как в таком случае это сделать?

Айбелив
15.02.2018
15:35:24

Andrey
15.02.2018
15:35:25
сделать два сервиса, не?

Aleksey
15.02.2018
15:54:55
@yourallah @gorilych разные ip же будут

Andrey
15.02.2018
15:55:55
а надо обязательно одинаковый?

Aleksey
15.02.2018
15:56:39
Да. Есть сервис в который для веба мне надо воткнуть проксю и ничего никому не сломать :)

Andrey
15.02.2018
16:03:48
исходная ситуация какая? Есть поды, в которые сейчас сервисом перенаправляются 22,80,443. Этим сервисом пользутся каким-то образом по его ip. Вы хотите теперь 80 и 443 перенаправить на другие поды. Я правильно понял?

Aleksey
15.02.2018
16:11:06

Andrey
15.02.2018
16:11:50
веб прокся будет отдельный под?

Aleksey
15.02.2018
16:12:41

Andrey
15.02.2018
16:18:36
можно попробовать через указание endpoints вручную для сервиса
сервис с пустым селектором
apiVersion: v1
kind: Service
metadata:
name: testservice
spec:
ports:
- port: 22
protocol: TCP
name: ssh
- port: 80
protocol: TCP
name: http
selector: {}
—-
kind: Endpoints
apiVersion: v1
metadata:
name: testservice
subsets:
- addresses:
- ip: 10.104.195.18
ports:
- port: 22
- addresses:
- ip: 10.98.31.226
ports:
- port: 80

Stanislav
15.02.2018
16:39:11
На GKE персистентный сторадж надо выделять на уровне создания KE кластера или на уровне подов?
Или там делаешь кластер, а потом аттачишь туда persistent volume?

Aleksey
15.02.2018
16:41:12

Google

Andrey
15.02.2018
16:41:28
да, к сожалению
https://github.com/kubernetes/kubernetes/issues/13358
в таком случае стоит закрепить ip в определениях нижележащих сервисов
но мне всё-таки кажется, что вы хотите странного и стоит это странное пересмотреть

Vadim
15.02.2018
16:47:47

Andrey
15.02.2018
16:48:52
оно уже вроде как есть у него
используется в другом месте
я так понимаю, какая-то утилита может ходит в git по ssh и по http(s), и использует для этого один адрес. Надо http(s) трафик направить в обход
если эта утилита внешняя по отношению к кластеру, можно было бы через один LB это сделать
жаль, в k8s нет внутреннего LB

Aleksey
15.02.2018
16:53:58

Andrey
15.02.2018
16:55:14

Aleksey
15.02.2018
16:55:20

Vadim
15.02.2018
16:55:29
открываешь http порт, а haproxy уже опционально навесит https

Andrey
15.02.2018
16:56:35

Aleksey
15.02.2018
16:56:38