@kubernetes_ru

Страница 754 из 958
kvaps
10.08.2018
22:45:55
Бенчмаркинг ннадо
# fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 test: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=64 fio-2.2.10 Starting 1 process test: Laying out IO file(s) (1 file(s) / 4096MB) Jobs: 1 (f=1): [m(1)] [100.0% done] [305.8MB/101.8MB/0KB /s] [78.3K/26.4K/0 iops] [eta 00m:00s] test: (groupid=0, jobs=1): err= 0: pid=16524: Sat Aug 11 00:45:34 2018 read : io=3071.7MB, bw=318037KB/s, iops=79509, runt= 9890msec write: io=1024.4MB, bw=106058KB/s, iops=26514, runt= 9890msec cpu : usr=14.28%, sys=69.56%, ctx=36192, majf=0, minf=10 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued : total=r=786347/w=262229/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: io=3071.7MB, aggrb=318037KB/s, minb=318037KB/s, maxb=318037KB/s, mint=9890msec, maxt=9890msec WRITE: io=1024.4MB, aggrb=106058KB/s, minb=106058KB/s, maxb=106058KB/s, mint=9890msec, maxt=9890msec Disk stats (read/write): drbd1066: ios=773817/258151, merge=0/0, ticks=740/296, in_queue=469676, util=99.05%, aggrios=786347/262232, aggrmerge=0/0, aggrticks=236960/8916, aggrin_queue=246232, aggrutil=98.36% dm-3: ios=786347/262232, merge=0/0, ticks=236960/8916, in_queue=246232, util=98.36%, aggrios=786347/262274, aggrmerge=0/2, aggrticks=237100/8800, aggrin_queue=237792, aggrutil=98.17% nvme0n1: ios=786347/262274, merge=0/2, ticks=237100/8800, in_queue=237792, util=98.17%

круто, да?

Михаил
10.08.2018
22:50:14
круто, да?
Нет, что за диски, сколько и т д

kvaps
10.08.2018
22:55:17
диски nvme INTEL SSDPEKKA010T7, в данном случае с репликой 2

Google
kvaps
10.08.2018
22:55:44
Нет, что за диски, сколько и т д
Я бы посмотрел на ваш результат в ceph :)

Vadim
10.08.2018
23:12:28
Пфф
пссст, это HA NFS такой

Михаил
10.08.2018
23:12:58
пссст, это HA NFS такой
Ты о чем именно?

Vadim
10.08.2018
23:13:19
Михаил
10.08.2018
23:13:47
А

А ebs ? Longhorn?

Vadim
10.08.2018
23:14:55
последние два вроде всё подряд поддерживают

kvaps
10.08.2018
23:18:33
пссст, это HA NFS такой
Нет, это без NFS

Vadim
10.08.2018
23:21:36
Нет, это без NFS
эммм, окей, хорошо, допустим (я тогда ничего не понял, конечно же, что та статья по ссылке от вас, что весь гугл говорит об NFS, об NFS мы спорили вчера). Для 9го все еще нужно совать модули в ядро?

kvaps
10.08.2018
23:21:56
Да, там dkms

Vadim
10.08.2018
23:22:47
ясно, спасибо

kvaps
10.08.2018
23:24:51
Ну если нужен readwritemany можно запустить NFS но будет медленнее раза в 3

Google
Slava
11.08.2018
05:37:32
подскажите, плиз, как завести kubectl через socks прокси?

туннель поднял ssh -D <port> -f -C -q -N user@host.name.com

доблестный РКН заблочил IP адреса в hetzner'е (даже уже и разблочил,но не все провайдеры спешат обновлять у себя списки)

Bro
11.08.2018
06:22:03
у меня репозиотий компании не был доступен

я позвонил в ростелеком

через некоторое время разблочили

blkmrkt
11.08.2018
06:29:56
Кто-нибудь использовал Win10 Server в кач-ве ноды для куба с Ранчером v2?

Bro
11.08.2018
06:45:13
воу это реально?

blkmrkt
11.08.2018
06:48:58
воу это реально?
хмм точно, дебильный вопрос. Это ж нужен линукс в виртуалке, ок

Bro
11.08.2018
06:53:00
даже на маке вроде через линукс контейнер

Vladimir
11.08.2018
06:55:48
Где фотки?!
а фоток с прошлого митапа так и не завезли, да?

Slava
11.08.2018
07:37:07
Artyom
11.08.2018
08:17:59
Я точно знаю, что в докере недавно добавили такой функционал на винде

Что можно мини учебный кластер запилить

Надо погуглить

blkmrkt
11.08.2018
08:19:52
Что можно мини учебный кластер запилить
мне в продакшн воркеров докидать нужно, просто нашел несколько забытых виндовс серверов, вот хочу запрячь

Pavel
11.08.2018
08:21:38
# fio --randrepeat=1 --ioengine=libaio --direct=1 --gtod_reduce=1 --name=test --filename=test --bs=4k --iodepth=64 --size=4G --readwrite=randrw --rwmixread=75 test: (g=0): rw=randrw, bs=4K-4K/4K-4K/4K-4K, ioengine=libaio, iodepth=64 fio-2.2.10 Starting 1 process test: Laying out IO file(s) (1 file(s) / 4096MB) Jobs: 1 (f=1): [m(1)] [100.0% done] [305.8MB/101.8MB/0KB /s] [78.3K/26.4K/0 iops] [eta 00m:00s] test: (groupid=0, jobs=1): err= 0: pid=16524: Sat Aug 11 00:45:34 2018 read : io=3071.7MB, bw=318037KB/s, iops=79509, runt= 9890msec write: io=1024.4MB, bw=106058KB/s, iops=26514, runt= 9890msec cpu : usr=14.28%, sys=69.56%, ctx=36192, majf=0, minf=10 IO depths : 1=0.1%, 2=0.1%, 4=0.1%, 8=0.1%, 16=0.1%, 32=0.1%, >=64=100.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.1%, >=64=0.0% issued : total=r=786347/w=262229/d=0, short=r=0/w=0/d=0, drop=r=0/w=0/d=0 latency : target=0, window=0, percentile=100.00%, depth=64 Run status group 0 (all jobs): READ: io=3071.7MB, aggrb=318037KB/s, minb=318037KB/s, maxb=318037KB/s, mint=9890msec, maxt=9890msec WRITE: io=1024.4MB, aggrb=106058KB/s, minb=106058KB/s, maxb=106058KB/s, mint=9890msec, maxt=9890msec Disk stats (read/write): drbd1066: ios=773817/258151, merge=0/0, ticks=740/296, in_queue=469676, util=99.05%, aggrios=786347/262232, aggrmerge=0/0, aggrticks=236960/8916, aggrin_queue=246232, aggrutil=98.36% dm-3: ios=786347/262232, merge=0/0, ticks=236960/8916, in_queue=246232, util=98.36%, aggrios=786347/262274, aggrmerge=0/2, aggrticks=237100/8800, aggrin_queue=237792, aggrutil=98.17% nvme0n1: ios=786347/262274, merge=0/2, ticks=237100/8800, in_queue=237792, util=98.17%
А сеть какая? Или вы локально fio сделали?

Artyom
11.08.2018
08:22:24


Но надо поисследовать. Я кажется и оф. доке видел что-то про виндовс

Google
Artyom
11.08.2018
08:23:28
Сейчас не могу посмотреть

kvaps
11.08.2018
10:15:02
Pavel
11.08.2018
10:15:25
Сеть 10G Ethernet, без RDMA
это FIO по сети?

kvaps
11.08.2018
10:17:33
Один девайс локальный, другой удаленный, drbd в режиме полной синхронизации (protocol C)

Если оба девайса удаленные то будет чуть поменьше, но не намного

Paul
11.08.2018
10:21:03
@SinTeZoiD

Stas
11.08.2018
10:27:48
/report

kvaps
11.08.2018
10:31:50
Надо @SinTeZoiD в @report переименовать^_^

lenar
11.08.2018
10:43:00
@SinTeZoiD @DenisIzmaylov spam

Михаил
11.08.2018
11:15:52
Надо @SinTeZoiD в @report переименовать^_^
Или кому-то починить бота

Sergey
11.08.2018
11:17:00
Михаил
11.08.2018
11:22:09
Sergey
11.08.2018
11:24:38
Ага
я думал у всех один бот, в @devops_jobs @devops_ru вродь работает О.о

Stas
11.08.2018
11:49:23
S
11.08.2018
12:32:56
/report

?

MVP
11.08.2018
13:53:56
Как получить 'kubectl top nodes' в json ?

--output json не работает

Google
Pavel
11.08.2018
14:18:39
коллеги, а кто соответсвует? https://habr.com/company/flant/blog/417905/

Дмитрий
11.08.2018
16:18:51
Kubelet вырубает все контейнеры когда на корневом разделе остаётся мало места, подскажите как эту балалайку отключить?

по этому поводу куча параметров, не понимаю что конкретно нужно использовать

--eviction-hard поменял, посмотрим

Anton
11.08.2018
18:50:57
Он вообще при недостатке места на любом из разделов будет врубать эвакуацию

Есть темы с reclaim policy

Но если кратко, не нужно ничего писать на ноду, тогда и проблемы такой не будет

Дмитрий
11.08.2018
18:57:01
Самое забавное что у меня докер вообще на другом разделе, а кубелет паникует когда на руте места мало

Anton
11.08.2018
18:59:20
Ему пофиг)

Дмитрий
11.08.2018
19:02:13
А ещё такой вопрос, я тут сооуражаю плэйбук для мультимастера в очередной раз. Мастерам достаточно одинакового ca.crt, а apiserver.crt могут быть разными?

Anton
11.08.2018
19:03:18
Ну ca логично один иметь

Andor
11.08.2018
19:04:06
кажется кому-то надо бы изучить как работает ssl

Дмитрий
11.08.2018
19:04:11
я к тому, не будет ли проблем если у мастеров будут разные сертификаты?

понятно что если одним корневым подписаны, то не должно быть проблем, хз где у куба может затык возникнуть

Vasilyev
11.08.2018
19:17:37
Эх... В сиэн или сан

Когда ни там ни там не будет нужного имени/айпи

Pavel
11.08.2018
19:55:07
Самое забавное что у меня докер вообще на другом разделе, а кубелет паникует когда на руте места мало
Вообще, кублет следит как за разделом с докером, так и за разделом где лежат данные самого кублета. Например, /var/lib/kubelet

Дмитрий
11.08.2018
20:02:50
Читать нужно про то как поднять мультимастер и переделить инструкцию в плэйбук читая доки ansible.

Google
Дмитрий
11.08.2018
20:04:45
Это уже готовый

Vadim
11.08.2018
20:05:34
Тем не менее там описан алгоритм что где генерить и куда передавать

Дмитрий
11.08.2018
20:12:07
Мне кажется он сложноват будет для понимания. Я бы начал с простых инструкции по настройке мультимастера, коих полно

https://kubernetes.io/docs/setup/independent/create-cluster-kubeadm/ https://blog.inkubate.io/install-and-configure-a-multi-master-kubernetes-cluster-with-kubeadm/ https://docs.ansible.com/ansible/2.5/user_guide/quickstart.html

Nik
11.08.2018
21:04:14
Мне кажется он сложноват будет для понимания. Я бы начал с простых инструкции по настройке мультимастера, коих полно
Из сложного много разнообразных инклудов и очень интересная вещь с синхронизацией файлов. А сам мультимастер прост.

Vadim
11.08.2018
23:54:52
Оу, добро пожаловать снова!

Михаил
12.08.2018
00:31:33

Страница 754 из 958