@pro_openstack

Страница 106 из 117
Mikhail
14.02.2017
12:57:41
в документации по ceph или fio ? по fio где-то видел рекомендацию перезаписывать нулями перед тестом, но раньше с этим не замечал проблем, вернее замечал конечно с thin дисками, но там логика процесса была вполне ясна если речь о ceph, то я пока не нашел или имеется в виду это? RBD with replicated cache and erasure-coded base: This is a common request, but usually does not perform well. Even reasonably skewed workloads still send some small writes to cold objects, and because small writes are not yet supported by the erasure-coded pool, entire (usually 4 MB) objects must be migrated into the cache in order to satisfy a small (often 4 KB) write. Only a handful of users have successfully deployed this configuration, and it only works for them because their data is extremely cold (backups) and they are not in any way sensitive to performance. RBD with replicated cache and base: RBD with a replicated base tier does better than when the base is erasure coded, but it is still highly dependent on the amount of skew in the workload, and very difficult to validate. The user will need to have a good understanding of their workload and will need to tune the cache tiering parameters carefully.

Mikhail
14.02.2017
13:06:57
да собстно пока ни к чему, доку опенстека я не читал, если об этом разговор

Google
Михаил
14.02.2017
13:10:10
просто к фио при параметре ioengine=rbd у меня есть ряд вопросов

и подозрений

Mikhail
14.02.2017
13:11:21
вроде да, есть странности с ним, я выше ссылку кидал, как раз тоже хотел у себя проверить

если так, побыстрому, то у меня разница между ioengine=libaio и rbd раза в 1.5 по иопсам на одном и том же имидже

в пользу libaio

Михаил
14.02.2017
13:51:53
мда

Марк ☢
14.02.2017
14:08:04
А мне кажется, всё дело в комбинации —sync и —fsync

Михаил
14.02.2017
14:08:20
Марк ☢
14.02.2017
14:08:27
--direct=1

я так и не понял какого болта, но все 4 варианта (по каждому ключу вкл и выкл) дают на libaio на HDD разные результаты. прям совсем разные.

ну и на rbd они тоже влияют

ещё. про заполнение нулями

чтобы зааллокейтить чо-то там на XFS надо синкать в XFS-ном журнале метаданные от XFS. Когда же файл аллоцирован, то доступ к его данным (а цеф, вроде. вобще к ним в режиме O_DIRECT обращается) не требует записывания изменений в журнал

Google
Марк ☢
14.02.2017
14:11:06
поэтому предварительное прописывание образа перед бенчмарком имеет реальный смысел

ну мож тока mtime + atime. но это отключаемо в опциях монтирования

Mikhail
14.02.2017
14:14:56
поэтому предварительное прописывание образа перед бенчмарком имеет реальный смысел
здесь я согласен насчет бенчмарка, но спрашивал я о логике процесса - не могу понять почему 90% записи попадает в холодный пул, а 10% в горячий

интересно как это все будет работать вместе с evict'ом объектов из горячего пула

Марк ☢
14.02.2017
14:18:21
АААА

я вспомнил. видел такое на аппаратном рейде

там логика кеша была такая: чтобы активная запись не вытесняла закешированное прочтённое, он соблюдал соотношение объемов данных в кеше на запись и на чтение. и там регулировалось оно в настройках

может это?

Mikhail
14.02.2017
14:20:21
гм, не знаю

а как соотносится с нормальной работой "размеченного" пула?

кстати, а общие иопсы пула у вас какие получаются, сравнимы с суммой иопсов всех винтов? Или какой примерно коэфф?

у меня коэффициент какой-то очень тухлый получается, но и винты вообще-то половина из помойки

Александр
14.02.2017
14:24:09
Марк ☢
14.02.2017
14:24:33
Тебе ссд приехали? Тест делал?
приехал. купили переходник с M2 на PCIExpress. включили. дымок. сдали по гарантии

прям реально дымок. выгорела дорожка

Александр
14.02.2017
14:25:57
Пиздец

Google
Sheridan
14.02.2017
15:04:31
прям реально дымок. выгорела дорожка
У меня так почти в 2002 винт сдыхал. Чото щелкнуло и сервант с nt4 начал конкретно так лагать. Когда разобрал - на контроллере винта часть микросхемы от перегрева видимо треснула

Roman
14.02.2017
15:45:55
https://bugs.python.org/issue27022

хренасе

@socketpair , ты?

Марк ☢
14.02.2017
15:46:32
да

Tverd
15.02.2017
08:17:36
Уважаемые, подскажите, у кого-нить работает OpenStack на AMD нодах?

Sergey
16.02.2017
10:50:47
123

Dmitry
16.02.2017
11:14:10
Трансляцию или запись будет?

Alexandr
16.02.2017
11:14:50
Кажется нет

Sergey
16.02.2017
11:15:50
судя по отсутствию аппаратуры для этого - нет.

Dmitry
16.02.2017
11:17:39
Куда-то синтезоида дели

Sergey
16.02.2017
11:17:47
да вон сидит же

Dmitry
16.02.2017
11:18:00
Теперь увидел )

Roman
16.02.2017
11:23:01
Записи не будет чтоль? Плак, плак...

Dmitry
16.02.2017
11:35:12
Симпа за браззерс лол

Про брфрс щас обидно было

Artem
16.02.2017
11:49:03
А никто не сталкивался с тем что libvirt в segfault падает ? centos 7 libvirt 2 liberty virt_type=qemu

Dmitry
16.02.2017
11:49:06
Хрыч, братишка

Artem
16.02.2017
11:49:18
* падает при попытке запуска интсанса

Alexandr
16.02.2017
11:59:25
Гопро появилась! Кажется будет запись

Google
Михаил
16.02.2017
12:00:22
Уф

Я устал

Alexey
16.02.2017
12:04:55
Я устал
Где видос то?

Dmitry
16.02.2017
12:07:06
Реквестирую презу интела

Хорошо если кинут ссылку

Я не знаю, есть ли тут докладчик. Миш попросишь его?

Михаил
16.02.2017
12:08:33
Да, спрошу

Alexandr
16.02.2017
12:37:20
Грустно как-то...

Михаил
16.02.2017
12:37:30
Да не

Отлично вещает

Alexandr
16.02.2017
12:38:50
Ну если дальше будет сводка, то норм. Пока четыре разбитых инфографики не очень удобно было слушать

http://www.slideshare.net/openstack_kr/openstack-days-korea-2016-track1-all-flash-ceph

Sergey
16.02.2017
12:51:21
в северной корее?

Михаил
16.02.2017
14:25:56
Это канал с упорантами, если что)

Mikhail
16.02.2017
14:44:30
линк на запись скинуть не забудьте

Марк ☢
16.02.2017
20:06:58
https://plus.google.com/106346700132776512233

вот этого товарища кто-нибудь знает ?



Михаил
16.02.2017
20:15:08
https://plus.google.com/106346700132776512233
Ceph troubleshooting: "N pgs down" - OSD down - full 100%. ===================================== Коллеги, как запустить переполненный OSD (под счастливым номером 13)?

аааааааааааааааа

Google
Михаил
16.02.2017
20:15:11
проорал

@alsvartr

Марк ☢
16.02.2017
20:16:34
проорал
а можно для тех кто в танке, что делать в этом случае ?

Михаил
16.02.2017
20:16:49
страдать и мучиться от собственного долбоебизма)

Марк ☢
16.02.2017
20:17:50
вобще странно. я б на их месте запустился, но ридонли. чтобы слить пг на друие винты можно было

Михаил
16.02.2017
20:18:08
у тебя у цефа вылетает healt warn при 85% и health error при 95%, то есть он поправил себе лимиты, забил диск, а теперь страдает

Михаил
16.02.2017
20:21:30
а что ты такого спросить у него хотел?

Страница 106 из 117