@pro_openstack

Страница 115 из 117
Марк ☢
01.03.2017
05:02:04
Да прост погуглил. Попробовал понять что есть свифт. Нихрена не понял. Пошел спать.

Общих слов много

Старый
01.03.2017
05:41:08
Google
Fike
01.03.2017
07:05:44
с инфраструктурными продуктами селектела был слишком печальный опыт, чтобы я здесь не отписался про это

Александр
01.03.2017
07:42:06
?

Fike
01.03.2017
07:58:33
Sergey
01.03.2017
08:41:24
А конкретнее ?
ну конкретнее сейчас их свифт например подпятисотивает, примерно 0.1% ответов.

Fike
01.03.2017
08:42:51
Конкретно с vpc была ситуация, что они выкатили версию без сети внутри. И забивали на тот вал тикетов, которые к ним приходили, поэтому приходилось самому узнавать, что у них там вообще происходит. А в данный момент пытаемся что-нибудь сделать, чтобы забрать файлы из их облака, потому что они в индексе есть, но доступа к ним нет, а существуют ли они на самом деле - они не знают и предлагают (!) подождать до мая (!) и вот тогда уже воспользоваться новой версией (!), причем, насколько понимаю, планируется не апгрейд, а выкатка абсолютно нового приложения, то есть они хотят, чтобы мы еще перелили самостоятельно данные.

Михаил
01.03.2017
10:35:26
https://www.slideshare.net/kioecn/build-an-highperformance-and-highdurable-block-storage-service-based-on-ceph

на просторах интернета найдена интересная презентация

Sergey
01.03.2017
10:46:00
Миш, этих презентаций - вагон)

Там нет ответов на самые главные вопросы, где же узкое горлышко )))

Похоже только с bluestore нас ждёт успех в плане ssd

Марк ☢
01.03.2017
10:48:05
Похоже только с bluestore нас ждёт успех в плане ssd
А можно для тупых (меня) в чем проблемы с цефом и с ссд ?

Google
Sergey
01.03.2017
10:49:39
Его нельзя разогнать в космос с одной rbd вообще, а со многими rbd в ряде случайных операций средними блоками

Марк ☢
01.03.2017
10:50:10
Я для себя открыл что это изза задержек в сети

Sergey
01.03.2017
10:50:19
Ой вряд ли

Марк ☢
01.03.2017
10:50:25
А чо нет то

Sergey
01.03.2017
10:51:20
Ну объясни, у меня сеть 20Гб/с с мин задержками

Iperf подтверждает

Sergey
01.03.2017
10:51:47
Ну объясни, у меня сеть 20Гб/с с мин задержками
мин задержки - это сколько? :) 300 мкс? 100? 10?

Марк ☢
01.03.2017
10:51:59
Ну объясни, у меня сеть 20Гб/с с мин задержками
Сколько задержка ? Подели 1с на это числр. Получишь предел иопсов. Разве нет ?

Sergey
01.03.2017
10:52:21
Допустим 100

Марк ☢
01.03.2017
10:52:27
Чего

Sergey
01.03.2017
10:52:31
Sergey
01.03.2017
10:52:57
100 мкс

Sergey
01.03.2017
10:53:17
Его нельзя разогнать в космос с одной rbd вообще, а со многими rbd в ряде случайных операций средними блоками
я на этот же эффект смотрю с другой стороны. клиенту (потребителю) довольно трудно ушатать кластер целиком.

Марк ☢
01.03.2017
10:53:18
10к иопсов

последовательных - раз. не совсем так - два.
А в параллельных во что упирается ?

Sergey
01.03.2017
10:54:27
Как-то не клеится, при считывании с ssd задержка во многих режимах больше и что? + открой ты 100 сокетов параллельно

Sergey
01.03.2017
10:54:54
http://www.supermicro.nl/products/system/3U/5038/SYS-5038ML-H12TRF.cfm надо кому? дешего!

Sergey
01.03.2017
10:55:00
есть кстати легкое подозрение, что применение BBR улучшит жизнь при полной утилизации сети.

Sergey
01.03.2017
10:55:10
10К с 12ю серваками на е3-1230v3/16ram

Google
Марк ☢
01.03.2017
10:55:55


Sergey
01.03.2017
10:56:04
Чо за ббр ?
гугл недавно выкатил новый congestion algo

Sergey
01.03.2017
10:57:58
10К с 12ю серваками на е3-1230v3/16ram
Дешево это почем и сколько их шт?

Alexey
01.03.2017
11:07:35
Привет всем. А расскажите, плз, про ceph в варианте Object storage. Если я правильно понимаю, метаданные хранятся на специальных серверах mds. А не является ли это узким местом, если объектов много и они маленькие? И можно ли их масштабировать горизонтально?

Alexey
01.03.2017
11:09:38
а где тогда хранятся данные, если это obj storage?

Марк ☢
01.03.2017
11:10:14
Я на айпаде. Сергей, скинь баянную картинку с архитектурой цефа. Где по уровням

Sergey
01.03.2017
11:10:36
https://hsto.org/storage2/3c4/156/36f/3c415636feba4cc561a542f5fe913066.png

Alexey
01.03.2017
11:10:39
т. е. radosgw это и есть фактически сервер метаданных?

Sergey
01.03.2017
11:10:53
Михаил
01.03.2017
11:10:59
Там нет ответов на самые главные вопросы, где же узкое горлышко )))
у меня есть подозрение, что те кто знают у них NDA

А кто использует nobarrier в своих CEPH кластерах?

Sergey
01.03.2017
11:12:42
Мы нееее

Чревато боком

Alexey
01.03.2017
11:12:54
а где тогда метаданные хранятся, если не а rados и не не на выделенном отдельном mds?

Google
Марк ☢
01.03.2017
11:13:29
А кто использует nobarrier в своих CEPH кластерах?
http://xfs.org/index.php/XFS_FAQ#Write_barrier_support.

а где тогда метаданные хранятся, если не а rados и не не на выделенном отдельном mds?
В мониторе. Но во время обмена данных нагрузка на монитор практически отсутствет. Как и трафик до него.

Sergey
01.03.2017
11:14:25
Марк ☢
01.03.2017
11:14:33
@AlexeyexelA а ты когда имел в виду СЕРН как объектное хранилище -- это ты какое апи доступа к ним имел в виду ?

Sergey
01.03.2017
11:16:12
s3
все хранится в rados.

Марк ☢
01.03.2017
11:16:13
Ну тогда да. Это radosgw

Alexey
01.03.2017
11:16:58
хорошо, поставим вопрос иначе. Если, например, в hadoop при наличии большого количества маленьких объектов узким местом будет память в неймноде, то в случае объектного хранилища ceph что будет?

Марк ☢
01.03.2017
11:17:01
А. Ну да. Радосгв хранит свои метаданые в радосе. Радос свои метаданные хранит в мониторах

Примерно так

Марк ☢
01.03.2017
11:17:54
А радосгв кстати не занимается мерджм и сплиттингом объектов при писании в радос ?

Sergey
01.03.2017
11:18:17
А радосгв кстати не занимается мерджм и сплиттингом объектов при писании в радос ?
сплиттингом - занимается. мерджингом - насколько мне известно - нет.

мерджингом обещает заняться блюстор, во всяком случае я об этом что-то краем уха слышал.

Марк ☢
01.03.2017
11:18:45
Alexey
01.03.2017
11:19:14
ок, тогда как все это управляется с репликацией, если нет какого-то централизованной точки с метаданными?

Sergey
01.03.2017
11:19:17
Дак блюстор индифферентен к инодам. Нет фс нет инодов
ну там была речь о том что маленькие объекты помещаются сразу в rocksdb, а не в bluefs

Google
Alexey
01.03.2017
11:20:03
радос уровень что из себя представляет? это какая-то группа серверов?

Sergey
01.03.2017
11:21:08
я бы рекомендовал все же почитать документацию. или статью какую-нибудь с хабра, например, https://habrahabr.ru/post/313644/

а то мы можем играть в вопрос-ответ с год. :)

Alexey
01.03.2017
11:21:39
ну тогда их должно быть один? иначе консистентность как будет соблюдаться? спасибо, почитаю

Sergey
01.03.2017
11:21:49
их точно будет min_size

хотя бы после записи.

Sergey
01.03.2017
11:35:32
я бы рекомендовал все же почитать документацию. или статью какую-нибудь с хабра, например, https://habrahabr.ru/post/313644/
почитывая этот канал начинает казаться что не всё так радужно там, как на картинках

Михаил
01.03.2017
11:50:59
3 ноды по 30 дисков сата )

че-то я немного психанул

Александр
01.03.2017
11:51:49
а чего не 9 нод по 10 дисков?

Михаил
01.03.2017
11:52:03
потому что

Страница 115 из 117