
Марк ☢
01.03.2017
05:02:04
Да прост погуглил. Попробовал понять что есть свифт. Нихрена не понял. Пошел спать.
Общих слов много

Старый
01.03.2017
05:41:08

Alexander
01.03.2017
07:03:31

Google

Fike
01.03.2017
07:05:44
с инфраструктурными продуктами селектела был слишком печальный опыт, чтобы я здесь не отписался про это

Alexander
01.03.2017
07:41:57

Александр
01.03.2017
07:42:06
?

Fike
01.03.2017
07:58:33

Марк ☢
01.03.2017
08:38:57

Sergey
01.03.2017
08:41:24
А конкретнее ?
ну конкретнее сейчас их свифт например подпятисотивает, примерно 0.1% ответов.

Fike
01.03.2017
08:42:51
Конкретно с vpc была ситуация, что они выкатили версию без сети внутри. И забивали на тот вал тикетов, которые к ним приходили, поэтому приходилось самому узнавать, что у них там вообще происходит. А в данный момент пытаемся что-нибудь сделать, чтобы забрать файлы из их облака, потому что они в индексе есть, но доступа к ним нет, а существуют ли они на самом деле - они не знают и предлагают (!) подождать до мая (!) и вот тогда уже воспользоваться новой версией (!), причем, насколько понимаю, планируется не апгрейд, а выкатка абсолютно нового приложения, то есть они хотят, чтобы мы еще перелили самостоятельно данные.

Михаил
01.03.2017
10:35:26
https://www.slideshare.net/kioecn/build-an-highperformance-and-highdurable-block-storage-service-based-on-ceph
на просторах интернета найдена интересная презентация

Sergey
01.03.2017
10:46:00
Миш, этих презентаций - вагон)
Там нет ответов на самые главные вопросы, где же узкое горлышко )))
Похоже только с bluestore нас ждёт успех в плане ssd

Марк ☢
01.03.2017
10:48:05

Google

Sergey
01.03.2017
10:49:39
Его нельзя разогнать в космос с одной rbd вообще, а со многими rbd в ряде случайных операций средними блоками

Марк ☢
01.03.2017
10:50:10
Я для себя открыл что это изза задержек в сети

Sergey
01.03.2017
10:50:19
Ой вряд ли

Марк ☢
01.03.2017
10:50:25
А чо нет то

Sergey
01.03.2017
10:51:20
Ну объясни, у меня сеть 20Гб/с с мин задержками
Iperf подтверждает

Sergey
01.03.2017
10:51:47

Марк ☢
01.03.2017
10:51:59

Sergey
01.03.2017
10:52:21
Допустим 100

Марк ☢
01.03.2017
10:52:27
Чего

Sergey
01.03.2017
10:52:31

Sergey
01.03.2017
10:52:57
100 мкс

Sergey
01.03.2017
10:53:17

Марк ☢
01.03.2017
10:53:18
10к иопсов

Sergey
01.03.2017
10:54:27
Как-то не клеится, при считывании с ssd задержка во многих режимах больше и что? + открой ты 100 сокетов параллельно

Sergey
01.03.2017
10:54:54
http://www.supermicro.nl/products/system/3U/5038/SYS-5038ML-H12TRF.cfm надо кому? дешего!

Sergey
01.03.2017
10:55:00
есть кстати легкое подозрение, что применение BBR улучшит жизнь при полной утилизации сети.

Sergey
01.03.2017
10:55:10
10К с 12ю серваками на е3-1230v3/16ram

Марк ☢
01.03.2017
10:55:47

Google

Марк ☢
01.03.2017
10:55:55

Sergey
01.03.2017
10:56:04

Марк ☢
01.03.2017
10:56:23

Sergey
01.03.2017
10:57:58

Alexey
01.03.2017
11:07:35
Привет всем. А расскажите, плз, про ceph в варианте Object storage. Если я правильно понимаю, метаданные хранятся на специальных серверах mds. А не является ли это узким местом, если объектов много и они маленькие? И можно ли их масштабировать горизонтально?

Sergey
01.03.2017
11:08:30
mds и метаданные на специальных серверах - это CephFS

Alexey
01.03.2017
11:09:38
а где тогда хранятся данные, если это obj storage?

Марк ☢
01.03.2017
11:09:40

Sergey
01.03.2017
11:09:44

Марк ☢
01.03.2017
11:10:14
Я на айпаде. Сергей, скинь баянную картинку с архитектурой цефа. Где по уровням

Sergey
01.03.2017
11:10:36
https://hsto.org/storage2/3c4/156/36f/3c415636feba4cc561a542f5fe913066.png

Alexey
01.03.2017
11:10:39
т. е. radosgw это и есть фактически сервер метаданных?

Sergey
01.03.2017
11:10:53

Михаил
01.03.2017
11:10:59
А кто использует nobarrier в своих CEPH кластерах?

Sergey
01.03.2017
11:12:42
Мы нееее
Чревато боком

Alexey
01.03.2017
11:12:54
а где тогда метаданные хранятся, если не а rados и не не на выделенном отдельном mds?

Sergey
01.03.2017
11:13:00

Google

Марк ☢
01.03.2017
11:13:29

Sergey
01.03.2017
11:14:25

Марк ☢
01.03.2017
11:14:33
@AlexeyexelA а ты когда имел в виду СЕРН как объектное хранилище -- это ты какое апи доступа к ним имел в виду ?

Sergey
01.03.2017
11:15:50

Alexey
01.03.2017
11:16:03

Sergey
01.03.2017
11:16:12

Марк ☢
01.03.2017
11:16:13
Ну тогда да. Это radosgw

Alexey
01.03.2017
11:16:58
хорошо, поставим вопрос иначе. Если, например, в hadoop при наличии большого количества маленьких объектов узким местом будет память в неймноде, то в случае объектного хранилища ceph что будет?

Марк ☢
01.03.2017
11:17:01
А. Ну да. Радосгв хранит свои метаданые в радосе. Радос свои метаданные хранит в мониторах
Примерно так

Sergey
01.03.2017
11:17:15
еще размер специальных индексных объектов. но их можно шардировать.

Марк ☢
01.03.2017
11:17:54
А радосгв кстати не занимается мерджм и сплиттингом объектов при писании в радос ?

Sergey
01.03.2017
11:18:17
мерджингом обещает заняться блюстор, во всяком случае я об этом что-то краем уха слышал.

Марк ☢
01.03.2017
11:18:45

Alexey
01.03.2017
11:19:14
ок, тогда как все это управляется с репликацией, если нет какого-то централизованной точки с метаданными?

Sergey
01.03.2017
11:19:17

Google

Sergey
01.03.2017
11:19:30

Alexey
01.03.2017
11:20:03
радос уровень что из себя представляет? это какая-то группа серверов?

Марк ☢
01.03.2017
11:20:46

Sergey
01.03.2017
11:21:08
я бы рекомендовал все же почитать документацию. или статью какую-нибудь с хабра, например, https://habrahabr.ru/post/313644/
а то мы можем играть в вопрос-ответ с год. :)

Alexey
01.03.2017
11:21:39
ну тогда их должно быть один? иначе консистентность как будет соблюдаться?
спасибо, почитаю

Sergey
01.03.2017
11:21:49
их точно будет min_size
хотя бы после записи.

Sergey
01.03.2017
11:35:32

Sergey
01.03.2017
11:35:49
но rgw по опыту заметно лучше свифта

Михаил
01.03.2017
11:50:59
3 ноды по 30 дисков сата )
че-то я немного психанул

Александр
01.03.2017
11:51:49
а чего не 9 нод по 10 дисков?

Михаил
01.03.2017
11:52:03
потому что