Марк ☢
01.03.2017
05:02:04
Да прост погуглил. Попробовал понять что есть свифт. Нихрена не понял. Пошел спать.
Общих слов много
Старый
01.03.2017
05:41:08
Alexander
01.03.2017
07:03:31
Google
Fike
01.03.2017
07:05:44
с инфраструктурными продуктами селектела был слишком печальный опыт, чтобы я здесь не отписался про это
Alexander
01.03.2017
07:41:57
Александр
01.03.2017
07:42:06
?
Fike
01.03.2017
07:58:33
Марк ☢
01.03.2017
08:38:57
Sergey
01.03.2017
08:41:24
А конкретнее ?
ну конкретнее сейчас их свифт например подпятисотивает, примерно 0.1% ответов.
Fike
01.03.2017
08:42:51
Конкретно с vpc была ситуация, что они выкатили версию без сети внутри. И забивали на тот вал тикетов, которые к ним приходили, поэтому приходилось самому узнавать, что у них там вообще происходит. А в данный момент пытаемся что-нибудь сделать, чтобы забрать файлы из их облака, потому что они в индексе есть, но доступа к ним нет, а существуют ли они на самом деле - они не знают и предлагают (!) подождать до мая (!) и вот тогда уже воспользоваться новой версией (!), причем, насколько понимаю, планируется не апгрейд, а выкатка абсолютно нового приложения, то есть они хотят, чтобы мы еще перелили самостоятельно данные.
Михаил
01.03.2017
10:35:26
https://www.slideshare.net/kioecn/build-an-highperformance-and-highdurable-block-storage-service-based-on-ceph
на просторах интернета найдена интересная презентация
Sergey
01.03.2017
10:46:00
Миш, этих презентаций - вагон)
Там нет ответов на самые главные вопросы, где же узкое горлышко )))
Похоже только с bluestore нас ждёт успех в плане ssd
Марк ☢
01.03.2017
10:48:05
Google
Sergey
01.03.2017
10:49:39
Его нельзя разогнать в космос с одной rbd вообще, а со многими rbd в ряде случайных операций средними блоками
Марк ☢
01.03.2017
10:50:10
Я для себя открыл что это изза задержек в сети
Sergey
01.03.2017
10:50:19
Ой вряд ли
Марк ☢
01.03.2017
10:50:25
А чо нет то
Sergey
01.03.2017
10:51:20
Ну объясни, у меня сеть 20Гб/с с мин задержками
Iperf подтверждает
Sergey
01.03.2017
10:51:47
Марк ☢
01.03.2017
10:51:59
Sergey
01.03.2017
10:52:21
Допустим 100
Марк ☢
01.03.2017
10:52:27
Чего
Sergey
01.03.2017
10:52:31
Sergey
01.03.2017
10:52:57
100 мкс
Sergey
01.03.2017
10:53:17
Марк ☢
01.03.2017
10:53:18
10к иопсов
Sergey
01.03.2017
10:54:27
Как-то не клеится, при считывании с ssd задержка во многих режимах больше и что? + открой ты 100 сокетов параллельно
Sergey
01.03.2017
10:54:54
http://www.supermicro.nl/products/system/3U/5038/SYS-5038ML-H12TRF.cfm надо кому? дешего!
Sergey
01.03.2017
10:55:00
есть кстати легкое подозрение, что применение BBR улучшит жизнь при полной утилизации сети.
Sergey
01.03.2017
10:55:10
10К с 12ю серваками на е3-1230v3/16ram
Марк ☢
01.03.2017
10:55:47
Google
Марк ☢
01.03.2017
10:55:55
Sergey
01.03.2017
10:56:04
Марк ☢
01.03.2017
10:56:23
Sergey
01.03.2017
10:57:58
Alexey
01.03.2017
11:07:35
Привет всем. А расскажите, плз, про ceph в варианте Object storage. Если я правильно понимаю, метаданные хранятся на специальных серверах mds. А не является ли это узким местом, если объектов много и они маленькие? И можно ли их масштабировать горизонтально?
Sergey
01.03.2017
11:08:30
mds и метаданные на специальных серверах - это CephFS
Alexey
01.03.2017
11:09:38
а где тогда хранятся данные, если это obj storage?
Марк ☢
01.03.2017
11:09:40
Sergey
01.03.2017
11:09:44
Марк ☢
01.03.2017
11:10:14
Я на айпаде. Сергей, скинь баянную картинку с архитектурой цефа. Где по уровням
Sergey
01.03.2017
11:10:36
https://hsto.org/storage2/3c4/156/36f/3c415636feba4cc561a542f5fe913066.png
Alexey
01.03.2017
11:10:39
т. е. radosgw это и есть фактически сервер метаданных?
Sergey
01.03.2017
11:10:53
Михаил
01.03.2017
11:10:59
А кто использует nobarrier в своих CEPH кластерах?
Sergey
01.03.2017
11:12:42
Мы нееее
Чревато боком
Alexey
01.03.2017
11:12:54
а где тогда метаданные хранятся, если не а rados и не не на выделенном отдельном mds?
Sergey
01.03.2017
11:13:00
Google
Марк ☢
01.03.2017
11:13:29
Sergey
01.03.2017
11:14:25
Марк ☢
01.03.2017
11:14:33
@AlexeyexelA а ты когда имел в виду СЕРН как объектное хранилище -- это ты какое апи доступа к ним имел в виду ?
Sergey
01.03.2017
11:15:50
Alexey
01.03.2017
11:16:03
Sergey
01.03.2017
11:16:12
Марк ☢
01.03.2017
11:16:13
Ну тогда да. Это radosgw
Alexey
01.03.2017
11:16:58
хорошо, поставим вопрос иначе. Если, например, в hadoop при наличии большого количества маленьких объектов узким местом будет память в неймноде, то в случае объектного хранилища ceph что будет?
Марк ☢
01.03.2017
11:17:01
А. Ну да. Радосгв хранит свои метаданые в радосе. Радос свои метаданные хранит в мониторах
Примерно так
Sergey
01.03.2017
11:17:15
еще размер специальных индексных объектов. но их можно шардировать.
Марк ☢
01.03.2017
11:17:54
А радосгв кстати не занимается мерджм и сплиттингом объектов при писании в радос ?
Sergey
01.03.2017
11:18:17
мерджингом обещает заняться блюстор, во всяком случае я об этом что-то краем уха слышал.
Марк ☢
01.03.2017
11:18:45
Alexey
01.03.2017
11:19:14
ок, тогда как все это управляется с репликацией, если нет какого-то централизованной точки с метаданными?
Sergey
01.03.2017
11:19:17
Google
Sergey
01.03.2017
11:19:30
Alexey
01.03.2017
11:20:03
радос уровень что из себя представляет? это какая-то группа серверов?
Марк ☢
01.03.2017
11:20:46
Sergey
01.03.2017
11:21:08
я бы рекомендовал все же почитать документацию. или статью какую-нибудь с хабра, например, https://habrahabr.ru/post/313644/
а то мы можем играть в вопрос-ответ с год. :)
Alexey
01.03.2017
11:21:39
ну тогда их должно быть один? иначе консистентность как будет соблюдаться?
спасибо, почитаю
Sergey
01.03.2017
11:21:49
их точно будет min_size
хотя бы после записи.
Sergey
01.03.2017
11:35:32
Sergey
01.03.2017
11:35:49
но rgw по опыту заметно лучше свифта
Михаил
01.03.2017
11:50:59
3 ноды по 30 дисков сата )
че-то я немного психанул
Александр
01.03.2017
11:51:49
а чего не 9 нод по 10 дисков?
Михаил
01.03.2017
11:52:03
потому что