
Egor
14.10.2017
21:51:37

Let Eat
15.10.2017
06:49:45

Paul
15.10.2017
08:12:45

Andrey
15.10.2017
08:15:41

Google

Grigory
15.10.2017
09:21:32
AWS S3
маленькие файлы плохо там лежат

Paul
15.10.2017
09:23:11
Binary
если вы когда-нибудь планируете извлечь свои данные - в монго их хранить нельзя

Grigory
15.10.2017
09:23:46
ну вопрос же не об этом

Paul
15.10.2017
09:24:44
вопрос именно в этом. Хранилище должно быть надежным, это его основное качество. Скорость, удобство использования и настройки – это уже по желанию. Но надежность – ключевой параметр

Алексей
15.10.2017
09:25:24
minio как вариант

Andrey
15.10.2017
09:26:24
minio тот же aws s3)

Алексей
15.10.2017
09:27:02
Только локальный :-)

Grigory
15.10.2017
09:29:36

Andrey
15.10.2017
09:30:08
ваще хранение блобов в БД это самый жесткий антипаттерн
после превращения бд в процессор очередей или процессинга кроном гигабайтных выборок)

Grigory
15.10.2017
09:30:43
зависит от бд; скажем в хбейзе хранить блобы это норм
или в почти любой "большой таблице"

Google

Andrey
15.10.2017
09:32:06
ну удачи с индексатором)))
или обычной выборкой через *
кто захлебнется раньше - disk io или network io

Fike
15.10.2017
15:41:42

KrivdaTheTriewe
15.10.2017
15:48:09

Fike
15.10.2017
15:55:54
потому что файлы и данные - это разные сущности
реплицировать это всё тоже то еще веселье

SmilingPanda
16.10.2017
04:22:45
#whois Большой проект в банковской сфере. Фронт, девопс немного бэк. Спрашивайте. Изучаю кубер. Дефолтсити. Гугл.
Всем привет.
Вопрос селдующий - только начинаю разбираться с сабжом. Задача такая - есть сервера, около 100, надо на каждый развернуть какие-то докер контейнеры, но у каждого под каждый сервер - свои настройки (из гита, либо дефолтные общие). Подходит ли кубер для этого?

Let Eat
16.10.2017
05:58:02
обычное ключ-значение, где ключ это путь до файла

Fike
16.10.2017
06:06:39

Grigory
16.10.2017
06:08:28
господа а hdfs бд или не?
а вот есть accumulo, поврех хдфс
селл секурити все дела
размер ячейки экзобайт

Let Eat
16.10.2017
06:09:32

Grigory
16.10.2017
06:09:40
типа бд ну и там видать экзобайт и блобы вообще нельзя?

Fike
16.10.2017
06:09:47
это не значит, что там кто-то хранит данные внутри бд

Google

Fike
16.10.2017
06:10:07
давайте сначала в кассандру завезем error code correction

Let Eat
16.10.2017
06:10:54
Вообще что от хранилища надо? придти к координатору, сказать хочу файл, координатор посчитает хэш, пошлет на ноду хранения (или сам пойдет), нода хранения спросит "тебе чего?" ответ "хэш такойто", "ну держи". чем не cassandra

Fike
16.10.2017
06:10:57
а гарантии консистентности там тупо LWW + когда доедет, тогда доедет
тем, что кассандра будет еще по всем SST собирать запись

Let Eat
16.10.2017
06:11:43

Fike
16.10.2017
06:11:56
и я посмотрю как у вас блоб с десятком версий будет собираться

Let Eat
16.10.2017
06:13:42
какие ваши доказательства?
тем что ключ это partition key, т.е просто ключ в sst. из множества локальных sst кассанда быстро выберет те, что с блобом, т.к. блум фильтры есть на всех sst

Fike
16.10.2017
06:13:51
так блоб-то не один
ты один раз записал, потом перезаписал

Let Eat
16.10.2017
06:14:15

Fike
16.10.2017
06:14:53
если версия меняет партишен кей, то как я потом эту запись достану, не зная наперед версии?

Gleb
16.10.2017
06:15:07

Fike
16.10.2017
06:15:37
то что один раз записалось - будет жить до компакта
и компакт с большими записями тоже будет всех радовать

Let Eat
16.10.2017
06:16:30

Grigory
16.10.2017
06:16:30

Google

Grigory
16.10.2017
06:16:36
у них своя схема разбиения
можно посомтреть в java sdk - TransferManager - там оптимизированый аплоад и даунлоад в файлы

Fike
16.10.2017
06:17:08
какая разница можно или нельзя? SST пишется один раз, если я записал новую версию данных, старая никуда не делась

Let Eat
16.10.2017
06:17:08

Fike
16.10.2017
06:17:17
почему нет обновлений записей?

Grigory
16.10.2017
06:17:40
и по моим перформанс тестам - картиночки хранятся в S3 - пробелма возникает в IO именно с маенькими файлами
т.е. S3 приятнее все же с файлами побольше чем по 250кб работать

Let Eat
16.10.2017
06:19:14
почему нет обновлений записей?
потому что новая версия новый ключ (это если версионирование видимое клиенту включено). если отключено, то да будут мерджи, но никто от хранилища блобов не ожидает сотен перезаписей в секунду)

Fike
16.10.2017
06:20:30
никто от хранилища блобов не ожидает хранения старых записей при отключенном версионировании
и снова к тому же вопросу - если новая версия подразумевает новый партишен кей, то как можно получить последнюю версию, не зная ее порядковый номер?

Let Eat
16.10.2017
06:21:29

Fike
16.10.2017
06:22:03
тут цефовики лучше ответят
но если на документ в среднем приходится десять обновлений, то вот этот вариант будет жрать размер документов * фактор репликации * 5

Let Eat
16.10.2017
06:23:22

Fike
16.10.2017
06:23:44
that's great
таким образом надо уже минимум две записи проскакать, чтобы начать что-либо читать
я уж молчу про то, что версионирование в eventual consistency вообще не впишется и без LWT будет очень сложно

Let Eat
16.10.2017
06:25:44

Google

Fike
16.10.2017
06:29:06
понятия не имею что цеф дает
знаю только что он все-таки куда ближе по описываемому функционалу
и что кейс "ну давайте уже запихнем в кассандру" притягивается просто потому что в кассандру запихнуть интересно (и с этим я конечно спорить не могу)

Let Eat
16.10.2017
06:43:13
у всех этих кассандр фундаментальная проблема: нельзя терять больше чем N/2 нод. т.е. файктор репликации N == 5, то 3 ноды терять нельзя. при больших размерах как с этим справиться? Если надежность оборудования (не научные термин) 2%, то из 100 нод кластера 2 будут в отключке и того всё будет висеть не волоске :) при 200 нодах уже гарантировано все будет развалено постоянно. кто-то наверняка уже более умное что-то придумал

Fike
16.10.2017
06:53:19
там не будет кассандры, потому что мерджить не надо вообще ничего
это не данные, это блобы, они заменяются целиком

Alexander
16.10.2017
06:54:41

Fike
16.10.2017
06:55:00
кассандра может быть отрезанной от любого количества нод, пока координатор может достучаться хотя бы до одного владельца vnode, он произведет запись
когда кластер соберется, произойдет LWW-мердж

Andrey
16.10.2017
07:47:54
сори за оффтоп :) а чтобы создать сервис который будет роутить на внешние айпишники мне надо сначала эндпоинт вручную создать, а потом лейблами сервис к нему приписать… или в самом сервисе есть такая спецификация, а?

Qinabu
16.10.2017
07:59:25
Service: spec.type=NodePort

Andrey
16.10.2017
08:21:53
не думаю что это поможет

Ivan
16.10.2017
08:30:14
Всем привет!
Помогите пожалуйста решить проблему с ДНС в кубернете.
поднял кластер, поднял куб-днс.
в апи-сервере прописан сервис-днс на айпишник 10.3.0.254
куб-днс цепляется на этот айпишник своим сервисом.
во все поды тыкался kebrctl logs - нигде ошибок не видать.
но если тыкнуться в днс каким нибудь nslookup-ом то он не резолвит никакие поды((

Andrey
16.10.2017
08:30:53
Service: spec.type=NodePort
я наверно имел ввиду что-то вроде этого:
apiVersion: v1
kind: Endpoints
metadata:
name: mongodb-external
subsets:
- addresses:
- ip: 10.240.0.12
- ip: 10.240.0.13
- ip: 10.240.0.14
ports:
- name: mongo
port: 27017
protocol: TCP
---
apiVersion: v1
kind: Service
metadata:
name: mongodb-external
spec:
ports:
- name: mongo
protocol: TCP
port: 27017

Qinabu
16.10.2017
08:45:13
?