@hadoopusers

Страница 147 из 182
Aleksey
19.09.2018
06:05:39
спасибо

Renarde
19.09.2018
06:08:51
просто тут фреймворк более менее готовый. Иначе придется писать jdbc к ораклу, потом перегонку типов делать, потом запись в кассандру - а тут готовый инструмент так или иначе.

Andrey
19.09.2018
10:14:09
Developer advocate Adnan Rahić wrote about Containers versus serverless from a DevOps perspective. Spoiler alert: he supports both, depending on the situation. "Both technologies have awesome use cases and valid pain points," he writes. "I just want to tell you when to use what." https://hackernoon.com/containers-vs-serverless-from-a-devops-standpoint-d8232bd0f39b?mkt_tok=eyJpIjoiT0RneFpEa3paamcwTWpJeiIsInQiOiJhRzRYcGt3alNkelp0clVzTkt2Y1pJcWhpdjBMaVVqNG1NZlF3aHFFRXRRNlJsUVpkeWg1S21cLzhxQmtpaHlWTDdsMFwvSm1yRlY4QnJ1eTBQMUxxanFIZzF1NnZZWFBEQ1dGbEpLblNmT2Y2SGFXcmJKVFJidEpwWmE1VHRmK2RnIn0%3D

Gartner: How to Choose Your Kubernetes Deployment Model https://www.gartner.com/doc/reprints?id=1-5EYO9EK&ct=180906&st=sb

Google
Старый
21.09.2018
05:20:25
Народ, есть у кого в проде 12 тб hdd под hbase+hdfs+sparc+pig?

обьём 1 ноды более 280 тб

и вообще, как вы относитесь к дискам свыше 2 тб под hdfs+hbase

Евгений
21.09.2018
05:36:59
Хранить будет супер, а считать будет очень тяжело - коров крайне мало

Stanislav
21.09.2018
05:37:42
А ты посчитай время ребилда при падении одной ноды. Если тебе пофиг на неделю+ в деградированном состоянии, то можно. Не говоря о производительности в 6 раз хуже обычного конфига

Старый
21.09.2018
05:38:46
?но не имея пока даже близко алгоритмов и структуры данных которые считать, я вообще кластер в вакууме проектирую

Евгений
21.09.2018
05:40:34
Нужно больше коров)

Старый
21.09.2018
05:40:49
я в данный момент полностью пиотив дисков свыше 2 тб, sas hgst 1.8 tb хочу брать и 10к rpm, но начальство видит красивые картинки, где типа супермикра и фсьюджицу делают кластера на 10-12 тб дисках

при этом пишут ha и крутые рассчёты

Евгений
21.09.2018
05:41:25
Чем больше дисков, кстати, тем выше скорость записи на каждой ноде

Старый
21.09.2018
05:42:03
это я вкурсе, но у меня одни диски выходят 110 млн сейчас

Google
Stanislav
21.09.2018
05:42:22
Так все просто, ты ж теперь начальник. Рисуй презу, сравнивая решения по метрикам

Старый
21.09.2018
05:42:41
?я скорее заложник

есть бюджет, есть хотелки - реализовывай

Евгений
21.09.2018
05:43:42
Если надо всё это мёртвым грузом хранить - то можно хоть на лентах хадуп поднять)

Хотя хз, можно ли)

Stanislav
21.09.2018
05:44:38
есть бюджет, есть хотелки - реализовывай
Сто хранить то будете, это знаешь? Если большой размер блока ставить, можно играться с дисками. А если мелкий текст, то это будет полная шляпа

Старый
21.09.2018
05:45:37
в среднем запись будет инфы для обработки примерно 4-6 гб в час

и периодически по ней олапы на 20-40к ключей

?мне кажется если я это заведу, и оно отработает пол года, я могу документы в гугл подавать

Stanislav
21.09.2018
05:53:14
в среднем запись будет инфы для обработки примерно 4-6 гб в час
265 тб за пять лет. В 2 ноды что-ли хочешь уложиться?)

Старый
21.09.2018
05:54:32
265 тб за пять лет. В 2 ноды что-ли хочешь уложиться?)
так это новые данные там 1 пб сразу закачан будет

и это мы ещё метаданные не учли кучу других факторов, я пока обьём примерно смотрю на x1 как 1,6 пб, или 3,2 для x2

x3 тупо по финансам не тяну

у меня сейчас выходит 1600 sas дисков и 410 ssd

Stanislav
21.09.2018
06:08:14
Сколько стоит 1 шасси в твоём конфиге?

Старый
21.09.2018
06:09:02
пока без понятия я пока подсчитаю некоторое ещё, и поеду к вендорам

Google
Старый
21.09.2018
06:09:07
скидки выбивать

Stanislav
21.09.2018
06:09:29
Как же тогда ты решил, что не тянешь х3?

Смотри плотную упаковку шасси 4 ноды в 2 юнита. Там допускается 6 дисков на ноду. Ценник очень хорош

Старый
21.09.2018
06:10:26
Как же тогда ты решил, что не тянешь х3?
да уже тупо оперативу с дисками подсчитав

и процами

с сетевухами

Stanislav
21.09.2018
06:11:37
Гпл цены то? Не показатель

Старый
21.09.2018
06:12:07
вот только я ещё свичи не прибавил, трипаровские стойки

оптику, и ибп

Sergey
21.09.2018
06:21:52
а hadoop v3?

erasure coding

Старый
21.09.2018
06:24:22
http://www.aicipc.com/rus/index пользуется кто ими?

Евгений
21.09.2018
06:44:26
x3 тупо по финансам не тяну
А реально, поставь третий хадуп, если у тебя дохрена нод, можешь богатое кодирование 10/4 организовать, фактор репликации всего 1.4)

Andrey
21.09.2018
06:49:45
хрыч ты же не забыл про компрессию?

KrivdaAllStars
21.09.2018
07:51:43
Осень — время, когда горят костры рябин. Горят сроки, эмоционально выгорают писатели на популярных языках с динамической типизацией. С другой стороны, программисты на языке Scala делают задачи вовремя, всегда бодры и веселы. А все потому, что получают мотивационный заряд на митапе, который в этот раз проходит 4 октября в 19:00 в лофте Ключ Трёхгорка (Улица Рочдельская, 15, стр. 17–18). Докладчики: 1. Владимир Полушин. "Как мы запускаем C# на своей VM и при чем тут Scala". 2. Владимир Павкин. "MTL: Scala vs Haskell". 3. [Докладчик уточняется]. Регистрация: http://meetu.ps/e/FRGnt/t1YQm/f

Антон
21.09.2018
09:25:56
KrivdaAllStars
21.09.2018
09:27:16
110 лямов и ссылку на книгу :))
Там показано просто хорошо , что для хадупа ультравместимые дорогие системы бессмысленны

Рамиль
21.09.2018
11:30:30
Народ не кто не пользовался KairosDB для time series? есть какой то фид бек?

kockockoc
21.09.2018
13:39:58
А кто-нибудь использует в Хадупе KMS? Если да, то что? Для CDH, например. А то “Cloudera strongly recommends not using Java Keystore KMS in production environments.”

Google
kockockoc
21.09.2018
13:41:15
А их “Key Trustee KMS “ как я понял не для всех.

Старый
21.09.2018
14:19:05
Там показано просто хорошо , что для хадупа ультравместимые дорогие системы бессмысленны
да это и ежу понятно, только вот бюджет отсилы будет на 9 нод в кластер

Andrey
21.09.2018
15:43:25
Черепичая запись со всеми вытекающими
а где почитать про вытекающие?

Страница 147 из 182