@hadoopusers

Страница 133 из 182
Andrey
15.08.2018
08:45:12
если с дисками все ок - смотри логи кассандры

ну точнее эти вещи можно одновременно делать =)

Google
Dan
15.08.2018
08:45:48
Знаю что это виртуалки а не контейнеры. Всё =)
там тоже можно изрядно накосячить

Andrey
15.08.2018
08:46:00
ну а дальше траблшутить memtable sstable commitlog

кстати, проксмокс, это же kvm, у тебя сами машины как настроены?
согласен, проброс дисков на квм это всегда весело х)

Dan
15.08.2018
08:48:42
согласен, проброс дисков на квм это всегда весело х)
подозреваю что там пробросом и выделенными дисками и не пахнет. и я даже не буду начинать про сам проксмокс - этот союз бульдога с носорогом

kutepovfedor
15.08.2018
08:53:56
Я хз, админы там делают свои дела, им я доверяю, вроде толковые ребята

Grigory
15.08.2018
08:54:57
на самом деле ты размеры батчей попробуй уменьшить на запись

посмотри что будет

kutepovfedor
15.08.2018
08:56:24
на самом деле ты размеры батчей попробуй уменьшить на запись
Блин, я наврал, там чанк 2 стоит. Т.е. Батч 2 летит в БД

МОжет таки увеличить над?

Grigory
15.08.2018
08:56:43
тогда увеличь

kutepovfedor
15.08.2018
08:57:10
10 пробую

Там документы большие и не проталкивался зарос - ругалась типа слишком большой, я вспомнил

Google
Grigory
15.08.2018
08:58:03
на самом деле не понятно; я по одному пихал и все работало

Andrey
15.08.2018
08:58:20
я на своих тестовых виртуалках спокойно получал около 10к в секунду записей без батчей

kutepovfedor
15.08.2018
08:58:57
Меня огорчают такие высказывания

Grigory
15.08.2018
09:01:16
да даже полезнее по одному наверно) всегда паралелизацию делал на драйвере и пихал по одной

kutepovfedor
15.08.2018
09:01:39
А какой язык ?

Andrey
15.08.2018
09:02:06
набитая

kutepovfedor
15.08.2018
09:02:33
Смерти моей хотите

Andrey
15.08.2018
09:02:50
последний раз делали тесты - несколко суток подряд долбили в нее записи 10к в секуну и потом смотрели все ли ок с данными

проблем не было

kutepovfedor
15.08.2018
09:03:23
А с какого языка писали? Какой драйвер?

Может в драйвере дело?

Andrey
15.08.2018
09:03:28
но там правда сдд

джава

kutepovfedor
15.08.2018
09:03:38
У меня-то пых, и драйвер на cpp

Andrey
15.08.2018
09:04:49
ты же выше писал, что проверял через cqlsh

то есть проблема не в драйвере

kutepovfedor
15.08.2018
09:05:16
верно

Google
kutepovfedor
15.08.2018
09:08:15
Ну тогда у меня открыто предложение - прошу помочь разобраться с проблемой за вознаграждение естессно

kutepovfedor
15.08.2018
09:14:39
[root@cassandra11 ~]# cqlsh Connected to Test Cluster at 127.0.0.1:9042. [cqlsh 5.0.1 | Cassandra 3.11.2 | CQL spec 3.4.4 | Native protocol v4]

Оно ?

Andrey
15.08.2018
09:15:30
да

Roman
15.08.2018
17:04:29
?

Oleksandr
16.08.2018
12:08:53
а кто-то в курсе, как изнутри ec2 инстанса узнать, не спот ли он?

в http://169.254.169.254/latest/meta-data/ вроде нет

Yaroslav
16.08.2018
12:10:58
Oleksandr
16.08.2018
12:11:27
instance-type - не оно?
не, это типа m4.xlarge и прочее

Yaroslav
16.08.2018
12:11:32
а, тогда сорян

Oleksandr
16.08.2018
12:11:41
хотя можно через instance-id и describe-instances

точно

спасибо)

Yaroslav
16.08.2018
12:12:00
а, тогда пожалста

=)))

хотя я все же не уверен, что это сработает, отпиши плз получится или нет

Yaroslav
16.08.2018
12:29:55
сложно запрятано

спасибо

Google
Sergioss
16.08.2018
13:58:55
ERROR [main] regionserver.HRegionServer: Failed construction RegionServer Подскажите плз, это при запуске hbase в fully destribution mode Конфигурил по оф докам



Grigory
16.08.2018
14:04:52
шот не так

Sergioss
16.08.2018
14:06:06
1. Указал регион сервера 2. так же создал фаил с бэкап мастер разлил все по хостам и в тории все должно быть ок

и так вот таким образом запустилось //<value>hdfs://name0.node:8020/hbase</value> <value>file:///home/hadoop/HA/data/hbase</value> Но это же не правильно, Гриш проведи ликбез, получается когда опция файл, не юзается hdfs?

Grigory
16.08.2018
15:17:00
угу, видимо у него какието пробелмы были с доступом к хадупу

Sergioss
16.08.2018
15:17:29
смотри у меня и в хадупе вот так <name>dfs.namenode.name.dir</name> <value>file:///home/hadoop/HA/data/namenode/</value>

я делал все по ману с https://www.edureka.co/blog/how-to-set-up-hadoop-cluster-with-hdfs-high-availability/

hdfs getconf -confKey fs.defaultFS file:/// а должен быть адрес типа hdfs://name0.node Подскажите плз а то похоже я собрал гавно с палками

Grigory
16.08.2018
15:21:02
неа

смотри, хадупо конфиги должны на локальные файлы ссылаться - да

потому что это адреса меты и дата ноды на хосте

в конфиге хбейза волюм должен хранитсья какраз на хдфс

т.е. там должно быть чтото типа <property> <name>hbase.rootdir</name> <value>hdfs://localhost:8030/hbase</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/home/hadoop/zookeeper</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property>

Sergioss
16.08.2018
15:22:24
да, все верно оф доки так и говорят

Grigory
16.08.2018
15:22:37
если короче хбейз завелся на локалфс

а не на хдфс

чекни что со всех тачек ты можешь достать кластер

Google
Grigory
16.08.2018
15:22:59
копирни с каждой тачки руками чтнить через cli (самое простое что я могу предложить)

зато сразу поймешь работает или нет

Sergioss
16.08.2018
15:23:28
типа в обе стороны типа вот так name <> data

Grigory
16.08.2018
15:23:50
ну я имел ввиду чекни как хдфс доступен с тачек хбейза

Sergioss
16.08.2018
15:24:05
у меня ключи ток в одну сторону настроены с главной ноды на все остальные

Grigory
16.08.2018
15:24:23
попробуй открыть им все)

уверен что тут где-то факап

ну для примера выруби секурность и посмотри как общаться будут

Sergioss
16.08.2018
15:24:49
ну я имел ввиду чекни как хдфс доступен с тачек хбейза
hbase стоит у меня на тех же тачках что и хадуп, отдельно не заводил кластер

Grigory
16.08.2018
15:24:52
а потом включи и посмотри где косяки

Grigory
16.08.2018
15:25:27
да не; тыж ключи кинул)

Страница 133 из 182