
kutepovfedor
15.08.2018
08:44:34

Andrey
15.08.2018
08:45:12
если с дисками все ок - смотри логи кассандры
ну точнее эти вещи можно одновременно делать =)

Google

Dan
15.08.2018
08:45:48

Andrey
15.08.2018
08:46:00
ну а дальше траблшутить memtable sstable commitlog

Dan
15.08.2018
08:48:42

kutepovfedor
15.08.2018
08:53:56
Я хз, админы там делают свои дела, им я доверяю, вроде толковые ребята

Grigory
15.08.2018
08:54:57
на самом деле ты размеры батчей попробуй уменьшить на запись
посмотри что будет

Dan
15.08.2018
08:55:04

kutepovfedor
15.08.2018
08:56:24
МОжет таки увеличить над?

Grigory
15.08.2018
08:56:43
тогда увеличь

kutepovfedor
15.08.2018
08:57:10
10 пробую
Там документы большие и не проталкивался зарос - ругалась типа слишком большой, я вспомнил

Google

Grigory
15.08.2018
08:58:03
на самом деле не понятно; я по одному пихал и все работало

Andrey
15.08.2018
08:58:20
я на своих тестовых виртуалках спокойно получал около 10к в секунду записей без батчей

kutepovfedor
15.08.2018
08:58:57
Меня огорчают такие высказывания

Grigory
15.08.2018
09:01:16
да даже полезнее по одному наверно) всегда паралелизацию делал на драйвере и пихал по одной

kutepovfedor
15.08.2018
09:01:39
А какой язык ?

Andrey
15.08.2018
09:02:06
набитая

kutepovfedor
15.08.2018
09:02:33
Смерти моей хотите

Andrey
15.08.2018
09:02:50
последний раз делали тесты - несколко суток подряд долбили в нее записи 10к в секуну и потом смотрели все ли ок с данными
проблем не было

kutepovfedor
15.08.2018
09:03:23
А с какого языка писали? Какой драйвер?
Может в драйвере дело?

Andrey
15.08.2018
09:03:28
но там правда сдд
джава

kutepovfedor
15.08.2018
09:03:38
У меня-то пых, и драйвер на cpp

Andrey
15.08.2018
09:04:49
ты же выше писал, что проверял через cqlsh
то есть проблема не в драйвере

kutepovfedor
15.08.2018
09:05:16
верно

Google

kutepovfedor
15.08.2018
09:08:15
Ну тогда у меня открыто предложение - прошу помочь разобраться с проблемой за вознаграждение естессно

Andrey
15.08.2018
09:13:46

kutepovfedor
15.08.2018
09:14:39
[root@cassandra11 ~]# cqlsh
Connected to Test Cluster at 127.0.0.1:9042.
[cqlsh 5.0.1 | Cassandra 3.11.2 | CQL spec 3.4.4 | Native protocol v4]
Оно ?

Andrey
15.08.2018
09:15:30
да

Roman
15.08.2018
17:04:29
?

Oleksandr
16.08.2018
12:08:53
а кто-то в курсе, как изнутри ec2 инстанса узнать, не спот ли он?
в http://169.254.169.254/latest/meta-data/ вроде нет

Yaroslav
16.08.2018
12:10:58

Oleksandr
16.08.2018
12:11:27

Yaroslav
16.08.2018
12:11:32
а, тогда сорян

Oleksandr
16.08.2018
12:11:41
хотя можно через instance-id и describe-instances
точно
спасибо)

Yaroslav
16.08.2018
12:12:00
а, тогда пожалста
=)))
хотя я все же не уверен, что это сработает, отпиши плз получится или нет

Oleksandr
16.08.2018
12:27:28

Yaroslav
16.08.2018
12:29:55
сложно запрятано
спасибо

Google

Sergioss
16.08.2018
13:58:55
ERROR [main] regionserver.HRegionServer: Failed construction RegionServer
Подскажите плз, это при запуске hbase в fully destribution mode
Конфигурил по оф докам

Grigory
16.08.2018
14:04:52
шот не так

Sergioss
16.08.2018
14:06:06
1. Указал регион сервера
2. так же создал фаил с бэкап мастер
разлил все по хостам
и в тории все должно быть ок
и так вот таким образом запустилось
//<value>hdfs://name0.node:8020/hbase</value>
<value>file:///home/hadoop/HA/data/hbase</value>
Но это же не правильно, Гриш проведи ликбез, получается когда опция файл, не юзается hdfs?

Grigory
16.08.2018
15:17:00
угу, видимо у него какието пробелмы были с доступом к хадупу

Sergioss
16.08.2018
15:17:29
смотри у меня и в хадупе вот так
<name>dfs.namenode.name.dir</name>
<value>file:///home/hadoop/HA/data/namenode/</value>
я делал все по ману с
https://www.edureka.co/blog/how-to-set-up-hadoop-cluster-with-hdfs-high-availability/
hdfs getconf -confKey fs.defaultFS
file:///
а должен быть адрес типа hdfs://name0.node
Подскажите плз а то похоже я собрал гавно с палками


Grigory
16.08.2018
15:21:02
неа
смотри, хадупо конфиги должны на локальные файлы ссылаться - да
потому что это адреса меты и дата ноды на хосте
в конфиге хбейза волюм должен хранитсья какраз на хдфс
т.е. там должно быть чтото типа
<property>
<name>hbase.rootdir</name>
<value>hdfs://localhost:8030/hbase</value>
</property>
<property>
<name>hbase.zookeeper.property.dataDir</name>
<value>/home/hadoop/zookeeper</value>
</property>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

Sergioss
16.08.2018
15:22:24
да, все верно оф доки так и говорят

Grigory
16.08.2018
15:22:37
если короче хбейз завелся на локалфс
а не на хдфс
чекни что со всех тачек ты можешь достать кластер

Google

Grigory
16.08.2018
15:22:59
копирни с каждой тачки руками чтнить через cli (самое простое что я могу предложить)
зато сразу поймешь работает или нет

Sergioss
16.08.2018
15:23:28
типа в обе стороны типа вот так name <> data

Grigory
16.08.2018
15:23:50
ну я имел ввиду чекни как хдфс доступен с тачек хбейза

Sergioss
16.08.2018
15:24:05
у меня ключи ток в одну сторону настроены с главной ноды на все остальные

Grigory
16.08.2018
15:24:23
попробуй открыть им все)
уверен что тут где-то факап
ну для примера выруби секурность и посмотри как общаться будут

Sergioss
16.08.2018
15:24:49

Grigory
16.08.2018
15:24:52
а потом включи и посмотри где косяки

Sergioss
16.08.2018
15:24:59

Grigory
16.08.2018
15:25:27
да не; тыж ключи кинул)