
Старый
17.09.2017
17:48:45

Al
17.09.2017
17:48:54

Старый
17.09.2017
17:48:56
1 ссд под логи и тп второй под данные

Google

Старый
17.09.2017
17:49:49
на кассандре эту же операцию делаю по 110к в сек

Al
17.09.2017
17:51:13

Старый
17.09.2017
17:52:43

Al
17.09.2017
17:53:23

Старый
17.09.2017
17:55:05
Хадупы рулят
я клоудеру даже завести не смог, ей мало 16 дисков sas
поднялась, рейд под 100%
а другие железки по процам не потянут

Al
17.09.2017
18:03:42
Еще одну табличку в 2 колонки негде разместить?

Старый
17.09.2017
18:04:44

Al
17.09.2017
18:05:32

Старый
17.09.2017
18:06:08

Al
17.09.2017
18:06:21
Или опять аааа у нас бигдата.. уже 10к строк в таблице экселя

Google

Старый
17.09.2017
18:07:00

Al
17.09.2017
18:07:42

Старый
17.09.2017
18:08:46
но там вертика для этого
а тут вот хотят клоудеру

Uncel
17.09.2017
18:09:42
Вместо вертики (звук пилы)

Старый
17.09.2017
18:10:40
https://www.vertica.com/
но гавердовский с фёртлайном сказал это фигня и клоудера лучше

Al
17.09.2017
18:12:25

Старый
17.09.2017
18:13:01

Al
17.09.2017
18:14:10

Старый
17.09.2017
18:14:41

Al
17.09.2017
18:15:22

Старый
17.09.2017
18:16:20

Uncel
17.09.2017
18:16:41
это типо select * count ?

Al
17.09.2017
18:16:48

Старый
17.09.2017
18:17:02

Uncel
17.09.2017
18:17:42
кинь им линк на datastax academy штоле

Старый
17.09.2017
18:17:58
на меня оч ругатся, что я её не потимизировал и она им не выдаёт

Google

Al
17.09.2017
18:18:11
Я больше 100кк в нее не набивал. Но счииала она их быстро

Uncel
17.09.2017
18:18:28

Старый
17.09.2017
18:18:34

Al
17.09.2017
18:18:50

Uncel
17.09.2017
18:19:30
( хинт nodetool tablestats )
хотя бестпрактис сделать запись, и сразу селект на все

Al
17.09.2017
18:19:59

Старый
17.09.2017
18:20:30
Нет. Они же sql
я месяц объяснял, что кафку надо допиливать под наши задачи, мне не верили, в итоге мне пришлось всё из тмп перенести в обычные разделы и терь столько говна сохраняется, зато очередь после ребута системы заново не считается.... но мне всё ещё не верят, что кафка по дефолту не готова и что её не надо допиливать

Al
17.09.2017
18:21:21

Uncel
17.09.2017
18:21:39

Старый
17.09.2017
18:21:46

Al
17.09.2017
18:23:49

Uncel
17.09.2017
18:23:53

Старый
17.09.2017
18:24:16
?в итоге они апач кулин смотрят
он в разы хуже, но зато не надо привыкать к новому

Al
17.09.2017
18:26:11

Старый
17.09.2017
18:28:49

Google

Ilya
17.09.2017
20:13:01
статистик нет?

Uncel
17.09.2017
20:14:20
Примерное есть, только не смогли прочитать документацию

Alexander
17.09.2017
20:24:17
лол, мой телефон)

Fike
18.09.2017
02:08:51

Al
18.09.2017
02:16:03
ахаха
Наверное он нас тролит

Батыр
18.09.2017
07:40:15
приветствую всех, друзья подскажите где посмотреть статистику заполнения таблспейсов
оракл

Ilya
18.09.2017
07:46:19

Алексей
18.09.2017
09:07:15


Alexey
18.09.2017
12:57:41
Всем привет.
Есть задачка. Я её решил по своему, мои тесты прошли. Но мне сказали, что я с ней не справился, пока без уточнения подробностей.
Мб кто подскажет другое решение? (своё пока не открываю)
Есть табличка с кучей записей, и туда постоянно вставляют новые записи, очень часто.
Каждая строка это документ, и у этого документа есть уникальный номер (varchar(32)), который формируется из даты его создания, его типа (А, Б, С, ...) и порядкового номера (int). И этот порядковый номер меняется от 1 до N в рамках дня создания(!) и типа документа(!).
Т.е. номера, например, будут такие:
20170917/А-1
20170918/А-1
20170918/А-2
20170918/Б-1
20170918/С-1
20170918/С-2
20170918/С-3
20170919/А-1
...
Уникальный индекс на этот номер вешать нельзя по условию.
При проверке запускается тест скрипт, четыре раза из четырёх разных сессий, который в цикле, с задержкой 50мс или около того, вставляет записи в эту табличку.
Как реализовать заполнение такой таблички с формирлованием такого номера для каждого документа, но что бы не было задвоения этих номеров?
Т.е. интересует просто краткий примерный алгоритм как бы Вы это сделали.


Ruslan
18.09.2017
13:05:46
Можно в лоб: сгенирировать все комбинации за день в таблицу и брать оттуда

Ilia
18.09.2017
13:06:12
Надо сделать таблицу со счётчиками документов по каждой дате и типу. Там инкрементировать и брать новый номер.
Всё в одной транзакции, естественно.
"Уникальный индекс на этот номер вешать нельзя по условию." Уникальный индекс вешать НАДО.
"табличка с кучей записей, и туда постоянно вставляют новые записи, очень часто" очень часто не получится, поскольку INSERT-ы будут сериализоваться по дате и типу документа. Разные будут вставляться параллельно, одинаковые нет.
Ну и решение это чуть ли не единственное, поэтому если ты так и сделал, то очень удивительно было бы , если бы оно было воспринято как неверное.


lost
18.09.2017
13:14:59
можно на именных блокировках сделать, но мне кажется, что вариант с отдельной таблицей и счётчиком будет быстрее
плюс это от конкретной субд зависит

Google

キリル
18.09.2017
13:17:00
а по условию теста нужно было все тестовые зависи вставить без ошибок

Ilia
18.09.2017
13:20:44

キリル
18.09.2017
13:21:46
если база оракл и юзать секвенс то нет. так как у него есть cache для последних 20 значений(по дефолту) в памяти

Ilia
18.09.2017
13:21:53
Либо без дырок, и сериализуются по дате+тип, либо не сериализуются, но с дырками.

キリル
18.09.2017
13:22:49
а постановка задачи не обязывает им быть последовательным быз дырок.
либо формулировка не точна

Ilia
18.09.2017
13:24:20
Ну , я процитировал. Я склонен это понимать как "без дырок".
Возможно, нужно уточнить.

Alexey
18.09.2017
13:25:37
Вот я как раз сделал через отдельную табличку с уникальным индексом, для хранения номеров.
Добавил при формировании номера цикл с порядка 100 попытками, что бы если вдруг будет ошибка, повторили вставку ещё раз.
Дырки в условии никак не оговариваются. Сказанно просто последовательно, по мере поступления. Никто документы не удаляет и ничег ос ними не делает.
ну мб где-то в реализации накосячил
спасибо за комментарии!
завтра узнаю причину)

Ilia
18.09.2017
13:27:34

キリル
18.09.2017
13:28:07