@scala_ru

Страница 1282 из 1499
Oleg
12.02.2018
15:15:58
если бы у нас Собак пришёл с таким ПР, я бы пару дней токсифицировал его в комментах

Nikolay
12.02.2018
15:16:34
Alexander
12.02.2018
15:17:35
третий или четвёртый раз в жизни такую муру писал даже в воркшите
ну то есть опыт есть, код надёжен, техника отработана! :D

Google
Oleg
12.02.2018
15:18:11
ну то есть опыт есть, код надёжен, техника отработана! :D
да, воркшиты надёжно покрыты тестами, на 200%

и выпущены как либа

Alexander
12.02.2018
15:19:08
в манатки!

Grigory
12.02.2018
15:19:16
я думал что рефлексия ненуждается в покрытии тестами она нуждается в токсификации

Aleksei
12.02.2018
15:36:45
нет, в такой https://www.youtube.com/watch?v=dQw4w9WgXcQ

Oleg
12.02.2018
15:44:55
вангую быстрый заработок

Александр
12.02.2018
15:46:12
может дружный коллектив

Oleg
12.02.2018
15:48:05
может дружный коллектив
не знаком с этим штаммом

ааааа hr

hr бы среагировал на факт моего вангования

Alex
12.02.2018
15:50:18
лидеры отрасли

Александр
12.02.2018
15:50:40
https://djinni.co/r/16276-international-it-recruiter-at-devbuddies-io/

Google
Александр
12.02.2018
15:50:48
неловкий момент когда я угадал

>Developers connecting Developers with Startups in Berlin We are tech people from Berlin hacking traditional tech recruiting by connecting developers from all over the world directly with startup teams we know and we trust. Our advantage over recruiters is that we can give you real insights into the Berlin startup scene! <

Oleg
12.02.2018
15:51:17
ж^(

sherzod
12.02.2018
15:51:33
судя по фото на стене это наверное комбо

Даниил
12.02.2018
15:51:51
из вас двоих вышла бы отличная HR-команда

троих*

Alex
12.02.2018
15:52:44
функциональный хантинг

sherzod
12.02.2018
15:52:53
hr кололись плакали, но продолжали искать скалистов

Alex
12.02.2018
15:53:19
травились тогда уже

кьяроскуро подвело

Oleg
12.02.2018
15:56:24
скалу тут обсуждаем

нужен метастикер [говно] ГОВНО

sherzod
12.02.2018
15:58:04
понедельник, судя по всему, выдался у всех спокойный и ненапряжённый

Alex
12.02.2018
15:58:11
? ГОВНО!

Andrey
12.02.2018
15:58:17
Чат, концептуальный вопрос. Есть некая модель данных, скажем - документ с каким то числом полей. И есть большое число бизнес правил (100+) по валидации данного документа, в том числе по данным, которые находятся в справчниках в БД. Что нужно, валидировать большое число таких документов (10-100k/sec) относительно этих бизнес правил, которые еще и часто меняются. Чего бы тут заиспользовать?

Nikolay
12.02.2018
15:58:26
? ГОВНО!
это похоже на толковый словарь

Google
Luger
12.02.2018
16:07:04
или clickhouse
это новый универсальный ответ? типа как "акка+монга", теперь будет "rust+кликхаус"?

Oleg
12.02.2018
16:07:22
или можно нахреначить свои "стрелки" и оптимизировать их как в HXT

чтобы опять же можно было обходить документы, чекая все правила параллельно

?Ivan
12.02.2018
16:09:17
чтобы опять же можно было обходить документы, чекая все правила параллельно
а если между правил есть зависимости и сложность выполнения правил отличается?

Oleg
12.02.2018
16:09:32
но "между правилами есть зависимость" выражается и в стрелках и в SQL

Andrey
12.02.2018
16:10:06
Да, проверки бывают связаны - не выполнилась одна, нет смысла выполнять цепочку дальше. Сложность проверок относительно невысокая, это проверить, что в справочнике такое значение есть, что даты в интервале, и тд.

Oleg
12.02.2018
16:10:44
так что тут несложно

Andrey
12.02.2018
16:10:44
Еще нюанс что таких типов документов будет много 50+, у каждого свои наборы правил и каждый смотрит на свои справочники и источники данных.

Andrey
12.02.2018
16:11:17
справочник в памяти держать можно ?
Справочники переиспользуют разные сервисы, выглядит, что это не разумно - в каждом сервисе грузить все справочники. Хотя надо подумать

Oleg
12.02.2018
16:11:33
ну это просто отдельно фильтрануть и повторять untill win

Andrey
12.02.2018
16:11:34
правил сотня для каждого типа?
Да, у каждого из документов свои наборы правил

?Ivan
12.02.2018
16:12:17
Справочники переиспользуют разные сервисы, выглядит, что это не разумно - в каждом сервисе грузить все справочники. Хотя надо подумать
я не предлагаю их хранить для использования другими сервисами. Я к тому можно ли все инфу касательно правил хранить в памяти ?

Andrey
12.02.2018
16:13:45
Часть наверно можно, именно справочники всяких валют и прочее, что особо никогда не меняется. Но есть динамическая часть, например справочник счетов, и эти счета нон стоп обновляются.

В целом я понял посыл, надо обдумывать стриминговое решение, и пристальнее глянуть на кликхаус

Google
?Ivan
12.02.2018
16:14:54
кликхаус имхо немного для другого заточен.

Oleg
12.02.2018
16:15:28
кликхаус имхо немного для другого заточен.
по-моему, такие штуки вполне в его компетенции

?Ivan
12.02.2018
16:16:12
для динамической части скорее всего придется лепить отдельный сервис, который будет держать указанную нагрузку.

Andrey
12.02.2018
16:16:29
вопрос, есть ли возможность на момент чека всосать их все в оперативку, позволяет ли их размер?
Думаю, что как вариант это можно рассмотреть. По крайней мере протитипчик с загрузкой в память точно получится.

?Ivan
12.02.2018
16:17:12
для динамической части скорее всего придется лепить отдельный сервис, который будет держать указанную нагрузку.
и соответствнно дергать сервис, если прошли все независимые статические проверки.

Andrey
12.02.2018
16:17:44
Вообще, это батчевый процесс - клиент отправляет в бек 10к документов и для них нужен примерно один и тот же набор инфы. Вот если 2й клиент загрузит - у него свой набор данных. Но это в принципе можно пошардить, что бы на одних и тех же нодах не скапливались. Например.

Oleg
12.02.2018
16:19:16
а правила через админку меняются или через релиз?

?Ivan
12.02.2018
16:19:30
по-моему, такие штуки вполне в его компетенции
с уберселектом можно слегка попасть, учитывая, что у clickhouse весьма специфичный SQL. Но тут надо уже конкретно смотреть, что можно покрыть, а что нет.

Andrey
12.02.2018
16:20:48
а правила через админку меняются или через релиз?
Тоже думал об этом - думаю, что через релиз -вполне себе норм решение. Что бы не городить огород с кастомизацией этих проверок

Andrey
12.02.2018
16:23:15
Это примерные прикидки по нагрузке на данный момент

Но это, скажем так, идеальные цифры. Если там будет даже 1k / sec на одной ноде, это уже будет очень хороший результат.

В общем, в один момент времени нагрузка в пике может достигать 100к/sec, и ее хорошо бы размазать по нодам

Сейчас в легаси проекте это прям нон стоп запросами в Оракл улетает, 3000 документов обрабатываются несколько минут под нагрузкой. Прикидываю, как это все переписать

Andrey
12.02.2018
16:47:55
Baruch
12.02.2018
16:50:18
Google
Andrey
12.02.2018
16:50:25
В общем, в один момент времени нагрузка в пике может достигать 100к/sec, и ее хорошо бы размазать по нодам
Это имеется ввиду что 100к документов в секунду должны все контроли проходить? Крепко

Andrey
12.02.2018
16:51:44
Хотя бы 10к.

Это вполне реально даже на простой имплементации параллельной валидации с кешированием данных из базы на момент валидации

Прототип пока такие показатели показывает

Andrey
12.02.2018
16:53:10
А сами контроли кодом или как-то гибко настраиваемо в конфигах?

Страница 1282 из 1499