
Eugene
26.11.2017
21:55:07
То есть, это все можно делать в облаке. А можно все развернуть у себя.

Di
27.11.2017
07:24:46
В конце концов можно и гитхабу 7$ в месяц заплатить за доступ к функции приватных репозиториев.

Vitaly
27.11.2017
08:00:26

Google

Arlen
27.11.2017
09:11:24
ActionController::RoutingError (No route matches [POST] "/admin/pictures"):
роут файле указал :
resources :pictures, only: [:create, :destroy]
где может быть ошмбка

Andrey
27.11.2017
09:17:07
Ресурс вложен в /admin в роутах ?

Arlen
27.11.2017
09:18:18
нет

Andrey
27.11.2017
09:19:37
Значит в этом ошибка?

Arlen
27.11.2017
09:21:28
по идеи он должен искать не "/admin/pictures" а "/pictures"
как исправить?
не знаете
?

Marat
27.11.2017
09:26:16
routes скинь куда нибудь

Arlen
27.11.2017
09:41:25
все спасибо нашел ошибку

Google

Svetlana
27.11.2017
10:29:41
Спасибо за советы по git. Много полезного, буду делать.

Vlad
27.11.2017
15:43:44
Поскажите, есть скрипт на рубячке, который педалится на сервера через Ansible, с этим разобрался. И запускается. Как правильнее организовать запись данных в базу удаленную? Чтобы сразу в одну, типа PostgreSQL, но чтобы она выдержала любое количество, если я решу увеличить кол-во запросов. Ибо по факту скрипт может слать сотню INSERT'ов в секунду, или один раз в 5 секунд multiple INSERT...
Или без очереди сообщений не обойтись?


Fedor
27.11.2017
15:51:26
не понял, ты запускаешь ruby скрипт на куче машин, и все стучатся на один sql сервер?
тогда все зависит от сервера
может и потянуться сотни инсертов, а может и не понянуть
в любом случае тут идеального решения нет
куча инсертов даст большую нагрузку на базу, чем несколько больших, но один большой залочит на запись таблицу на большее время
и если таких больших станет много, они встанут в длинную очередь и могут начать отваливаться
так что тут надо нечто среднее искать
в любом случае, эти скрипты для твой базы не более чем клиенты, так их и надо рассматривать

Vlad
27.11.2017
15:53:40
ну вот я думаю, очередь сообщений же решает эту проблему по идее?
мне не важно когда они попадут в базу, главное чтобы все транзакции прошли

Fedor
27.11.2017
15:54:57
у тебя уже реализована очередь на уровне БД
зачем делать еще одну?

Dmitry
27.11.2017
15:55:17
Пока все тут собрались, есть два стула, т.е. проекта для есть поле project в котором строка с названием и есть поле с int где нужно хранить уникальный номер записи для сортировки, но таблица одна тут же что то про скопы да, все осложняет что валидация проходит в трейлблейзеровском reform при отправки формы
слишком много инфы за последнии дни поступило, мозг перегрузился и не отвечает

Fedor
27.11.2017
15:56:01
я тоже ничего не понял из описания

Dmitry
27.11.2017
15:56:32
это нормально
Есть таблица questions в ней нужно хранить уникальные цифры для последующей сортировки скажем от 1 до 15 но проекта два и в этой же таблице храняться как строка

Google

Dmitry
27.11.2017
15:58:57
возможно ли как то эти цифры валидировать на уникальность, для каждого проекта
не создавая вторую таблицу

Fedor
27.11.2017
16:01:18
эм...
они должны быть уникальны в рамках проекта, но не в рамках таблицы?

Dmitry
27.11.2017
16:01:33
переписал выше
да

Fedor
27.11.2017
16:01:50
ну тогда сделай constraint
если postgresql
не знаю, есть ли такое в mysql

Dmitry
27.11.2017
16:02:35
Postgres да

Fedor
27.11.2017
16:03:32
хотя тут и uniq index тоже подойдет
просто добавь столбец project_id и Uniq index project_id_number ON table_name (project_id, number)

Fedor
27.11.2017
16:04:53
даже как-то так
не помню точный синтаксис, давно индексов руками не писалэ

Dmitry
27.11.2017
16:06:14
Да что то такое, сейчас буду пробывать. Спс

Alex
27.11.2017
18:26:07
Ребята, кто работал с elasticsearch?
Я его установил, добавил после end в класс Item. Item.import - формируется миллиарды запросов в БД. Он тянет абсолютно все зависимости. Это так и должно быть?
Цель - полнотекстовый поиск по названию item

Ro
27.11.2017
18:50:39
это для тебя или для организации?
есть более простые решения за бабки
типа algolia.com
есть без бабок попроще имхо: apache solr

Google

Alex
27.11.2017
18:51:32
Вернее я перефразирую вопрос.
Item.import - импортирует все данные в индекс.
Если экземпляр item удаляется, запускается какой-то колбэк на удаления из индекса? И соответственно тот же вопрос с добавлением.
туда потом еще logstash и kibanu надо будет подключать


Ro
27.11.2017
18:54:05
геморно короче) это уже дело devops я считаю
или пусть дают зеленый свет на простые решения или пусть нанимаю devops - такое мое мнение. Настройка сервисов - это целая профессия. Которая мало того, что требует знаний, так еще и очень затратна по времени. Меня сейчас перевели на эти задания, на 40% этим занимаюсь. Настроить то, настроить это. Собираюсь свалить из-за этого. Не потому что не люблю, а потому что за это надо 1) приплачивать 2) не ожидать, что будет будет сразу быстро
ну и еще вопрос в том, что если будешь заниматься этим слишком большое кол-во времени, забудешь программирование. Может и неплохо - если ты этого хочешь конечно. Но будешь по итогу менее конкурентным на рынке, если будешь себя позиционировать как программер. В итоге ни то не будешь толком знать, ни это

Alex
27.11.2017
18:57:58
Сейчас какую вакансию не откроешь везде ElasticSearch надо знать, вот думал заодно и попрактиковаться

Ro
27.11.2017
18:58:01
ну это я так, поворчал немного) насчет твоего вопроса - ответа не знаю

Admin
ERROR: S client not available

Ro
27.11.2017
18:58:44
т.е. я могу на питон-программера пойти
без знания питона
в наш руби-шоп приходят питонщики и народ без знания рубей
это норма [x]

Alex
27.11.2017
18:59:36
ну такое тоже пишут, например опыт Rails 2 года или без знания Rails, но опыт на другом языке программирования от 3-ех лет

Ro
27.11.2017
18:59:40
elastic search точно не обязательное требование для руби программера

Alex
27.11.2017
19:05:07
короче от мидла легче, от джунов всегда ходят мидла )

Alexander
27.11.2017
19:09:12
Можно я ссылку вакансию сюда скину? Вдруг кто рискнет))

Svetlana
27.11.2017
19:10:10
Да

Alexander
27.11.2017
19:10:13
http://www.likeit.lv/job/scoutrfp/senior-ruby-on-rails-developer-remote/6741/?tag=1436

Google

Alex
27.11.2017
19:10:54
вон там тоже Elastic )

Alexander
27.11.2017
19:11:29
Они уже до 5к подняли, раньше была 4,5

Sergey
27.11.2017
19:21:25
ищут человека, который им горизонтальный скролл на сайте поправит ????

Ro
27.11.2017
19:31:14
на маке Cmd+Shift+O почему-то

Marat
27.11.2017
19:34:49

Andrey
27.11.2017
19:34:54
попробуй ещё двойной shift может зайдет. Там типа поиск по всему. И по файлам и по методам. Работает примерно также, но должно быть в теории проще. Не надо пальцы раскорячивать.

Marat
27.11.2017
19:35:19
Поиск по всему шифт ктрл ф

Andrey
27.11.2017
19:35:33
Я вот не помню почему мне не зашёл двойной шифт

Evgeniy
27.11.2017
19:41:48
на маке Cmd+Shift+O почему-то
только что проверил - в #RubyMine Cmd+Shift+O у меня на маке не срабатывает. Двойной шифт сработал. Может, какие-то настройки при установке? p.s. у меня поиск по проекту показан, как alt+shift+F
сам ответил на свой вопрос) в настройках )

Vitaly
28.11.2017
01:39:48
Еластик за минуту поднимается - есть официальный докер контейнер. Подключается к рельсам проще простого с помощью searchkick gem
еще есть простое и дешевое решение для поиска pg search gem

Антон
28.11.2017
03:51:50
Pg search очень медленный.

Михан
28.11.2017
05:26:16
Привет всем, в последний раз когда настраивал elasticsearch была проблема: она искала только по латиннице или только по кириллице. Проблема исправлена, никто не в курсе. Или я что-то делал не так ?

Lainera
28.11.2017
05:46:24
Мне понравился кликхаус когда последний раз по бигдате угарел. Прям пыщ и стрельнуло.
Опенсорс, с рельсами дружит, в докере есть

Vitaly
28.11.2017
06:12:18


Evgeniy
28.11.2017
06:20:44
Добрый день!
Коллеги, кто-нибудь сталкивался с проблемой контроля и управления статуса пользователя? Как решали?
Поясню. У меня в одном проекте у каждого пользователя имеется статус (online, away, offline). Проблема в том, что приложение может быть запущено одним и тем же пользователем на разных устройствах и далеко не везде и не всегда пользователь его закрывает.
В режиме реального времени может приходить событие из внешнего приложения, которое нужно отрабатывать в зависимости от статуса пользователя и других правил. В этой связи данные могут быть не всегда актуальны.
Думал как вариант декларировать, что одновременно под одной учеткой может быть залогинен только один пользователь. В этом случае новое подключение будет убивать сессию предыдущего. В принципе для меня это приемлимо. Но хотелось бы узнать, как вы решали подобные ситуации?