@nodejs_ru

Страница 90 из 2748
Daria
20.07.2016
23:16:50
Чтобы ядро платформы облачной делать для скорости вычислений и мощности

Плюс там джава и а-ля коннекторы к прогам этих биоинформатиков, где данные лежат

Evgeny
20.07.2016
23:18:23
Джава - ок. Нода? как ядро облачной платформы? Однопоточная нода как ядро облачной платформы? Для скорости вычислений?

/me заинтригован

Google
Konstantin
20.07.2016
23:19:41
Да не будет она там ничего вычислять) как максимум таск раненер какой то

Daria
20.07.2016
23:20:41
Наш чел, который сейчас на проекте сказал, что фигачит на Ноде. Говорит, что ядро, но это странненько) завтра с КАМом ещё поговорю, доложу новости

Evgeny
20.07.2016
23:21:02
Спасибо

Konstantin
20.07.2016
23:25:36
Как на js расчёты то вести? Нет типизации

Приколы с плавающей запятой

Daria
20.07.2016
23:27:21
Как на js расчёты то вести? Нет типизации
При чем здесь расчеты? Как я поняла, это все для мощностей в облако пилится. Уже посчитанное первично биоинформатиками

Дмитрий
21.07.2016
03:57:34
Приколы с плавающей запятой
SIMD в будущем, например

Р2
21.07.2016
06:14:27
Привет! Есть вопросик по фронтовым приложениям. А как они защищены от подделки для общения с сервером? Работает такое фронтовое приложение, а я пришёл и подделал запрос от него через cUrl с реферером. Как с этим борятся by trueway?

Разобрался. Правильный ответ: использовать CSRF.

https://ru.wikipedia.org/wiki/Межсайтовая_подделка_запроса

Andrey
21.07.2016
06:27:12
Разобрался. Правильный ответ: использовать CSRF.
Но это не спасет от серверных запросов, только в браузере

Р2
21.07.2016
06:37:56
Андрей, прости, не понял. Поясни, Plz!

マイク
21.07.2016
08:11:36
Почитай OWASP

Google
Vladimir
21.07.2016
09:24:03
Такое ощущение, что npm откатился на несколько версий в некоторых моих модулях. Еще вчера из него ставилась последняя версия. Сегодня он ставит и показывает минус 5 версий где-то от реальной последней, как последнюю. Публиковать последнюю повторно не даёт. Вот пример: amelisa - реальная последняя версия 0.1.33 (еще вчера так и было в npm) https://github.com/amelisa/amelisa/commits/master Но сейчас npm показывает 0.1.28 https://www.npmjs.com/package/amelisa

Vladimir
21.07.2016
09:25:23
Stale reads

Может вообще сервак с метаданными без мастера

Vladimir
21.07.2016
09:32:15
Понятно, ну ждём когда поддержка проснётся

А какие best practicies по нивелированию проблем с npm? Поднять приватный npm?

Alexey
21.07.2016
09:44:39
Юзаем https://github.com/rlidwka/sinopia, полет нормальный

Vladimir
21.07.2016
09:59:50
а что sinopia делает, если находит у себя версию пакета, удовлетворяющую запращиваемой, но при этом в npm есть более свежая подходящая версия? Ходит в npm?

Konstantin
21.07.2016
10:31:34
как в зависимостях в package пропишешь так и смотрит вроде

Ilya
21.07.2016
12:38:20
Привет всем! Подскажите хороший npm пакет для того, чтобы мокать API риквесты. Спасибо!

Юрий
21.07.2016
12:40:12
Вот только недавно сам наткнулся ) https://github.com/visionmedia/supertest

Никита
21.07.2016
13:49:36
https://github.com/rvagg/bole

А, ой.

Что-то телеграм у меня показывал только что про лёгкий логгер вопрос.

Не знаю, насколько он тебе будет полезный, но он лёгкий.

Denis
21.07.2016
14:22:47
https://github.com/rvagg/bole
Но не похоже, что bunyan-совместимый, включая все коннекторы для сервисов, которые есть

Никита
21.07.2016
14:23:16
Я проглядел, значит.

Denis
21.07.2016
14:24:54
)) Официально нет, но предвосхищаем события, не стесняемся =)

Google
Никита
21.07.2016
14:24:58
Хотя ридми говорит что в большинстве случаев совместимый.

Кстати.

Denis
21.07.2016
14:25:30
интересно

bole.output([ { level: 'debug', stream: fs.createWriteStream('app.log') }, { level: 'info', stream: process.stdout } ])

да, похоже

Vladimir
21.07.2016
14:28:34
коннекторы не нужны

нужно писать в stdout

Никита
21.07.2016
14:31:31
Надо кстати journald потыкать, пока руки не дошли.

Потыкал.

Выглядит очень круто.

Выкину к чертям все логгеры, приколочу к журналд.

Daria
21.07.2016
15:47:22
Добрый день. Поговорили?
Добрый! Немного да) но пока не все понятно. У меня сложилась такая картинка: НИИ анализируют геном, используя cmd-like тулзу под линуксом, анализ генома на R и питоне производят. Мы же делаем AWS-based платформу для облачных вычислений. Ядро на Java, видимо, обвязка на ноде, коннекторы к по учёных на питоне. Плюс rest

Сейчас допишу))

В пути

Denis
21.07.2016
16:30:22
А какие best practicies по нивелированию проблем с npm? Поднять приватный npm?
https://www.theodo.fr/blog/2016/01/speed-up-npm-install-with-a-nexus-proxy-to-cache-packages/

Daria
21.07.2016
16:30:59
Добрый день. Поговорили?
Женя, понятнее стало?

Evgeny
21.07.2016
16:33:29
Я думал будет еще одно сообщение, а не исправление, поэтому только сейчас увидел. Да, в целом ощущение "W00t??" пропало

Google
Yan?
21.07.2016
16:39:06
Кто-нибудь слал файлы с сервера на сервер?

corpix
21.07.2016
16:39:53
Да, бывает шлю иногда

Yan?
21.07.2016
16:42:19
@corpix Во всех примерах что я видел берется path файла и запихивается в readablestream и так отправляется правда в сервере-приемнике я вижу тупо path с отправленного сервера который мне ничего не дает

@corpix поэтому интересует видимо как правильно это сделать)

corpix
21.07.2016
16:50:19
@corpix поэтому интересует видимо как правильно это сделать)
Готового решения у меня нет, но есть например https://github.com/request/request С её помощью можно отправить данные по HTTP протоколу. Соответственно на другой стороне должен быть HTTP сервер, готовый принять эти данные. Советую погуглить что-нибудь про отправку файлов по http в nodejs

@corpix Во всех примерах что я видел берется path файла и запихивается в readablestream и так отправляется правда в сервере-приемнике я вижу тупо path с отправленного сервера который мне ничего не дает
Верно, что отправлено в stream то и будет принято(если это была строка с именем файла, то на другом конце это тоже будет строка, никакой магии)

Admin
ERROR: S client not available

Yan?
21.07.2016
16:51:46
так и что мне делать с этой строкой-путем файла? если второй сервер физически в другом месте я ж его не могу прочитать чтобы сохранить

когда с фронтэнда на сервер приходит файл там же объект где временный путь на сервере до файла его размер и тд

тут такого что-то нема)

マイク
21.07.2016
16:54:02
1. Читаешь файл в буффер

2. require('http')

3. ...

4. PROFIT

corpix
21.07.2016
16:56:16
так и что мне делать с этой строкой-путем файла? если второй сервер физически в другом месте я ж его не могу прочитать чтобы сохранить
Вообще тут бы не помешали знания о том как вообще HTTP протокол работает. Ну и стримы в nodejs. Прочитай хотя бы поверхностно про эти вещи, пазл начнёт собираться.

マイク
21.07.2016
16:56:36
Стримы-то зачем

Для отправки

corpix
21.07.2016
16:57:54
По мне, тк проще и эффективнее(нет буферизации всего файла в памяти).

マイク
21.07.2016
16:58:45
Не проще ни разу

Google
corpix
21.07.2016
16:58:58
Кому что нравится :)

マイク
21.07.2016
16:59:16
И в 99% случаев – оверинженеринг на пустом месте

corpix
21.07.2016
17:00:25
Вот тут категорически не согласен, под нагрузкой "буферизированный подход" сложится быстро и легко.

Yan?
21.07.2016
17:00:57
там нагрузки никакой нет) одну пикчу гонять только)

corpix
21.07.2016
17:01:55
там нагрузки никакой нет) одну пикчу гонять только)
Ну с одной пикчей поэкспериментировать можно и с буферизацией, ок. Но это будет плохо работать под нагрузкой

Смешно
Поясни, где смеяться?

マイク
21.07.2016
17:10:20
Пример нагрузки в числах, желательно с ссылками на собственный опыт, когда это ложиться

Vladimir
21.07.2016
17:11:03
причем здесь нагрузка? вопрос ресурсов

corpix
21.07.2016
17:16:55
Пример нагрузки в числах, желательно с ссылками на собственный опыт, когда это ложиться
Да примеры с числами тут особо и не нужны. Давай сравним два подхода. 1. При каждом запросе с файлом мы читаем его в память полностью и отправляем. Основные минусы в том что отправка начнётся после полного простения файла в память и в том что мы не всегда можем знать размер файла. Причем если он будет размером, скажем, 1 ГБ то на каждый запрос мы будем сгружать файл в оперативную память полностью. Когда-нибудь память у нас кончится(вероятно это случится довольно быстро). А ещё ведь есть клиенты с недобрыми намерениями, которые могут специально загружать к нам большие файлы очень медленно, забивая память. 2. При каждом запросе мы вычитываем файл маленькими кусочками с клиента и сразу же отправляем кусочки принимающей стороне(которая поступает также, читает файл по кусочкам и записывает в некоторое персистентное хранилище, например на файловую систему). Серьёзных минусов у этого подхода я не вижу, а вот плюсы в том что мы разумнее расходуем память и можем обслужить большее число клиентов(если клиентов станет много то мы просто будем работать медленнее).

причем здесь нагрузка? вопрос ресурсов
Т.е. если ресурсов много, то можно не думать о томЮ насколько быстро будет работать приложение? Не надо так :)

マイク
21.07.2016
17:20:16
Неплохо замахнулся на один гигабайт. Файл к тому же можно и просто mmap'нуть ;) На заливке по дефолту nginx (и не только) зарубит с длинным POST'ом. И самое главное – проблемы надо решать по мере их поступления.

Evgeny
21.07.2016
17:20:48
когда есть вариант сделать за 5 минут с полным чтением или за 5 минут с стримом - зачем делать плохо?

То есть с самого начала подкладывать себе проблему в будущее?

マイク
21.07.2016
17:21:07
Человека может вообще устроит по неткату на каждом конце

Evgeny
21.07.2016
17:21:11
Чтобы было что решать?

マイク
21.07.2016
17:21:43
Вопрошающий похоже вообще не знает про HTTP, а вы про стриминг

Издеваетесь чтоле

Страница 90 из 2748