Alexander
19.06.2018
09:00:47
DimenSi
19.06.2018
09:01:04
я уточнил запрос, чтоб человек не потерялся в ссылках
а то если ввести cors, то нужная ссылка будет только 4
Alexander
19.06.2018
09:02:24
при запросе “mdn cors” эта ссылка первая
Google
DimenSi
19.06.2018
09:02:43
она и без mdn первая)
Alexander
19.06.2018
09:03:16
ох
всегда умиляет, когда люди путают строку поиска с полем ввода текста в этом чате
Kendr
19.06.2018
09:03:57
порно с конями
Alexander
19.06.2018
09:04:19
можно я не будут делать это через lmgify
Oleg
19.06.2018
09:04:41
look at my horse
my horse is amazing
DimenSi
19.06.2018
09:04:48
порно с конями
напомнило мемчик, когда в люди в одноклассниках писали в яндекс группу по поискам, до сих пор не знаю фейк это был или нет
Kendr
19.06.2018
09:05:04
DimenSi
19.06.2018
09:06:15
Alexander
19.06.2018
09:08:18
Kool
19.06.2018
09:09:18
Google
Cenator
19.06.2018
09:09:34
Oleg
19.06.2018
09:09:46
round 2. Fight
Alexander
19.06.2018
09:10:02
чиго. вебсокеты? лол
Oleg
19.06.2018
09:10:17
после этого срачика решил кстати переделать у себя на курсор пагинацию
Kool
19.06.2018
09:10:18
Alexander
19.06.2018
09:10:19
вы еще скажите табличная верстка антипаттерн
Kool
19.06.2018
09:10:20
состояния
Alexander
19.06.2018
09:10:20
ну ваще
Cenator
19.06.2018
09:10:32
я не буду по второму разу объяснять
Kool
19.06.2018
09:10:32
например хеш стейта бд
Alexander
19.06.2018
09:10:44
так и с первого раза ясно, что это не антипаттерн
Kool
19.06.2018
09:10:59
а если у нас миллион записей в бд?
тоже их все грузить?
Oleg
19.06.2018
09:11:16
Alexander
19.06.2018
09:12:08
создавать по инстансу indexeddb у каждого клиента и при первом запуске заливать туда весь миллион записей
а что, эдакий пиртупир
а изменения таблицы на блокчейне
Oleg
19.06.2018
09:12:31
у клиента хранить копию бд в локалсторе
сравнивать потом тоталы и если что догружать клиенту
DimenSi
19.06.2018
09:14:35
немного отсыпать клиенту
Google
Kool
19.06.2018
09:14:52
если сущностей много
Oleg
19.06.2018
09:15:32
делать свой проект сразу десктопом
Kool
19.06.2018
09:15:41
DimenSi
19.06.2018
09:15:41
псс, нехочешь немного пагинации?
Oleg
19.06.2018
09:16:16
Hedint
19.06.2018
09:16:25
а правда, что вы все еще пагинируете?
Oleg
19.06.2018
09:16:45
Nik
19.06.2018
09:46:05
господа, а есть у кого-нибудь практика интеграции ноды с пхп бекэндом? если нужен пхп - просто дергаем урлу, получаем ответ. а если наоборот? подымать отдельный сокет и роутинг для соединений из пхп не очень хочется, по вебсокету пыхой конектится тоже не лучшая идея
Cenator
19.06.2018
09:46:46
не понял что ты хочешь в итоге получить
Константин
19.06.2018
09:47:00
завести очередь на редисе может?
Yan
19.06.2018
09:47:33
Nik
19.06.2018
09:48:31
мне нужно засинкать 2 аппа, чтобы они могли триггерить события друг другу. бек полностью написан на пыхе, на ноде крутится чат и небольшие риалтайм сервисы. про шину/очередь думал, но нехотелось бы затягивать что-то сторонее для подобной задачи
Cenator
19.06.2018
09:48:54
придется
паб саб даже сойдет
Константин
19.06.2018
09:49:18
а сейчас что? только постгрес? мускл?
Nik
19.06.2018
09:49:29
да, сейчас просто реляционка
Константин
19.06.2018
09:49:37
на постгресе можно pubsub сделать )
Yan
19.06.2018
09:50:06
это если база одна
Google
Nik
19.06.2018
09:50:29
в общем, из вариантов в "лоб" кроме как подымать отдельный http слой поверх ноды - ничего в голову не приходит никому?
Yan
19.06.2018
09:50:36
тут по идее брокер сообщений нужен типа kafka
но возможно это оверкил
Nik
19.06.2018
09:51:07
>но нехотелось бы затягивать что-то сторонее для подобной задачи
реббит, редис и тд - хотелось бы без них
Константин
19.06.2018
09:52:39
ещё есть zeromq кстати, он без серверов работает, но надо пхп с ратчетом поднимать чтобы он как демон крутился
Nik
19.06.2018
09:54:48
ну это тоже сокеты, которые пыха не очень любит :)
понял, спасибо, буду мозговать
Cenator
19.06.2018
09:55:08
Константин
19.06.2018
09:55:14
ты посмотри ещё какое там планируется количество сообщений. если там десяток в секунду перегнать – вообще нечего париться, хттп и ладно
Nik
19.06.2018
09:55:48
да впринципе да, нагрузка в этой части не предвидится. а если в перспективе - буду думать за какой-то брокер. пока это так, пет-проджект на коленке
Константин
19.06.2018
09:56:00
о, я вспомнил ещё на nginx есть модуль push-stream, он заставляет nginx сам работать сокет-сервером и доставлять сообщения пхп-бэкенду )
Игорь
19.06.2018
10:05:06
кто-нибудь пользовался https://github.com/audreyt/node-webworker-threads ?
Или может чем-то наподобии?
Надо просто функцию запускать в отдельном процессе.. чтобы не подвешивать основной нодовский процесс.. так как там весьма длинные сложные вычисления
Vlad
19.06.2018
10:06:30
Джентмены, добрый день.
Подскажите вот что. Есть файл ecosystem.config (с которым работает pm2)
В нем, очевидно, лежат важные и секретные переменные окружения.
Как правильно с ним поступить в контексте git?
1. .gitignore
2. файл-заглушка
Nik
19.06.2018
10:08:02
ecosystem.config.dev - тут заменяешь данные заглушками
оригинальный в гит игнор
Vlad
19.06.2018
10:10:28
А, все, вопрос снят.
к файлу с заглушками, конечно же
Nik
19.06.2018
10:11:16
ап ту ю. я например в качестве "демо" конфига использую оный с настройками докера. там нет ничего секретного, и служит наглядным пособием
Vlad
19.06.2018
10:11:22
Google
Vlad
19.06.2018
10:11:35
Yaroslav
19.06.2018
10:40:23
в общем, паттерн паб саб, как подскази выше
Vlad
19.06.2018
10:41:06
Yaroslav
19.06.2018
10:41:06
и сделай еще медиатор-кор сверху них,
Vlad
19.06.2018
10:41:25
Да, как говорит Yaroslav - pub/sub-паттерн
Nik
19.06.2018
10:41:25
Yaroslav
19.06.2018
10:41:47
задача дикая сама по себе, а ты еще не хочешь норм построить взаимодействие
-_-
успехов
██████
19.06.2018
10:44:45
Чат, дергаю на ноде api, которое возвращает оооочень длинную строку и после вывода этой строки получаю артефакты: стати��тические данные
я так думаю что это из-за того что я получаю данные чанками и один из utf символов разрывается на несколько и неправильно склеивается. Как можно это пофиксить?
сталкивался ли кто нибудь с подобной проблемой?
Yan
19.06.2018
10:45:54
у меня похожая история была с разбором base64
██████
19.06.2018
10:47:24
в общем кому интересно - загоняешь все чанки данных в массив, затем Buffer.concat(chunks);, и после этого JSON.parse(result.toString('utf8'))
тогда нет разрывов между UTF символами и все робит =)
Alex
19.06.2018
10:51:51
Ограничиваешь размер чанка?
██████
19.06.2018
10:51:56
нет
Yan
19.06.2018
10:51:59
result в другом формате приходит
██████
19.06.2018
10:53:35
result в другом формате приходит
не очень понял... в каком другом? изначально у нас массив из строк, которые мы превращаем в буфер и объединяем, затем этот буфер превращаем обратно в строку и парсим в объект