@phpgeeks

Страница 774 из 8430
da horsie
27.08.2016
20:55:30
Как вариант можно

Газл стандарт, это да

Konstantin
27.08.2016
20:56:22
Ну вроде другого нема, если только с тредами заморачиваться

D'
27.08.2016
20:56:44
Ну там напрашивается очевидное решение с очередями

Google
D'
27.08.2016
20:56:48
Но ему не хочется )

da horsie
27.08.2016
20:58:06
Я думал как-то это обойти, запуская отдельные запросы в cli в background

И потом собирая ответы когда процесс помрет

D'
27.08.2016
20:58:29
Я думал как-то это обойти, запуская отдельные запросы в cli в background
чет твой дилер походу тебе хреновую траву продал

Don
27.08.2016
20:58:42
Я как вордпресс поставил на сайт в качестве обложки сайта, вообще полный нуль был в пыхе.. Не понравился мне он, снёс, написал ручками собственные скриптики как знаний набрался и все стало гуд

da horsie
27.08.2016
20:58:49
Ну вот я поэтому с спрашиваю

Ибо нужен sanity check

Don
27.08.2016
20:59:18
А че

Опасен?

da horsie
27.08.2016
20:59:41
Ладно

Значит или газл или message queues

Да?

Google
Don
27.08.2016
21:00:01
В пыхе же многопоточность нельзя реализовать же, или я ошибаюсь!?

D'
27.08.2016
21:00:02
Ибо нужен sanity check
просто я не понимаю что тебе дадут те же промисы

da horsie
27.08.2016
21:00:22
Мне не промисы нужны, не асинхронность

D'
27.08.2016
21:00:28
Ты с тем же успехом можешь сам массив из callable сделать и вызывать их

da horsie
27.08.2016
21:00:31
А параллельность

Вот да

Don
27.08.2016
21:00:44
Ему надо на 10 клиентов сразу 10 запросов

da horsie
27.08.2016
21:00:49
Дада

Don
27.08.2016
21:00:50
Иполучить от них ответы

D'
27.08.2016
21:00:50
Так у тебя зависимость же есть.

Don
27.08.2016
21:00:53
А не по очереди

D'
27.08.2016
21:00:55
Ты же ее не распаралелишь

Don
27.08.2016
21:01:03
Вот он и спрашивает

Как замутить

da horsie
27.08.2016
21:01:08
Некоторые запросы независимы

Don
27.08.2016
21:01:13
10 запрсов послал и ждешь

da horsie
27.08.2016
21:01:13
Их можно параллелить

Konstantin
27.08.2016
21:01:25
ну так запусакай через треды

D'
27.08.2016
21:01:36
Некоторые запросы независимы
Ну сделай 2 очереди. Пихай в них паралельные и не паралельные задачи

Потом собирай результаты от куда-нибудь

Google
Don
27.08.2016
21:01:53
Сделай 2 функции и вызывай по крону ?

Или сколькл там надо потоков

Будет у тебя тру костыль

da horsie
27.08.2016
21:02:19
Крон некошерно совсем

Don
27.08.2016
21:02:26
Ахахаха, а как кошерно?

da horsie
27.08.2016
21:02:44
Ну треды более-менее кошерно

И очереди

Don
27.08.2016
21:03:03
А треды возможно в пыхе?

Я просто никогда не видел

da horsie
27.08.2016
21:03:13
Через жопу можно

Или форк, тоже можно

Don
27.08.2016
21:04:16
А кстати говоря, кто что посоветует для обработки ежесикундно 5000 запросов на пыхе от клиентов

Don
27.08.2016
21:04:24
Php-fpm пойдет?

da horsie
27.08.2016
21:04:29
Ага

Konstantin
27.08.2016
21:04:46
```<?php $promises[]; foreach ($usernames as $username) { $promises[] = $client->requestAsync('GET', 'https://api.github.com/users/'.$username); } GuzzleHttp\Promise\all($promises)->then(function (array $responses) { foreach ($responses as $response) { $profile = json_decode($response->getBody(), true); // Do something with the profile. } })->wait();

Don
27.08.2016
21:04:50
Ну так чтобы ресурсов не жрало дохуя, а то апач... Сжирает все

D'
27.08.2016
21:04:54
А кстати говоря, кто что посоветует для обработки ежесикундно 5000 запросов на пыхе от клиентов
посоветую перестать принимать то, что ты сейчас принимаешь. И начать принимать успокоительное.

da horsie
27.08.2016
21:05:07
Только надо несколько серверов все равно, чтобы масштабировалось

Google
Don
27.08.2016
21:05:32
Через nginx?

Konstantin
27.08.2016
21:05:35
https://blog.madewithlove.be/post/concurrent-http-requests/

da horsie
27.08.2016
21:05:36
Вполне

Don
27.08.2016
21:05:49
Один сервер не вывезет?

Ну там простые инсерты sql и выборка

Фреймворк, кэшировано все в принципе

Admin
ERROR: S client not available

da horsie
27.08.2016
21:06:15
У меня nginx на проекте раьотал как ладьанансер и статику раздавал

Вполне норм было

Хз

Don
27.08.2016
21:06:36
Ну задача просто стоит по поднятию проекта, там нормально так запросов будет

da horsie
27.08.2016
21:06:45
О масштабировпнии надо думать прлбьому

Konstantin
27.08.2016
21:06:48
5000rps На пыхе, ну может быть, смотря ккой канал - железо

Don
27.08.2016
21:07:00
da horsie
27.08.2016
21:07:05
У меня 1к запросов было

И два северп

Don
27.08.2016
21:07:37
Ну знаю что апач сразу валится.... Какой бы сервер не был и сколько ты там памяти не выделяй, похеру ваще.. ЦП грузит под сотку и гг

На пхп-фпм пробовал тестирование, путем ддоса

Google
Don
27.08.2016
21:07:59
Ну по ххтп, кидал кучу запросов

Было около 4к соединений, выдержало, но цп был забит под 70-90%

Памяти хватало кстати говоря

Железо не топовое

Десктоп вообще

da horsie
27.08.2016
21:08:46
Думай о масштабировании заранее

D'
27.08.2016
21:08:56
да, да. нетбук на атоме

da horsie
27.08.2016
21:09:24
Лучше лишние сервера в апстриме держать чем наебаться в момент пиковой нагрузки

Don
27.08.2016
21:09:26
Ну, а мускуль как? На одном сервере тупо мускуль, а к нему с разных сервров путем балансировки делать запросы?

da horsie
27.08.2016
21:09:42
Шарды, кешировние

Don
27.08.2016
21:09:45
Или мускуль тоже разделять надо

da horsie
27.08.2016
21:10:17
Не жалко

Don
27.08.2016
21:11:02
Не, опыт конечно есть.. Но всегда было интересно, как крупные проекты в масштабах работают

Даже например тот же сайт рбк

D'
27.08.2016
21:11:24
http://ruhighload.com/ изучай

Konstantin
27.08.2016
21:11:25
Да так и работают

da horsie
27.08.2016
21:11:39
Nginx как лопдбалансер очень ок

Don
27.08.2016
21:12:03
http://ruhighload.com/ изучай
Спасибо, почитаю))

Завта пока на отдыхе буду от кода

Страница 774 из 8430