@prophp7

Страница 1378 из 1387
Katulos
24.10.2018
20:37:00
Александр
24.10.2018
20:38:07
А в заголовках отправляется idekey?

Katulos
24.10.2018
20:38:20
Да

Александр
24.10.2018
20:38:47
Magic, я не знаю что ещё не так

Google
Katulos
24.10.2018
20:40:04
Вот и я не знаю

В дргих иде оно берет и работает

Sergei
24.10.2018
20:41:31
Кука ставится?

Александр
24.10.2018
20:41:32
https://github.com/drumser/docker-lemp/blob/master/configuration/php/php7/ext/xdebug.ini Вот мой конфиг. Я прописываю этот хост и иде Кей в дебаг/proxy в настройках, настраиваю мапинг и все работает

Katulos
24.10.2018
20:45:59
Конфиг xdebug тут непричем

оно работает в других иде прям тут же, на это сессии и на этом компе

Bohdan
24.10.2018
20:46:36
шторм перезапускал, надеюсь?

Katulos
24.10.2018
20:46:49
Естественно

Bubble
25.10.2018
00:22:45
Hi

Where is the Russian vps

Pavel
25.10.2018
06:00:08
Всем привет. С коллегой затеяли спор

Есть задача. Есть достаточно большой допустим csv фай на импорт товаров допустим на миллион записей. Задача симпортить товары, т.е те что есть обновить, а тех что нет добавить. А спор вот в чем. Он доказывает что если использовать итератор например SplFileObject и гонять это в цыкле батчами то 1 это все отожрет немеряно памяти и в какойто момент упадет по памяти 2 SplFileObject грузит весь файл в память

Есть гдето хорошая статья которая обьяснит как работает SplFileObject ?потому-то рабочий прототип писать не хотелось бы

Google
Maksim
25.10.2018
06:05:17
А ты за что топишь?)

Pavel
25.10.2018
06:05:34
Я за правду

Maksim
25.10.2018
06:05:50
Тогда гугли генераторы)

Pavel
25.10.2018
06:06:23
Я конкретно попросил привести мне кейсы в какой момент упадет потому что знаю что подобная реализация уже есть в одной системе и она успешно работает

Maksim
25.10.2018
06:07:03
Ну, оно неоптимально работает в любом случае и оперативку отожрёт скок сможет

Pavel
25.10.2018
06:07:25
читай построчно, используй генератор
Там еще вопрос про внедрение батч процессора

Maksim
25.10.2018
06:08:15
А что тогда оптимально будет работать?
Генераторы, дважды уже сказали

Pavel
25.10.2018
06:09:00
Генераторы, дважды уже сказали
Окей. Все равно ему просто так не доказать нужно еще агрументировать что это в цыкле не упадет

Maksim
25.10.2018
06:09:38
Sol
25.10.2018
06:09:39
не упадет

Maksim
25.10.2018
06:10:13
Ты построчно читаешь, всегда зеаешь где курсор. Изи

Chupa
25.10.2018
06:10:33
А чего бы не запустить и то, и другое и не понаблюдать за ресурсами

Sol
25.10.2018
06:10:35
буквально недавно импортировал 20 гиг в базу

Pavel
25.10.2018
06:11:10
не упадет
Ну у него вргумент что кроме чтения данных в цыкле еще будет обращение к бд т/е/ стратегия инсерт апдейт

и типо на этом месте значит упадет

Maksim
25.10.2018
06:11:48
А ещё сервер может сгореть

Pavel
25.10.2018
06:11:56
Про очистку данных я ему как бы говорил но он не понимает он все ще думает что грузится вся инфа с файла

Sol
25.10.2018
06:12:10
кек)

Google
Maksim
25.10.2018
06:12:14
Не надо чистить. Просто докидывайте

Pavel
25.10.2018
06:12:19
буквально недавно импортировал 20 гиг в базу
А есть како-то рабочий пример который можно ему показать и скаать вот

?

Sol
25.10.2018
06:13:55
позволь мне погуглить за тебя: http://mark-story.com/posts/view/php-generators-a-useful-example

https://likegeeks.com/process-large-files-using-php/

Pavel
25.10.2018
06:16:09
позволь мне погуглить за тебя: http://mark-story.com/posts/view/php-generators-a-useful-example
Это все я ему вчера приводил? особенно последнюю ссылку. Я человек тупо не понимает что весь файл не грузится в память

он утверждает что грузится

Sol
25.10.2018
06:16:23
ну так обясни ему что аткое указатель

Pavel
25.10.2018
06:16:38
Ох это тяжело

Sol
25.10.2018
06:16:51
ну или напиши пример)

Pavel
25.10.2018
06:17:00
но и потом он не понимает что это все можно сделать в один поток в цыкле он думает что это упадет

Sol
25.10.2018
06:17:06
поставь лимит 128 и загрузи фаел на 256

Pavel
25.10.2018
06:17:09
ну или напиши пример)
да походу придется)

Maksim
25.10.2018
06:17:15
Ну значит гнать его нахер из профессии в макдональдс картошку жарить, раз не понимает и не хочет разбираться)

Pavel
25.10.2018
06:17:37
)))

Maksim
25.10.2018
06:17:54
Pavel
25.10.2018
06:18:06
Поток всегда будет 1
Короче он топит за решение с темповыми таблицами и сложным sql запросом

т.е альтернативных вариантов не принимает

Google
Pavel
25.10.2018
06:19:00
Эт днарь какой-то, а не синьор
Ну тем не менее задачи он решает.))

Shmaltorhbooks
25.10.2018
06:19:24
Ну тем не менее задачи он решает.))
Тоже темповыми таблицами?)

Maksim
25.10.2018
06:19:24
Pavel
25.10.2018
06:19:54
Тоже темповыми таблицами?)
Хз пока на проекте не пересекались.

Shmaltorhbooks
25.10.2018
06:20:09
А как он в темповую таблицу данные загонять собирается?)

Pavel
25.10.2018
06:20:41
А как он в темповую таблицу данные загонять собирается?)
не спросил правда сам вчера нагуглил сейчас попробую ссылку найти

Shmaltorhbooks
25.10.2018
06:21:46
Та не, спасибо, ненадо)

Pavel
25.10.2018
06:22:46
Насколько я понял что-то типа такого LOAD DATA LOCAL INFILE 'path/to/file.csv' INTO TABLE 'table_name';

Maksim
25.10.2018
06:23:23
Не самый плохой вариант)

Sol
25.10.2018
06:24:49
Насколько я понял что-то типа такого LOAD DATA LOCAL INFILE 'path/to/file.csv' INTO TABLE 'table_name';
Тогда вы оба не поняли. Тут логика такая, из большого файла на десятки, сотни гигабайте вычитали, скажем, 1000 строчек. Положили их в фаел и используя эту комнаду загрузили. Такими вот пачками и импортируете.

Sol
25.10.2018
06:25:52
База у вас мускуль скорее всего

Pavel
25.10.2018
06:26:16
База у вас мускуль скорее всего
У него да он в основном с маджентой работал

Sol
25.10.2018
06:26:19
для него это оказался самый быстрый вариант импорта

Pavel
25.10.2018
06:26:30
Я де кстати говорю что база может быть и иная

Anton
25.10.2018
06:59:37
"Цыган на цыпочках цыпленку цыкнул цыц", к чему это я. Но я бы упоролся настолько, что не просто бы сделал импорт в одно лицо, но еще и асинхронщину какую-нибудь замутил. правда хз насколько это будет быстро если диск не ssd.

Dmitry
25.10.2018
07:15:09
load data во временную и sql запрос будет сильно быстрее, чем читать построчно и инсертить/апдейтить

Maksim
25.10.2018
07:16:20
load data во временную и sql запрос будет сильно быстрее, чем читать построчно и инсертить/апдейтить
там вопрос в том, что потом с данными будет происходить (из временной). так-то вариант вполне себе

Google
Maksim
25.10.2018
07:17:11
можно ли обойтись запросом, либо надо писать вундерпроцедуру, что не каждый осилит и т.д.

Shmaltorhbooks
25.10.2018
07:18:58
Построчно прочитать файл и сгенерировать на его основании файл с sql дампом)

Потом выполнить то, что получилось

Dmitry
25.10.2018
07:20:22
это, мало отличается от sql в цикле

Sergey
25.10.2018
08:22:16
https://twitter.com/lastzero/status/1054680928247799809?s=21

Dmitriy
25.10.2018
08:23:59
расходимся

Nikitcat
25.10.2018
08:24:00
как это не считает ЯП'ом?\

Maksim
25.10.2018
08:24:54
как это не считает ЯП'ом?\
у долбаёбов, которые выучили синтаксис другого языка принято считать, что пхп - не о программировании) они там где-то в мире пхп4 живут и им заебись)

Nikitcat
25.10.2018
08:26:28
так и есть

Maksim
25.10.2018
08:26:32
если Фесор зайдёт к гоферам и скажет, что он на пхп пишет, его заклеймят тупым кретином, ламером и недоучкой) хотя, имено у них он в любом случае такое клеймо получит :)

Nikitcat
25.10.2018
08:27:04


а спорить с такими нет смысла?‍♂️

Maksim
25.10.2018
08:27:39
ага, а го - очень читаемый, да.

особенно когда на нём пишут анонимные пхпшники :)

Anton
25.10.2018
08:28:11
притом в питон чате 99% вопросов -- это фото экрана и вопрос, чего не компилится.

dypa
25.10.2018
08:28:34
я уже говорил, что современный js похож на php4?! xD

Arky
25.10.2018
08:28:58
надо срочна переходить на дарт

Nikitcat
25.10.2018
08:29:38
или котлин

Страница 1378 из 1387