
Terminator
30.10.2018
19:03:06
@tatandroidcoder будет жить. Поприветствуем!

Danil
30.10.2018
19:03:41
Привет всем

oleg
30.10.2018
19:09:22
ребят, почему функция htmlspecialchars не конвертирует html символы в текст ?
http://prntscr.com/lcdrql

Google

Terminator
31.10.2018
04:26:49
@pavlovyuriy будет жить. Поприветствуем!

Серёга
31.10.2018
08:53:23

Terminator
31.10.2018
10:27:34
@yakaterinka будет жить. Поприветствуем!

Dmitriy
31.10.2018
10:30:45
Правила группы - уважайте друг друга. Скриншоты -> ссылками. Код -> pastebin.com. Вакансии строго -> https://goo.gl/4bNxym, в чат ссылку.

Екатерина
31.10.2018
10:31:22
окей
https://phpclub.ru/talk/threads/%D0%9F%D1%80%D0%B8%D0%B2%D0%B5%D1%82-%D0%B8%D1%89%D1%83-%D0%BF%D1%80%D0%BE%D0%B3%D1%80%D0%B0%D0%BC%D0%BC%D0%B8%D1%81%D1%82%D0%B0.85525/

oleg
31.10.2018
11:12:51
Какая версия apache для php 7.2 ?

Pavel
31.10.2018
11:13:10
любая свежая

oleg
31.10.2018
11:13:16
http://prntscr.com/lcmwwp
ospanel не запускает
выдает как сбой

Pavel
31.10.2018
11:14:14
Ну если это сбой, значит техподдержка должна зарешать
Или просто потыкай разные версии наугад

Google

oleg
31.10.2018
11:14:33
так и сделал xD
все сбой ...

Pavel
31.10.2018
11:15:34
А подожди, это походу у тебя не хостинг а какой-то джентельменский набор локальный. Ну тогда у тебя все плохо.

oleg
31.10.2018
11:16:12
перезапускаю osp выдает php 5.6 и 2.4 apach
всем спасибо, проблему решил
я ждал пока osp перезапустится
а он просто переходил в режим офф и нужно было запустить ..

Dmitry
31.10.2018
11:18:37
Нужно сгенерить 100к уникальных кодов, в базе уже есть несколько сотен к кодов. Как бы вы делали? ?

Pavel
31.10.2018
11:19:39
просто генерил бы в цикле до успеха
Если все это засунуть в память а коды распихать по хеш таблице, то будет быстрее

Dmitry
31.10.2018
11:20:02
в цикле 100к инсертов?

Pavel
31.10.2018
11:20:16

Dmitry
31.10.2018
11:20:34
в цикле 100к select+insert?

Pavel
31.10.2018
11:20:46
Нет, в памяти лучше

Dmitry
31.10.2018
11:21:04
Тогда селект 500к кодов в память будет

Pavel
31.10.2018
11:21:08
И потом когда наберется 100к уникальных, заинсертить это все кусками по 1000 кодов

Dmitry
31.10.2018
11:21:26
Из базы то их получить нужно
В базе 500к, генерим 100к новых

Pavel
31.10.2018
11:22:00
Выбираем 100 существующих кодов в массив $array[$code] = true;, генерим в этом массиве остальные коды, инсертим в таблицу

Google

Pavel
31.10.2018
11:22:20

Dmitry
31.10.2018
11:22:38
там к ?

Pavel
31.10.2018
11:22:40
Короче, в любом случае мой ответ такой же

Dmitry
31.10.2018
11:23:12
Меня селект 500к как-то напрягает.

Pavel
31.10.2018
11:23:31
Надо выгрузить дамп аккуратно
И писать не на пхп. Тогда все уместится

Dmitry
31.10.2018
11:23:56
почему не на php?

Pavel
31.10.2018
11:24:05
Ну можно и на пхп если памяти много
Будет медленнее работать

Dmitry
31.10.2018
11:24:27
хешмап то…
ну вроде у zval не такой большой оверхед… хотя может ощущаться, да
Но меня именно процесс запроса в базу волнует, она у нас очень больная

Pavel
31.10.2018
11:25:19
Если 500к кодов, каждый код по 10 байт, то это всего 5 мегабайт в памяти без оверхеда

Dmitry
31.10.2018
11:29:19
блин, процедуру написать что ли в базе ?
вообще есть идея создавать временную таблицу и потом просто поджойнить

dypa
31.10.2018
11:33:27

Dmitry
31.10.2018
11:34:15
мне не сделать нужно, мне нужно сделать, что бы базу не завалить ?
У нас на ней и так 50к инсертов в минуту

dypa
31.10.2018
11:35:52

Google

Dmitry
31.10.2018
11:36:36
да, on duplicate можно попробовать…

Artem
31.10.2018
11:36:48

Admin
ERROR: S client not available

Dmitry
31.10.2018
11:37:48
ну так я не по инсерту на код делать буду, а пачками
100к инсертов в цикле очень некрасиво будет

Artem
31.10.2018
11:38:43
ну так я не по инсерту на код делать буду, а пачками
он в случае дубликата кидает исключение, в исключении проверь если оно потому, что дубликат -что -то делай или игнорь.
Но вообще можно поле сделать не уникальным и вставить все записи, а потом пройти по базе и удалить дубликаты )

dypa
31.10.2018
11:39:06

Artem
31.10.2018
11:39:31

Dmitry
31.10.2018
11:39:37
ну по 100 в минуту это вообще как-то ?

Artem
31.10.2018
11:41:18

Dmitry
31.10.2018
11:42:06
гимор в общем ?

Artem
31.10.2018
11:43:21
гимор в общем ?
это да, но можно для начала выгрузить базу в хешмапу (500к записей это же мало в мб вроде) какую в кеше и туда же дату загружать, а потом просто инсерты делать

Dmitry
31.10.2018
11:44:36
в общем думаю сделаю INSERT IGNORE и хрен с потерянными

Artem
31.10.2018
11:45:16
тогда уже INSERT ... ON DUPLICATE KEY UPDATE )

Dmitry
31.10.2018
11:45:34
а чего апдейтить то ?

dev
31.10.2018
11:45:42
откуда у вас такие задачи в чате для новичков

Dmitry
31.10.2018
11:45:53
откуда ты взял, что это чат для новичков?

Artem
31.10.2018
11:45:54
если нечего тогда да просто игнорь

Google

Dmitry
31.10.2018
11:59:16
да и задача то тривиальная только если у тебя не база еле дышащая

Adel
31.10.2018
13:43:58

dev
31.10.2018
13:44:27
я чет спустал с phpjunior

Adel
31.10.2018
13:44:31
))

Yoskaldyr
31.10.2018
16:07:02
@miksir Нет структуры базы и какая нагрузка, потому и нельзя дать точный ответ. Какой тип таблицы, какие индексы, что за поля и что за данные в каждом из полей. потому что когда записей больше 100К в зависимости от схемы и от нагрузки, могут вылезти различные нюансы

Dmitry
31.10.2018
16:07:53
Ты их всех знаешь?

Yoskaldyr
31.10.2018
16:08:37
не все но довольно много
100К в цикле это вообще не проблема если одной транзакцией, но если какие хитрые индексы, то тут может быть жопа и длительные локи
+ сильно зависит от движка таблицы, но думаю речь идет об иннодб
ну и наверное нормлаьно настроенная база

Dmitry
31.10.2018
16:10:25
innodb, varchar(20), уникальное дерево