@phpgeeks

Страница 7499 из 8430
Yura
29.05.2018
15:36:07
А там прям для новичков?

Evgeniy
29.05.2018
15:36:26
Да

Плейлист про бд

Dmitriy
29.05.2018
15:36:39
Кому это надо когда есть Eloquent и Doctrine
Eloquent тянет за собой пол ларки. что не нужно обычно в не ларовских проектах

Google
Evgeniy
29.05.2018
15:36:46
Это 3 видео

Dmitry
29.05.2018
15:36:54
чем бы дитя не тешилось лишь бы не банило

Evgeniy
29.05.2018
15:37:10
php-mysql же deprecated
Да об этом я там говорил

Dmitriy
29.05.2018
15:37:18
Кому это надо когда есть Eloquent и Doctrine
доктрина . для 3-5 запросов жирновата...

Evgeniy
29.05.2018
15:37:24
Но даже в этом чате модный вопрос

доктрина . для 3-5 запросов жирновата...
Согласен по обоим пунктам и про лару

Косяки в видео есть я зачемто подготовку бд довольно подробно сделал можно было пропустить

Сообщение с ошибками поправлю

Yura
29.05.2018
15:39:09
Приучатся и потом тянут доктриной с findBy.. кучу объектов нафиг не нужных

Evgeniy
29.05.2018
15:39:33
Я о ар и доктрине тоже буду делать

Но позже

Слежующее про doctrine/dbal

Google
Evgeniy
29.05.2018
15:40:15
Потом про datarow gateway

И querybuilder

Потом начну про орм и ar как в ларе

Sergei
29.05.2018
15:41:16
Я о ар и доктрине тоже буду делать
а с какой целью канал на ютубе ведёшь?

Evgeniy
29.05.2018
15:41:19
Следующим видео о орм и datamapper на примере доктрины

а с какой целью канал на ютубе ведёшь?
Для себя учусь комуникации

Для других обучение и о разраюотке без всяких платных курсов

Aziz
29.05.2018
15:45:40
Господа вопрос, в phpmyadmin можно к ячейке поставить, чтобы в ней были только уникальные значения

Можно ли сделать, чтобы было по 2 ячейкам

dev
29.05.2018
15:46:13
включи режим структуры

Vladislav
29.05.2018
15:46:16
Можно

Aziz
29.05.2018
15:46:20
К примеру если userlogin: Admin usergroup: 1, userlogin: Admin usergroup:2

dev
29.05.2018
15:46:22
выбери 1 или более ячеек снизу нажми UNIQUE

Aziz
29.05.2018
15:48:59
?

Но ведь это отдельно к каждому полю?

Разве нет?

Sergei
29.05.2018
15:49:37
Google
dev
29.05.2018
15:49:56
нет

Evgeniy
29.05.2018
15:50:15
Я тут 3 видео про работу с БД mysql в php сделал, также libmysql и mysqlnd, ну и сравнение разных API: mysql vs mysqli vs PDO Вообщем, буду очень рад вашему feedback и замечаниям. Мне кажется, это видео будет очень полезным новичкам, ну и много инетерсных ссылок под видео для самостоятельного обучения. Распространяйте видео https://www.youtube.com/watch?v=isjeQMELtR8&index=3&list=PL7Nh93imVuXwHLCM5KYl6hKMVFQwaG_y9

dev
29.05.2018
15:50:16
упрощенно означает создать уникальный индекс по след полям (поле1, поле2)

Evgeniy
29.05.2018
15:50:37
Попоавил ошибки спс за замечание

release-tracker
29.05.2018
15:57:35
Вышла новая версия Carbon, extension for DateTime: 1.29.2

Piskovyi
29.05.2018
16:02:35
mysql deprecated,разве нет?

q3ta
29.05.2018
16:08:27
есть таблица в ней 2 поля id table хочу сделать JOIN с таблицой имя которой хранится в столбце table, такое реально делать? если да, то как?

Андрей
29.05.2018
16:19:11
mysql deprecated,разве нет?
Разве кто-то ещё пишет на нем?

Piskovyi
29.05.2018
16:19:43
Ну так я и спрашиваю

Luka
29.05.2018
16:22:14
Подскажите, как правильней сделать. Нужно определить существует ли ячейка в таблице базы данных, чтобы ошибка не сработала

q3ta
29.05.2018
16:23:49
Советую почитать про "нормальные формы"
таблицы уже существуют, большой проект, мне просто интересно возможно ли динамически подставлять значение столбца как имя таблицы

1Bot
29.05.2018
16:37:07
Рнр уже без баз данных никак

Nikita
29.05.2018
16:58:36
Ребята

всем привет

У меня такая проблема, не могу подключиться к бд, использую Laravel

Игорь
29.05.2018
17:01:19
Народ, нужна поддержка. Нужно спарсить статьи с сайта ~300 страниц на каждой по 10 статей. Отправляю запросы через guzzle парсинг через simple html dom, фреймворк laravel. Как у меня всё построено сейчас: При get запросе на мой сайт (пусть будет '/parse') паралельно отправляются запрос на ссылки всех страниц со статьями чтобы получить массив ссылок на все статьи сайта. Далее паралельно отправляются запросы по полученным ссылкам, результаты запросов парсятся. Результаты парсинга выводятся в виде массива на страницу (ларавеловская функция dump() - аналог var_dump()) Я понимаю что как пытаться выводить такой огромный объем данных на страницу разом, так и паралельно отправлять 3000 запросов это извращение. Если пытаться спарсить за раз около 50 страниц (500 статей) то всё ещё идёт более - менее нормально, но при больших объёмах начинает происходить какая-то дичь. Собственно вопрос - как правильно спарсить такой объём данных и сохранить его (в бд / файл ... не важно где )? За любые подсказки и инфу буду весьма признателен

Nikita
29.05.2018
17:01:42


Как пофиксить?

Google
Nikita
29.05.2018
17:02:13
Мне сайт надо просто запустить, есть ФТП доступ к исходникам и бд

а тут такое

На опенсервер залил, создал бд в phpmyadmin

Dmitry
29.05.2018
17:02:57
Как пофиксить?
узнай корректный пароль юзера и поправь в конфиге

Nikita
29.05.2018
17:03:19
базу имортировал в phpmyadmin

Игорь
29.05.2018
17:03:47
я хочу локально запустить
пароль / логин неверный

Nikita
29.05.2018
17:04:23
пароль / логин неверный
это странно, потому что в конфиге совсем другие данные



Dmitry
29.05.2018
17:06:07
я хочу локально запустить
ну запускай. зайди в базу через pma и создай пользователя для этой базы

у тебя какую базу юзает из трёх?

Nikita
29.05.2018
17:06:48
все

пофиксил

в файле environment поменял

Golodnyi
29.05.2018
17:07:09
Народ, нужна поддержка. Нужно спарсить статьи с сайта ~300 страниц на каждой по 10 статей. Отправляю запросы через guzzle парсинг через simple html dom, фреймворк laravel. Как у меня всё построено сейчас: При get запросе на мой сайт (пусть будет '/parse') паралельно отправляются запрос на ссылки всех страниц со статьями чтобы получить массив ссылок на все статьи сайта. Далее паралельно отправляются запросы по полученным ссылкам, результаты запросов парсятся. Результаты парсинга выводятся в виде массива на страницу (ларавеловская функция dump() - аналог var_dump()) Я понимаю что как пытаться выводить такой огромный объем данных на страницу разом, так и паралельно отправлять 3000 запросов это извращение. Если пытаться спарсить за раз около 50 страниц (500 статей) то всё ещё идёт более - менее нормально, но при больших объёмах начинает происходить какая-то дичь. Собственно вопрос - как правильно спарсить такой объём данных и сохранить его (в бд / файл ... не важно где )? За любые подсказки и инфу буду весьма признателен
Если ты прекратишь дампить массив на экран, то все спарсится нормально, но в целом твоя задача достойна угнетения, а не поощерения

Dmitry
29.05.2018
17:07:11
поздравляю

Nikita
29.05.2018
17:07:20
поздравляю
Спасибо большое

Golodnyi
29.05.2018
17:08:01
Угнетения? Почему?
Очевидно что ты нарушаешь авторские права

Dmitry
29.05.2018
17:08:08
Угнетения? Почему?
красть - не хорошо

Google
Игорь
29.05.2018
17:10:23
Собственно красть я ничего не собираюсь) Просто делаю сайт для себя так сказать в партфолио. Для сайта нужна бд, и набраться опыта. Вот ставлю себе такие задачи и пытаюсь выполнить. Так или иначе умение парсить всем ведь пригождается, и совсем не обязательно в воровстве контента)

Golodnyi
29.05.2018
17:11:20
В эпоху рест апи, парсить никому кроме пиратов не надо)

Dmitry
29.05.2018
17:11:26
а так навык так себе

Игорь
29.05.2018
17:12:26
Тут дело даже не столько в самом парсинге, сколько в побочках - уметь отправлять запросы, работа с файлами, регулярки и тп

1Bot
29.05.2018
17:12:50
Народ, нужна поддержка. Нужно спарсить статьи с сайта ~300 страниц на каждой по 10 статей. Отправляю запросы через guzzle парсинг через simple html dom, фреймворк laravel. Как у меня всё построено сейчас: При get запросе на мой сайт (пусть будет '/parse') паралельно отправляются запрос на ссылки всех страниц со статьями чтобы получить массив ссылок на все статьи сайта. Далее паралельно отправляются запросы по полученным ссылкам, результаты запросов парсятся. Результаты парсинга выводятся в виде массива на страницу (ларавеловская функция dump() - аналог var_dump()) Я понимаю что как пытаться выводить такой огромный объем данных на страницу разом, так и паралельно отправлять 3000 запросов это извращение. Если пытаться спарсить за раз около 50 страниц (500 статей) то всё ещё идёт более - менее нормально, но при больших объёмах начинает происходить какая-то дичь. Собственно вопрос - как правильно спарсить такой объём данных и сохранить его (в бд / файл ... не важно где )? За любые подсказки и инфу буду весьма признателен
Ставь задачу в очередь и отображай текущий статус

Golodnyi
29.05.2018
17:13:06
Ты не тем занимаешься, выдуманные задачи так себе портфолио, делай реальные проекты

Игорь
29.05.2018
17:14:04
Ты не тем занимаешься, выдуманные задачи так себе портфолио, делай реальные проекты
Собственно реальный проект я сделать и хочу, для него бд нужна, а потому я её и парсю

Golodnyi
29.05.2018
17:14:25
Собирай БД из открытых источников

Игорь
29.05.2018
17:14:40
Ставь задачу в очередь и отображай текущий статус
Можно поподробнее пожалуйста? Какую задачу? Как?

Dmitry
29.05.2018
17:15:11
Собирай БД из открытых источников
ну тут опять палка о двух концах. сайт в интернете - открытый источник. просто иногда пишут в копирайт грозные словечки

Можно поподробнее пожалуйста? Какую задачу? Как?
https://yandex.ru/search/?text=%D1%82%D0%B0%D1%81%D0%BA%20%D0%BC%D0%B5%D0%BD%D0%B5%D0%B4%D0%B6%D0%BC%D0%B5%D0%BD%D1%82&&lr=146

Golodnyi
29.05.2018
17:15:56
Сайт в интернете под копирайтом, открытый источник это когда дают api для выгрузки данных

Golodnyi
29.05.2018
17:17:08
Тот же в киноход даёт актуальную инфу о фильмах в прокате по стране, яндексы, гуглы и много ноунеймов много всего дают

ты знаешь api у википедии?
Ты что в портфолио хочешь свою вики?)

Dmitry
29.05.2018
17:18:35
Ты что в портфолио хочешь свою вики?)
не все сайты используют копирайт

существуют разные лицензии

Страница 7499 из 8430