@phpgeeks

Страница 4339 из 8430
Sander
24.03.2017
14:54:32
кто на lumen писал, что можете сказать про этот микрофрейморк. есть slim, silex, а есть lumen, что лучше? ---

Evgeniy
24.03.2017
14:54:52
писал на silex

/
24.03.2017
14:55:17
как выключить варнинги через .htaccess

Sander
24.03.2017
14:55:41
меня интересует больше lumen, хочу услышать отзывы про него, но сранивая его с silex, slim.

Google
Evgeniy
24.03.2017
14:55:45
охуеть у тебя там ссылка https://paimon.pro/portfolio

можно даже fw угадать

дааа мастера по созданию сайтов

в 2017 узнали о бесплатных сертификатах

на своем сайте кривой роутинг

ахуеть у таких сайты заказывать

aspirin
24.03.2017
14:57:15
делать 5 проектов одновременно ад

Evgeniy
24.03.2017
14:57:31
silex вроде норм

но там медленно перезжаешь на симфони

aspirin
24.03.2017
14:57:59
помню что где-то делал функционал который можно скопипастить в другой проект, написать заново 10 минут, ищу его в проектах уже 30

¯ \ _ (ツ) _ / ¯

Evgeniy
24.03.2017
14:58:54
сэкономил время

Google
CitySites.UZ
24.03.2017
15:09:42
Кто нибудь делал парсинг интернет магазина?

На 1с Битрикс

Sergey
24.03.2017
15:11:46
парсинг лучше делается не зависимым от CMS

а уже на его результат навесить нужный мост в битрикс

aspirin
24.03.2017
15:12:35
тип как вариант yml формат для яндекс маркета и прочих

CitySites.UZ
24.03.2017
15:12:56
Какой вариант удобнее ребята?

Sergey
24.03.2017
15:13:28
из чего выбирать?

Evgeniy
24.03.2017
15:13:40
битрикс или битрикс

Sergey
24.03.2017
15:14:02
битрикс или bitrix

Tigran
24.03.2017
15:14:59
https://scrapy.org/

CitySites.UZ
24.03.2017
15:16:25
битрикс или битрикс
С open cart на битрикс

Sergey
24.03.2017
15:18:50
https://scrapy.org/
Requires Distributions w3lib (>=1.15.0) six (>=1.5.2) service-identity queuelib pyOpenSSL parsel (>=1.1) lxml cssselect (>=0.9) Twisted (>=13.1.0) PyDispatcher (>=2.0.5) Спасибо, я лучше lxml обойдусь

/
24.03.2017
15:19:12
кек, пишу код у мну все работает а на сервере нет, глянул версию php там 5.6 лол, у меня 7

aspirin
24.03.2017
15:19:54
время обновлятся

Sergey
24.03.2017
15:20:01
до 7.1

Tigran
24.03.2017
15:20:32
лучше нету

если нужны простые парсинги - можно и lxml

а если что то посложнее, то лучший выбор - scrapy

Google
Sergey
24.03.2017
15:21:19
чем он лучше lxml?

aspirin
24.03.2017
15:21:23
Requires Distributions w3lib (>=1.15.0) six (>=1.5.2) service-identity queuelib pyOpenSSL parsel (>=1.1) lxml cssselect (>=0.9) Twisted (>=13.1.0) PyDispatcher (>=2.0.5) Спасибо, я лучше lxml обойдусь
учитывая что он тянит Twisted я так понимаю что это практически готовый продукт, осталось только логику парсинга впихнуть, и не парится насчет работы с сетью... или я ошибаюсь?

Tigran
24.03.2017
15:22:44
lxml это просто селектор, считай

Evgeniy
24.03.2017
15:22:46
ога потом притащить селинум

Tigran
24.03.2017
15:22:52
scrapy же полностью готовый продукт

Evgeniy
24.03.2017
15:22:54
или phantomjs до кучи

Tigran
24.03.2017
15:22:54
где есть все

selenium немного для других целей

это управление браузером

Evgeniy
24.03.2017
15:23:18
так если парсишь инфу а на сайте не хотят отдавать

webdriver самое то

я знаю что такое selenium

Sergey
24.03.2017
15:23:38


Evgeniy
24.03.2017
15:24:08
javascript unsupport

nice choice

aspirin
24.03.2017
15:24:17
так если парсишь инфу а на сайте не хотят отдавать
не соглашусь, обычно больше на скорость запросов тригеры нежели на эвристику

/
24.03.2017
15:24:32
врум, врум

Evgeniy
24.03.2017
15:24:39
у всех своя специфика )

/
24.03.2017
15:24:57
502 Bad Gateway

Evgeniy
24.03.2017
15:24:57
в остальных случаях

Google
Evgeniy
24.03.2017
15:25:04
если надо спарсить без Js wget

и вперед

aspirin
24.03.2017
15:25:08
у больших сервисов так вообще проще мобильный апи разреверсить

Evgeniy
24.03.2017
15:25:44
ога прокси ставишь и смотришь

или снифер

aspirin
24.03.2017
15:25:57
mitm

Admin
ERROR: S client not available

Tigran
24.03.2017
15:26:07
в большинстве случаев достаточно просто передавать хедеры как у браузера

aspirin
24.03.2017
15:26:12
я так весь кинопоиск слил за 2 дня

Tigran
24.03.2017
15:26:16
и делать sleep() между запросами

Евгений
24.03.2017
15:26:26
javascript unsupport
ну если из этих трёх смотреть, то джса нет ни у одного

Tigran
24.03.2017
15:26:55
scrapy умеет кешировать

работать с заголовками

кликать на всякие кнопочки..

там есть почти все для парсинга

Sergey
24.03.2017
15:27:20
без js кликать?

интересно

Tigran
24.03.2017
15:27:50
try: next = self.driver.find_element_by_xpath('//*[@id="BTN_NEXT"]') url = 'http://www.example.org/abcd' yield Request(url,callback=self.parse2) next.click() except: break

Google
aspirin
24.03.2017
15:28:46
извращение какое то...

Sergey
24.03.2017
15:28:50
Tigran
24.03.2017
15:29:23
вроде нет

Evgeniy
24.03.2017
15:29:31
без webdriver как минимум

сложно сделать норм парсинг

Tigran
24.03.2017
15:29:42
я не пользовался кликами в моих парсерах

Evgeniy
24.03.2017
15:29:56
а вот нужен тебе js или что по быстрее другой разговор

а вот поверх webdriver уже всякие обертки типо jquery style получения данных и тд

Sergey
24.03.2017
15:31:23
вроде нет
ну вот есть у меня <button type="submit" formtarget="_parent">, он прям поймет что страница в iframe и отправит submit правильно?

aspirin
24.03.2017
15:31:25
вангую черепашью скорость

Evgeniy
24.03.2017
15:32:01
вангую регулярки

regular hell

aspirin
24.03.2017
15:32:12
странные ва какие-то нафига поддержка js, можно же эмулировать ajax и не парится

Evgeniy
24.03.2017
15:32:32
поддержка js нужна чтобы была отключаемая

типо берешь webdriver

а у него уже есть разные движки

в том числе без js

Страница 4339 из 8430