@ru_python

Страница 1792 из 9768
Pavel
17.11.2016
15:41:54
убери вообще try\except и убедись, что SA выкидывает (или нет) исключение.

V
17.11.2016
15:42:53
не выкидывает

Pavel
17.11.2016
15:43:01
да я умею дебажить, я говорю, что исключение не выпадает, вопрос скорее по SQLAlchemy

Google
Stanislav
17.11.2016
15:43:38
а разве with не обеспечиват подключения?

V
17.11.2016
15:44:01
а разве with не обеспечиват подключения?
нет. он обеспечивает корректное закрытие после

стоп, минуточку )

Pavel
17.11.2016
15:45:50
import logging logging.basicConfig() logging.getLogger('sqlalchemy.engine').setLevel(logging.DEBUG) может что интересное напишет.

A
17.11.2016
15:49:38
Вопрос. Стоит ли демонизировать pyserial. Или лучше по крону дергать?

V
17.11.2016
15:55:55
всем спасибо, была как обычно, ржака-абасака. забыл, что в local_settings.py переопределялся конфиг постгреса, в котором был указан постгрес докера. я потушил постгрес локальный, а а в докере он прекрасно продолжал работать. а исключение которое я видел в дебагере ко мне отношения не имеет, надо было просто его прочитать повнимательнее ))

Boris
17.11.2016
16:20:40
чтобы переехать, надо сначала вакансию найти :)
https://www.xing.com/ ещё, но там почти только немцы

Subbotin
17.11.2016
16:23:06
мне сегодня пришла вакансия на кипр

требования не фонтан какие высокие

Psy
17.11.2016
16:35:32
Мгого раз натыкался. И зп норм и требования не высокие были

Pavel
17.11.2016
16:36:30
меня несколько раз звали

там форексы какие-то сидят

только что на этом кипре делать...

Google
Ray
17.11.2016
16:39:26
здарово други

A
17.11.2016
16:39:27
кто подскажет как с pyserial забирать в 1 и 0

Yan?
17.11.2016
17:09:49
Здратуте

Вопрос по web scraping-y, пишу скрипт, который будет из страницы тащить основную информацию, конвертировать ее в fb2 и на кидл кидать. Сам вопрос, как определить основную инфу на странице? Бывает что вложенных div-ов много и определить нужный трудно.

Egor
17.11.2016
17:12:50
смотри на scrapy, grab

, beatifulsoup

Yan?
17.11.2016
17:13:09
я супом пользуюсь

и думаю, а вообще реально написать алгоритм, который с ЛЮБОЙ страницы будет тащить основную инфу. Не знаю, как выцепить ее и кучи тегов. Как написать, чтобы программа понимала

Egor
17.11.2016
17:14:18
scrapely

но проект не развивают

V
17.11.2016
17:21:07
и думаю, а вообще реально написать алгоритм, который с ЛЮБОЙ страницы будет тащить основную инфу. Не знаю, как выцепить ее и кучи тегов. Как написать, чтобы программа понимала
в порядке бреда предложение: может считать основной инфу, которая содержится в самом большом диве? ну или тупо самый большой кусок текста на странице. с помощью xpath я думаю вполне реально его указать

V
17.11.2016
17:23:39
Можно считать основным текстом то, где много тегов p
а вот это сомнительное утверждение )

как раз в тексте скорее их мало должно быть

Yan?
17.11.2016
17:23:59
http://antirabstvo.ru/text-oil-big-data/

Например

V
17.11.2016
17:24:41
а, я просто после упоминания fb2 сделал предположение, что нужно выдирать именно текстовые куски какие-то

а в указанном примере какой текст на самом деле попадает под оперделение "основной"?

Yan?
17.11.2016
17:25:17
https://lenta.ru/news/2016/11/17/tu160/

Google
Yan?
17.11.2016
17:25:37
Или вот читаю я это

V
17.11.2016
17:25:44
а, ну правильно. еще раз вгляделся в пример

Yan?
17.11.2016
17:25:45
И выдергиваю текст статьи полностью

V
17.11.2016
17:26:22
по кол-ву тегов неправильно судить, их например в панели навигации какой-нить сложной может быть не меньше. а вот по кол-ву текста - да

просто игнорировать теги форматирования текста

Yan?
17.11.2016
17:26:39
Ну да

V
17.11.2016
17:26:51
стронги там всякие, параграфы

попробовать можно

и все еще это в один xpath упихать можно имхо

Yan?
17.11.2016
17:27:17
То есть, перебирать текст с тегами, которые по сути отвечают за разметку текста

V
17.11.2016
17:28:43
я бы делал поиск тега, содержимое которого является максимальным по размеру, но при условии, что в содержимом нет других тегов, кроме перечисленных: p, br, strong, h... и т.д.

Yan?
17.11.2016
17:28:53
А почему xpath, как я понял, он же за xml отвечает?

Yan?
17.11.2016
17:31:24
и все еще это в один xpath упихать можно имхо
про это говорю, что XPath (XML Path Language) is a query language for selecting nodes from an XML document.

О, можно искать такой div, в котором внутри будет тэг p

И потом этот див пытаться разобрать

V
17.11.2016
17:32:53
ну вообще html это подвид xml. и пусть меня закидают тухлыми помидорами, я чайник - мне можно ))

V
17.11.2016
17:33:16
я ждал! ))

Google
V
17.11.2016
17:33:28
спасибо за поправку

Admin
ERROR: S client not available

Yan?
17.11.2016
17:33:39
Extended from SGML

Во

V
17.11.2016
17:33:52
но я к тому, что xpath отлично разбирает dom и теги им парсить оч удобно

Nikolay
17.11.2016
17:33:56
этому html лет писят

ну и вопросы у вас

[Anonymous]
17.11.2016
17:34:12
Просто в HTML можно написать <p>lol <p>kek и это будет нормально, а в XML так нельзя

V
17.11.2016
17:34:14
это я говорю как большой любитель регулярок есичо ))

Nikolay
17.11.2016
17:34:18
всё уже вдоль и поперек по этой теме разобрано

[Anonymous]
17.11.2016
17:34:52
это я говорю как большой любитель регулярок есичо ))
Парсить HTML регулярками моё любимое занятие лол

V
17.11.2016
17:35:01
да, вот я слышал что он только валидный html разбирает и могут быть нюансы, так что готовить с осторожностью ))

[Anonymous]
17.11.2016
17:35:02
Это призывает Ктулху

Nikolay
17.11.2016
17:35:17
вы на SO читали про парсинг html регуляркой?

Google
Yan?
17.11.2016
17:35:47
Может еще нейронку подключить что ли

Nikolay
17.11.2016
17:36:02
http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454

[Anonymous]
17.11.2016
17:37:07
Это призывает Ктулху
Это и была отсылка к этому

Subbotin
17.11.2016
17:37:43
Yan?
17.11.2016
17:39:47
Subbotin
17.11.2016
17:42:51
Есть и такая?
На прошлой работе прикручивали

Не совсем парсинг. Скорее поиск в уже распарсеном. То есть сперва парсер разбивал на токены а потом уже машинное обучение

Pavel
17.11.2016
17:49:54
@CriOnsKry
17.11.2016
18:06:11
Доброго времени. Как через pip устанавливать, чтобы root не запрашивало?

arisu
17.11.2016
18:06:55
--user

@CriOnsKry
17.11.2016
18:07:37
Ох, я —user перед install ставил...

Страница 1792 из 9768