
Pavel
17.11.2016
15:41:54
убери вообще try\except и убедись, что SA выкидывает (или нет) исключение.

V
17.11.2016
15:42:53
не выкидывает

Pavel
17.11.2016
15:43:01
да я умею дебажить, я говорю, что исключение не выпадает, вопрос скорее по SQLAlchemy

V
17.11.2016
15:43:20

Google

Stanislav
17.11.2016
15:43:38
а разве with не обеспечиват подключения?

V
17.11.2016
15:44:01
стоп, минуточку )

Pavel
17.11.2016
15:45:50
import logging
logging.basicConfig()
logging.getLogger('sqlalchemy.engine').setLevel(logging.DEBUG)
может что интересное напишет.

A
17.11.2016
15:49:38
Вопрос. Стоит ли демонизировать pyserial. Или лучше по крону дергать?

V
17.11.2016
15:55:55
всем спасибо, была как обычно, ржака-абасака. забыл, что в local_settings.py переопределялся конфиг постгреса, в котором был указан постгрес докера. я потушил постгрес локальный, а а в докере он прекрасно продолжал работать. а исключение которое я видел в дебагере ко мне отношения не имеет, надо было просто его прочитать повнимательнее ))

Boris
17.11.2016
16:20:40

Subbotin
17.11.2016
16:23:06
мне сегодня пришла вакансия на кипр
требования не фонтан какие высокие

Psy
17.11.2016
16:35:32
Мгого раз натыкался. И зп норм и требования не высокие были

Pavel
17.11.2016
16:36:30
меня несколько раз звали
там форексы какие-то сидят
только что на этом кипре делать...

Google

Ray
17.11.2016
16:39:26
здарово други

A
17.11.2016
16:39:27
кто подскажет как с pyserial забирать в 1 и 0

Yan?
17.11.2016
17:09:49
Здратуте
Вопрос по web scraping-y, пишу скрипт, который будет из страницы тащить основную информацию, конвертировать ее в fb2 и на кидл кидать. Сам вопрос, как определить основную инфу на странице? Бывает что вложенных div-ов много и определить нужный трудно.

Egor
17.11.2016
17:12:50
смотри на scrapy, grab
, beatifulsoup

Yan?
17.11.2016
17:13:09
я супом пользуюсь
и думаю, а вообще реально написать алгоритм, который с ЛЮБОЙ страницы будет тащить основную инфу. Не знаю, как выцепить ее и кучи тегов. Как написать, чтобы программа понимала

Egor
17.11.2016
17:14:18
scrapely
но проект не развивают

V
17.11.2016
17:21:07

Yan?
17.11.2016
17:23:14

V
17.11.2016
17:23:39
как раз в тексте скорее их мало должно быть

Yan?
17.11.2016
17:23:59
http://antirabstvo.ru/text-oil-big-data/
Например

V
17.11.2016
17:24:41
а, я просто после упоминания fb2 сделал предположение, что нужно выдирать именно текстовые куски какие-то
а в указанном примере какой текст на самом деле попадает под оперделение "основной"?

Yan?
17.11.2016
17:25:17
https://lenta.ru/news/2016/11/17/tu160/

Google

Yan?
17.11.2016
17:25:37
Или вот читаю я это

V
17.11.2016
17:25:44
а, ну правильно. еще раз вгляделся в пример

Yan?
17.11.2016
17:25:45
И выдергиваю текст статьи полностью

V
17.11.2016
17:26:22
по кол-ву тегов неправильно судить, их например в панели навигации какой-нить сложной может быть не меньше. а вот по кол-ву текста - да
просто игнорировать теги форматирования текста

Yan?
17.11.2016
17:26:39
Ну да

V
17.11.2016
17:26:51
стронги там всякие, параграфы
попробовать можно
и все еще это в один xpath упихать можно имхо

Yan?
17.11.2016
17:27:17
То есть, перебирать текст с тегами, которые по сути отвечают за разметку текста

V
17.11.2016
17:28:43
я бы делал поиск тега, содержимое которого является максимальным по размеру, но при условии, что в содержимом нет других тегов, кроме перечисленных: p, br, strong, h... и т.д.

Yan?
17.11.2016
17:28:53
А почему xpath, как я понял, он же за xml отвечает?

V
17.11.2016
17:30:41

Yan?
17.11.2016
17:31:24
О, можно искать такой div, в котором внутри будет тэг p
И потом этот див пытаться разобрать

V
17.11.2016
17:32:53
ну вообще html это подвид xml. и пусть меня закидают тухлыми помидорами, я чайник - мне можно ))

[Anonymous]
17.11.2016
17:33:08
XHTML - подвид XML

V
17.11.2016
17:33:16
я ждал! ))

Google

V
17.11.2016
17:33:28
спасибо за поправку

Admin
ERROR: S client not available

Yan?
17.11.2016
17:33:39
Extended from SGML
Во

V
17.11.2016
17:33:52
но я к тому, что xpath отлично разбирает dom и теги им парсить оч удобно

Nikolay
17.11.2016
17:33:56
этому html лет писят
ну и вопросы у вас

[Anonymous]
17.11.2016
17:34:12
Просто в HTML можно написать
<p>lol
<p>kek
и это будет нормально, а в XML так нельзя

V
17.11.2016
17:34:14
это я говорю как большой любитель регулярок есичо ))

Nikolay
17.11.2016
17:34:18
всё уже вдоль и поперек по этой теме разобрано

Anton
17.11.2016
17:34:24

[Anonymous]
17.11.2016
17:34:52

V
17.11.2016
17:35:01
да, вот я слышал что он только валидный html разбирает и могут быть нюансы, так что готовить с осторожностью ))

[Anonymous]
17.11.2016
17:35:02
Это призывает Ктулху

Nikolay
17.11.2016
17:35:17
вы на SO читали про парсинг html регуляркой?

V
17.11.2016
17:35:21
это шедевр

[Anonymous]
17.11.2016
17:35:31

Anton
17.11.2016
17:35:34

Google

Yan?
17.11.2016
17:35:47
Может еще нейронку подключить что ли

Nikolay
17.11.2016
17:36:02
http://stackoverflow.com/questions/1732348/regex-match-open-tags-except-xhtml-self-contained-tags/1732454#1732454

[Anonymous]
17.11.2016
17:37:07

Subbotin
17.11.2016
17:37:43

Yan?
17.11.2016
17:39:47

Subbotin
17.11.2016
17:42:51
Не совсем парсинг. Скорее поиск в уже распарсеном. То есть сперва парсер разбивал на токены а потом уже машинное обучение

Pavel
17.11.2016
17:49:54

@CriOnsKry
17.11.2016
18:06:11
Доброго времени.
Как через pip устанавливать, чтобы root не запрашивало?

arisu
17.11.2016
18:06:55
--user

@CriOnsKry
17.11.2016
18:07:37
Ох, я —user перед install ставил...