
Johnnie
23.11.2016
07:14:56

Dmitry
23.11.2016
07:15:10

Johnnie
23.11.2016
07:15:22
а..

Max
23.11.2016
07:34:15

Google

Zart
23.11.2016
07:36:24
чтобы потом еще и обучать?

arisu
23.11.2016
07:37:26

Zart
23.11.2016
07:38:11
он не веб

Yuryhalf
23.11.2016
07:39:08
Не всем правда))

Max
23.11.2016
07:40:04

Темный
23.11.2016
07:40:16

Max
23.11.2016
07:40:36

arisu
23.11.2016
07:40:40

Max
23.11.2016
07:41:18
Я не давно обучаться этой теме начал

Темный
23.11.2016
07:42:14
популярная альтернатива - фласк
Посоветуй другой фреймворк для новичка
Он на питон тоже есть ?

Google

Темный
23.11.2016
07:42:16
сильно

Yuryhalf
23.11.2016
07:42:25
А есть фласк не для питона?)

Max
23.11.2016
07:42:46
Ну хорош уже пасаны

Zart
23.11.2016
07:42:47
Там есть и хттп
твистед.веб2 вроде благополучно сдох, а людей юзавших nevow я лично не знаю

Темный
23.11.2016
07:43:04

arisu
23.11.2016
07:43:17

Max
23.11.2016
07:44:00

Ilya
23.11.2016
07:44:11
У питоняке порог входа не выше js

arisu
23.11.2016
07:44:22
Как что-то плохое

Roman
23.11.2016
07:44:29
делит это плиз

Dmitry
23.11.2016
07:44:30
вот гуманитарию-мне js сложен

Roman
23.11.2016
07:44:51

Dmitry
23.11.2016
07:45:07
а он жив?

Max
23.11.2016
07:45:12

ultranoise ?
23.11.2016
07:45:14
на фласке весело rest api писать

Ilya
23.11.2016
07:45:15

Темный
23.11.2016
07:45:18

ultranoise ?
23.11.2016
07:45:21
с его декораторами

Темный
23.11.2016
07:45:26
там с этим проще, имхо

Ilya
23.11.2016
07:46:00

Google

Max
23.11.2016
07:46:07
!
?*

Темный
23.11.2016
07:46:48

Roman
23.11.2016
07:47:12

Max
23.11.2016
07:47:59

Roman
23.11.2016
07:48:16

Темный
23.11.2016
07:48:22
лол
так вот ты какой быдло-кодер )

Max
23.11.2016
07:49:14
Да да
А есть тут те кто кто прошёл путь от junior'a python / {flask , django} до senior' . насколько сложно без опыта устроиться на работу?

Artem
23.11.2016
08:01:32

Темный
23.11.2016
08:02:46

Марк
23.11.2016
08:06:17
Столкнулся с ситуацией: нужно запилить скриптец по выпиливанию файла старше N дней. Сделал обход через walk, повыпиливал на локалхосте всё успешно. А вот на объемах за 400Г дело продвигается крайне медленно. Как ускорить?
файлуха zfs

Max
23.11.2016
08:21:17

Темный
23.11.2016
08:22:25

Max
23.11.2016
08:23:01

Темный
23.11.2016
08:25:36
нет

Google

Max
23.11.2016
08:28:42
нет
Не хочу гадать , не хочешь не говори . лучше скажи мне в 2-х словах зачем нужен tornado and twister ?

Roman
23.11.2016
08:33:51
даже 17 гигов логов в мускуле это 40 мин

Admin
ERROR: S client not available

Roman
23.11.2016
08:34:22
а в биг дате смогли до 30 сек

Igor
23.11.2016
08:48:00

Марк
23.11.2016
08:48:17

Igor
23.11.2016
08:48:32
да баш как-то и ни при чем тут толком

Марк
23.11.2016
08:48:38
В большом чатике уже обсудили, в принципе.

Cykooz
23.11.2016
09:12:58
Using scandir() instead of listdir() can significantly increase the performance of code that also needs file type or file attribute information...

Aleshka
23.11.2016
09:20:51
пытаюсь парсить страничку, мне нужна возможность использования xpath запросов
я правильно понимаю, что мне нужен документ в формате XML, чтобы с ним работать?
Как можно конвертнуть html в xml прям на ходу, то есть я не хочу нигде явно сохранять этот файл

Zart
23.11.2016
09:21:26
брать lxml.html или суп и парсить им

Aleshka
23.11.2016
09:21:43
в супе вроде нельзя юзать xpath
у него свои find-ы

Zart
23.11.2016
09:22:28
а, так и не завезли..

Aleshka
23.11.2016
09:25:20
во всех примерах они уже берут переменную в которой xml
а у меня только ссылка на страницу, вчера пытался час ее как-то переделать, так и не получиось
короче, может кто-нибудь показать на примере, как сделать xml объект, к которому можно обращаться по xpath
если у меня есть только ссылка на сайт
не могу понять ,как конвертировать

Google

Темный
23.11.2016
09:30:23
оно?

Aleshka
23.11.2016
09:31:17
нет, там они дают переменную xml уже , там нигде сайт не читается

Cykooz
23.11.2016
09:32:15
Берёшь requests, читаешь нужную тебе страницу с сайта, запихиваешь эту строку в lxml

Темный
23.11.2016
09:32:49

Zart
23.11.2016
09:33:04
выкидываешь нахуй requests, читаешь сразу lxml'ом страницу сайта

Aleshka
23.11.2016
09:37:44
так что ли docs = lxml.html.parse()

Cykooz
23.11.2016
09:42:12
`To read from a file or file-like object, you can use the parse()`
parse принимает либо путь к файлу либо файловый объект. URL он вроде как не умеет принимать

Aleshka
23.11.2016
09:44:14
принял
но я все еще не понял как сделать из этого xml

Cykooz
23.11.2016
09:45:19
Ждём примера от @zartsoft как это средствами lxml прочитать URL. У меня что то не нагуглилось

Zart
23.11.2016
09:46:22
>>> import lxml.html
>>> doc = lxml.html.parse('http://localhost')
>>> doc.xpath('//a')
[<Element a at 0x21b48a0>]
>>>
чяднт?
Эта группа больше не существует