@python_beginnersЭта группа больше не существует

Страница 1511 из 1885
Look
30.03.2017
14:17:38
сам только начал изучать джанго

Сергей
30.03.2017
14:17:43
или djangobook на крайняк?

Look
30.03.2017
14:17:56
Сергей
30.03.2017
14:17:58
или туториал на джангогерлз

Google
Look
30.03.2017
14:18:25
джангогерлз не указано как вьюху

через класс

Маришка
30.03.2017
14:18:42
Типа перейти по ссылке и оттуда достать еще немного инфы?

D
30.03.2017
14:18:50
Тексты какие?
Для примера. Возьмем популярную Медузу. У нее есть РСС https://meduza.io/rss/all

Look
30.03.2017
14:18:52
да да

Сергей
30.03.2017
14:19:17
requests

собираешь ссылки, идешь по ним отдельно

Маришка
30.03.2017
14:20:20
D
30.03.2017
14:20:47
а мне нужен полный

Look
30.03.2017
14:21:11
Google
Сергей
30.03.2017
14:21:13
есть вероятность дико заебаться

Маришка
30.03.2017
14:21:20
Ну, тогда как выше посоветовали, берешь реквестс и гуляешь по ссылкам

D
30.03.2017
14:21:30
есть вероятность дико заебаться
в теории мне бы автоматом это делать)

еще и ключ слова искать

Сергей
30.03.2017
14:21:46
ну там может где-то текст отдается ajaxно

где-то вообще как-то хитро рендерится

куча нюансов

Ivan
30.03.2017
14:22:15
поддержу, универсальное решение не напишешь

Сергей
30.03.2017
14:22:17
придешь на ту страницу, а в итоге там пусто

Маришка
30.03.2017
14:22:23
где-то вообще как-то хитро рендерится
ООО, вспомнила rss стэковерфлоу

Ivan
30.03.2017
14:22:54
но если есть желание собирать с конкретных, то можно написать общий механизм выуживания инфы, а для конкретных случаев отдельно для каждого доп фильтр

Look
30.03.2017
14:23:11
Ну, тогда как выше посоветовали, берешь реквестс и гуляешь по ссылкам
берешь один вывел продукты потом переходишь в другух берешь и фильтруешь и выводишь продукты

я верно понял

Маришка
30.03.2017
14:23:51
Тогда проще будет не использовать feedparser, а брать содержимое страницы и оттуда вылавливать ссылки

D
30.03.2017
14:24:29
поддержу, универсальное решение не напишешь
это понятно) есть просто ряд профильных узких ресурсов, которые надо парсить)

я просто хочу создать какую-то общую канву, а потом разбирать каждый отдельный случай

а еще это все желательно в каком-нибудь веб-интерфейсе. короче, с нуля Т Я Ж Е Л О В А Т О

Ivan
30.03.2017
14:25:05
типа агрегатора хочешь сделать?

Сергей
30.03.2017
14:26:19
я просто хочу создать какую-то общую канву, а потом разбирать каждый отдельный случай
ну тогда собираешь ссылки и пишешь под каждый источник свой парсер)

Google
Сергей
30.03.2017
14:26:30
которым достаешь по ссылкам данные

если количество ограничено - то не такая большая проблема

потом для нового источника пишешь новый парсерочек

D
30.03.2017
14:27:05
типа агрегатора хочешь сделать?
типа, но для закрытого пользования

Сергей
30.03.2017
14:27:34
ну тут только каждый сорс отдельно парсить

D
30.03.2017
14:27:48
короче, я вас понял) а не легче с помощью scrapy это все сделать? а не через feedparser?

Сергей
30.03.2017
14:27:55
вот-вот

D
30.03.2017
14:30:02
все равно думаю, что выйдет жутчайший костыль в результате

но похуй

Tony
30.03.2017
14:31:07
почему они устанавливают саник вот так python -m pip install sanic

вместо pip install sanic

Evgeny
30.03.2017
14:32:50
Ребят как в numpy отсортировать по убыванию массив?

Маришка
30.03.2017
14:33:09
Ты блин издеваешься?

numpy.array(sort())

Ivan
30.03.2017
14:33:29
все равно думаю, что выйдет жутчайший костыль в результате
Да почему, есть подобный опыт. Единственая проблема - периодическая смена ресурсом архитектуры страницы (в результате развития). При должном внимании, будет работать долго с периодическими корректировками.

Маришка
30.03.2017
14:35:13
а numpy.sort() нельзя просто прописать?
¯\_(ツ)_/¯ Сортировать в нампай не приходилось поэтому и не интересовалась про присутствие оного в нампай

Evgeny
30.03.2017
14:35:16
Там по возрастанию сортируется

Google
D
30.03.2017
14:35:32
https://docs.scipy.org/doc/numpy/reference/generated/numpy.sort.html

Маришка
30.03.2017
14:35:41
Там по возрастанию сортируется
У тебя есть аттрибут key

Дай ему функцию min

Evgeny
30.03.2017
14:37:21
Спасибо

Сергей
30.03.2017
14:47:19
пользуется кто-то ELK?

для джанги

сентри начал тащить постгрес, слишком жирно еще постгрю поднимать

Denis
30.03.2017
14:53:34
нет, но ты можешь сам написать эту функцию
from openpyxl import load_workbook import datetime wb = load_workbook(filename='test2.xlsx', read_only=True) ws = wb['ws1'] d = [] data = d.append([ws.cell(row=i,column=4).value for i in range(2,55)]) list_to_string = (str(d).strip('[}')) d1 = datetime.datetime.strptime(list_to_string, "%H:%M:%S.%f") print (d1)

Admin
ERROR: S client not available

Сергей
30.03.2017
14:54:51
думаю, текст ошибки сильно помог бы

Denis
30.03.2017
14:55:12
File "C:\Users\dstad_000\AppData\Local\Programs\Python\Python35-32\lib\_strptime.py", line 343, in _strptime (data_string, format))

Сергей
30.03.2017
14:55:36
а больше?

Johnnie
30.03.2017
14:55:52
зачем .%f?

Сергей
30.03.2017
14:56:01
ну и подозреваю там формат строки не такой

Denis
30.03.2017
14:56:03


зачем .%f?
пробовал и так и так

Johnnie
30.03.2017
14:56:32
не надо list_to_string

надо по одной штуке кормить

'01:23:45'

Google
Сергей
30.03.2017
14:56:47
кхм

ток хотел про list_to_string спросить, че там

скрин долго не грузился

Johnnie
30.03.2017
14:57:26
list_to_string = (str(d).strip('[}')) ну и вот это хуйня какая-то, из листа стринг не так делают

Сергей
30.03.2017
14:57:41
блин, вы хоть на секунду в доку смотрите вообще?

Johnnie
30.03.2017
14:57:43
''.join(my_list)

Centrino
30.03.2017
14:58:39
никогда не читал доки

в питоне же еще как-то можно веб сервер поднять с доками, да?

встроенный веб сервер

Маришка
30.03.2017
14:59:59
Чего?)

Denis
30.03.2017
15:00:08
''.join(my_list)
''.join(d) TypeError: sequence item 0: expected str instance, list found

Маришка
30.03.2017
15:00:11
Лезешь в модуль и читаешь докстринги

Вот тебе и дока в оффлайне

Johnnie
30.03.2017
15:00:30
бля, да не надо тебе из листа стринг делать

Centrino
30.03.2017
15:01:06
в модуль я лазил за докстрингами, благо в пичарм это оч удобно

Маришка
30.03.2017
15:03:04
А вообще доки стоит читать, они куда полезнее чем остальные туториалы

Evgen
30.03.2017
15:03:10
+

Сергей
30.03.2017
15:03:19
я не догоняю =(
нахер ты строку делаешь?

итерируй список

Spacehug
30.03.2017
15:03:28
Так-с

Страница 1511 из 1885

Эта группа больше не существует Эта группа больше не существует