@ru_python

Страница 8185 из 9768
rasonbot
22.02.2019
16:44:36
pymysql

cookie
22.02.2019
16:44:42
Какую библиотеку лучше всего использовать для работы с MySQL?
абстрактненько, прям как какую ОСь выбрать... тут кому как, если есть время, просто попробуй

TpouHuK
22.02.2019
17:05:18
на чём на питоне лучше делай красивый GUI?

Tishka17
22.02.2019
17:06:06
Qt норм

Google
Егор
22.02.2019
17:06:30
Qt норм
Qt or pyqt?

Tishka17
22.02.2019
17:07:14
Да хз какие биндинги лучше

Pyside2 я бы выбрал

Егор
22.02.2019
17:08:44
Kivy

Pyqt for py

Qt | Cross-platform software development for embedded & desktop www.qt.io Qt is the faster, smarter way to create innovative devices, modern UIs & applications for multiple screens. Cross-platform software development at its best.

Terminator
22.02.2019
17:10:29
@Qnut80 будет жить. Поприветствуем!

Nikita
22.02.2019
17:11:21
pymysql
Спасибо большое

TpouHuK
22.02.2019
17:11:58
Kivy
ужасен как электрон >_>

Tishka17
22.02.2019
17:11:59
Qt для спп
Qt - библиотека. PyQt - сторонние биндинги к ней для питона. Есть ещё Pyside2 - официальные биндинги, сейчас называется - Qt for Python.

LighteR
22.02.2019
17:12:01
Qt для спп
ну скорее не для спп, а для oss

Terminator
22.02.2019
17:15:39
@TSCompany будет жить. Поприветствуем!

Google
Ананас
22.02.2019
17:32:29
Вопрос. Есть сервер и 4 клиента, все расположены локально. Нужно было: написать ПО для удаленного управления (ОС семейства NT, запуск процесса по пути, остановка этого процесса, запуск процесса с параметрами, выключение ПК). Функционал реализовал частично, ничего сложного. Другой вопрос - как заставить клиентов постоянно слушать сервер, а для сервера постоянную возможность отправлять эти команды (persistent process, так сказать)

Ананас
22.02.2019
17:33:52
сокет?
инициализация сокета отправка команды получение команды экзекуция команды завершение работы

Это то, что происходит сейчас. В чате для novice-ов пока ничего не ответили

Alexander
22.02.2019
17:34:39
Самое норм сокет, можно вебхуками

Ананас
22.02.2019
17:35:26
В том плане, что я уже сделал, но программа завершает свою работу и естественно завершает работу сокета. Не циклом же их создавать для поддержания работы. Мне хотя-бы конструкцию примерную для того, чтобы не убивать сокеты и плодить их заново.

Это как минимум будет неэлегантное решение, я просто хочу понять, как можно использовать сокет многократно и постоянно в реалтайме

Pikowet
22.02.2019
17:38:33
Добрый вечер. Возможно ли сохранить данные scrapy паука в переменную? Чтобы работало по принципу url = 'example.com' spider = tableSpider() crawler = CrawlerProcess() data = [] crawler.crawl(spider, start_urls=[url], data) crawler.start() print(data) >> [1,2,3,4,5]

Alexander
22.02.2019
17:40:41
Это как минимум будет неэлегантное решение, я просто хочу понять, как можно использовать сокет многократно и постоянно в реалтайме
Ну оно вроде все так и работает, другое дело что через threading надо делать, или я не уловил суть вопроса

Alexander
22.02.2019
17:51:16
В том плане, что я уже сделал, но программа завершает свою работу и естественно завершает работу сокета. Не циклом же их создавать для поддержания работы. Мне хотя-бы конструкцию примерную для того, чтобы не убивать сокеты и плодить их заново.
Судя по описанию проблемы, вам надо поменять местами клиентскую и серверную стороны. То есть это не 4 клиента, а 4 сервера должны быть, слушающие свой сокет постоянно

Terminator
22.02.2019
17:51:24
@rmnppv будет жить. Поприветствуем!

@krotelo будет жить. Поприветствуем!

Denis
22.02.2019
17:56:08
Здравствуйте, решил сделать GUI при помощи PyQt5, но при создании нескольких чекбоксов могу изменять состояние только последнего. Как разрешить данный вопрос?

Сергей
22.02.2019
17:59:03
Здравствуйте, решил сделать GUI при помощи PyQt5, но при создании нескольких чекбоксов могу изменять состояние только последнего. Как разрешить данный вопрос?
Там к каждому чекбоксу надо привязать переменную (помоему BoolVar) переключать состояния чекбоксов, изменяя значения этих переменных

Сергей
22.02.2019
18:02:59
Спасибо, попробую
Стоп, возможно я перепутал с tkinter. Сейчас оптимально не подскажу, но можно для каждого CheckBox создать свой отдельный обработчик изменения состояния

Можно и один обработчик, я полгода назад реализовывал это для динамически созданного массива переключателей (сейчас уже не вспомню). Там можно получить, на какой checkbox кликали.

Sergey
22.02.2019
18:38:54
Всем привет! Товарищи, помогите определиться со стэком так сказать. Есть задача - каждый день генирурются тяжёлые логи (несколько миллионов строк в день, 12-15 колонок), пишутся в txt-файлы. Нужно построить сервис, который будет: 1. Выводить графики\диаграммы по этим логам в реал-тайме. 2. Позволит смотреть ретропективно те же показатели. Соответственно есть два пути - либо считать все эти логи и записать их в БД (думаю на PostgreSQL), либо считывать на лету, из txt-файлов. Что будет работать быстрее? SQL или чтение из файлов? И вообще, в целом, какой подход тут более правильный? Вот если с точки зрения архитектуры?

Google
Deep Sea
22.02.2019
18:39:46
clickhouse

Tishka17
22.02.2019
18:39:57
Elk?

Sergey
22.02.2019
18:40:59
clickhouse
Я слышал о нём много плохих слов

Elk?
А вот про него вообще не слышал.

Dmitriy
22.02.2019
18:41:10
Elk, конечно

Dmitriy
22.02.2019
18:41:24
Можно в виде докер контейнера поднять

Tishka17
22.02.2019
18:41:28
А вот про него вообще не слышал.
Elasticsearch + logstash + kibana (elk)

Sergey
22.02.2019
18:41:57
Вообще как систему визуализации я хотел юзать графану (graphana), там аналитика мощная. Меня больше интересует принципиальный подход - SQL vs txt, что лучше юзать.

Tishka17
22.02.2019
18:42:01
Вместо logstash можно fluentd. Но там вопрос парсинга

Sergey
22.02.2019
18:42:36
Tishka17
22.02.2019
18:42:38
Да, наверно можно elk + graphana

Tishka17
22.02.2019
18:42:56
Не надо файлы

Sergey
22.02.2019
18:43:03
Elasticsearch + logstash + kibana (elk)
Спасибо, буду изучать

Admin
ERROR: S client not available

Tishka17
22.02.2019
18:43:09
Индексацию вы по ним будете руками делать?

Sergey
22.02.2019
18:43:23
Не надо файлы
т.е. агрегированную инфу лучше в postgre?

Tishka17
22.02.2019
18:43:28
Реляционная база слабо предназначена для тупого потока данных

Deep Sea
22.02.2019
18:43:32
Я слышал о нём много плохих слов
структурные логи - отличный кейс для clickhouse

Tishka17
22.02.2019
18:43:44
Можно наверно кликхаус

Google
Tishka17
22.02.2019
18:43:51
Но имхо на elk больше готового

Sergey
22.02.2019
18:45:20
Реляционная база слабо предназначена для тупого потока данных
Это та ситуация, когда нужно переходить на No-SQL? Я просто не очень понимаю что скрывается за No-SQL, вообще о нём не знаю ничего, кроме того что он есть

Deep Sea
22.02.2019
18:46:14
Sergey
22.02.2019
18:46:23
За nosql скрывается то, когда у тебя нет сложных отношений
У меня тут вообще отношений не будет, вся БД из одной таблицы на 10 колонок

Tishka17
22.02.2019
18:46:36
Именно

Pikowet
22.02.2019
18:47:14
Прошу прощения, но есть ли кто-то способный помочь с проблемой? https://stackoverflow.com/questions/54833211/saving-scraped-data-into-csv

Sergey
22.02.2019
18:47:24
Именно
Я знал что этот день настанет

Deep Sea
22.02.2019
18:48:31
Т.е. мне нужна необычная? Это как раз no-sql?
(clickhouse ?) no-sql это уже нереляционная

Sergey
22.02.2019
18:49:38
Ага, т.е. мне нужна все ещё реляционная, но не любоая, а что-то из пары elk\clickhouse. Понял, спасибо!

Deep Sea
22.02.2019
18:50:07
elasticsearch документный, а не реляционный (если что)

Sergey
22.02.2019
18:51:04
Пойду почитаю словом, похоже я несу что-то не очень корректное)

Alexander
22.02.2019
18:56:54
Пойду почитаю словом, похоже я несу что-то не очень корректное)
Ты написал, как выглядят исходные данные, но не описал преобразованные: их объем и формат. И спрашиваешь, где хранить именно преобразованные данные. Вот, что не так

Tishka17
22.02.2019
19:00:34
Elk включает преобразование в букве L

Sergey
22.02.2019
19:01:41
Ты написал, как выглядят исходные данные, но не описал преобразованные: их объем и формат. И спрашиваешь, где хранить именно преобразованные данные. Вот, что не так
Справедливо. По четырём колонкам из 12ти расччитывается медианное и среднее (арифметичское) значения в разрезе по хронометражу (конкретный хронометраж должен меняться в зависимости от введённых ползователем значений, от 10 минут - минимальный шаг до 2 последних лет). Из остальных 8ми колонок используются по факту только две - по одной определяют результат звнока (логируются вызовы атс) по другой - определяются регион абонента, оператор мобильной связи, после чего выводятся абсолютныезначения - т.е. условно "Томская область мегафон - 16% вызовов завершено со статусом занято". Как-то так.

Alexander
22.02.2019
19:06:38
лучше, потому что данные цифровые, а не текстовые, числа из текстового файла неудобно считывать, как минимум

Страница 8185 из 9768