
rasonbot
22.02.2019
16:44:36
pymysql

cookie
22.02.2019
16:44:42

TpouHuK
22.02.2019
17:05:18
на чём на питоне лучше делай красивый GUI?

Tishka17
22.02.2019
17:06:06
Qt норм

Google

Егор
22.02.2019
17:06:30

Tishka17
22.02.2019
17:07:14
Да хз какие биндинги лучше
Pyside2 я бы выбрал

Егор
22.02.2019
17:08:44
Kivy
Pyqt for py
Qt | Cross-platform software development for embedded & desktop
www.qt.io
Qt is the faster, smarter way to create innovative devices, modern UIs & applications for multiple screens. Cross-platform software development at its best.

Terminator
22.02.2019
17:10:29
@Qnut80 будет жить. Поприветствуем!

Nikita
22.02.2019
17:11:21

TpouHuK
22.02.2019
17:11:58
Kivy
ужасен как электрон >_>

Tishka17
22.02.2019
17:11:59
Qt для спп
Qt - библиотека. PyQt - сторонние биндинги к ней для питона. Есть ещё Pyside2 - официальные биндинги, сейчас называется - Qt for Python.

LighteR
22.02.2019
17:12:01

Terminator
22.02.2019
17:15:39
@TSCompany будет жить. Поприветствуем!

Google

Ананас
22.02.2019
17:32:29
Вопрос.
Есть сервер и 4 клиента, все расположены локально.
Нужно было: написать ПО для удаленного управления (ОС семейства NT, запуск процесса по пути, остановка этого процесса, запуск процесса с параметрами, выключение ПК).
Функционал реализовал частично, ничего сложного. Другой вопрос - как заставить клиентов постоянно слушать сервер, а для сервера постоянную возможность отправлять эти команды (persistent process, так сказать)

Zi
22.02.2019
17:33:09

Ананас
22.02.2019
17:33:52
сокет?
инициализация сокета
отправка команды
получение команды
экзекуция команды
завершение работы
Это то, что происходит сейчас. В чате для novice-ов пока ничего не ответили

Alexander
22.02.2019
17:34:39
Самое норм сокет, можно вебхуками

Ананас
22.02.2019
17:35:26
В том плане, что я уже сделал, но программа завершает свою работу и естественно завершает работу сокета. Не циклом же их создавать для поддержания работы. Мне хотя-бы конструкцию примерную для того, чтобы не убивать сокеты и плодить их заново.
Это как минимум будет неэлегантное решение, я просто хочу понять, как можно использовать сокет многократно и постоянно в реалтайме

Pikowet
22.02.2019
17:38:33
Добрый вечер. Возможно ли сохранить данные scrapy паука в переменную? Чтобы работало по принципу
url = 'example.com'
spider = tableSpider()
crawler = CrawlerProcess()
data = []
crawler.crawl(spider, start_urls=[url], data)
crawler.start()
print(data)
>> [1,2,3,4,5]

Alexander
22.02.2019
17:40:41

Alexander
22.02.2019
17:51:16

Terminator
22.02.2019
17:51:24
@rmnppv будет жить. Поприветствуем!
@krotelo будет жить. Поприветствуем!

Denis
22.02.2019
17:56:08
Здравствуйте, решил сделать GUI при помощи PyQt5, но при создании нескольких чекбоксов могу изменять состояние только последнего. Как разрешить данный вопрос?

Сергей
22.02.2019
17:59:03

Denis
22.02.2019
17:59:28

Сергей
22.02.2019
18:02:59
Спасибо, попробую
Стоп, возможно я перепутал с tkinter. Сейчас оптимально не подскажу, но можно для каждого CheckBox создать свой отдельный обработчик изменения состояния
Можно и один обработчик, я полгода назад реализовывал это для динамически созданного массива переключателей (сейчас уже не вспомню). Там можно получить, на какой checkbox кликали.

Tishka17
22.02.2019
18:11:19

Bogdan (SirEdvin)
22.02.2019
18:35:51

Sergey
22.02.2019
18:38:54
Всем привет!
Товарищи, помогите определиться со стэком так сказать.
Есть задача - каждый день генирурются тяжёлые логи (несколько миллионов строк в день, 12-15 колонок), пишутся в txt-файлы.
Нужно построить сервис, который будет:
1. Выводить графики\диаграммы по этим логам в реал-тайме.
2. Позволит смотреть ретропективно те же показатели.
Соответственно есть два пути - либо считать все эти логи и записать их в БД (думаю на PostgreSQL), либо считывать на лету, из txt-файлов.
Что будет работать быстрее? SQL или чтение из файлов?
И вообще, в целом, какой подход тут более правильный? Вот если с точки зрения архитектуры?

Google

Deep Sea
22.02.2019
18:39:46
clickhouse

Tishka17
22.02.2019
18:39:57
Elk?

Sergey
22.02.2019
18:40:59
Elk?
А вот про него вообще не слышал.

Dmitriy
22.02.2019
18:41:10
Elk, конечно

Alexander
22.02.2019
18:41:17
Всем привет!
Товарищи, помогите определиться со стэком так сказать.
Есть задача - каждый день генирурются тяжёлые логи (несколько миллионов строк в день, 12-15 колонок), пишутся в txt-файлы.
Нужно построить сервис, который будет:
1. Выводить графики\диаграммы по этим логам в реал-тайме.
2. Позволит смотреть ретропективно те же показатели.
Соответственно есть два пути - либо считать все эти логи и записать их в БД (думаю на PostgreSQL), либо считывать на лету, из txt-файлов.
Что будет работать быстрее? SQL или чтение из файлов?
И вообще, в целом, какой подход тут более правильный? Вот если с точки зрения архитектуры?
Лучше парсить данные логи, выбирать из них нужное, частично агрегируя, и записывать обратно в новые текстовые файлы для кеширования

Dmitriy
22.02.2019
18:41:24
Можно в виде докер контейнера поднять

Tishka17
22.02.2019
18:41:28

Sergey
22.02.2019
18:41:57
Вообще как систему визуализации я хотел юзать графану (graphana), там аналитика мощная.
Меня больше интересует принципиальный подход - SQL vs txt, что лучше юзать.

Tishka17
22.02.2019
18:42:01
Вместо logstash можно fluentd. Но там вопрос парсинга

Sergey
22.02.2019
18:42:36

Tishka17
22.02.2019
18:42:38
Да, наверно можно elk + graphana

Tishka17
22.02.2019
18:42:56
Не надо файлы

Sergey
22.02.2019
18:43:03

Admin
ERROR: S client not available

Tishka17
22.02.2019
18:43:09
Индексацию вы по ним будете руками делать?

Sergey
22.02.2019
18:43:23

Tishka17
22.02.2019
18:43:28
Реляционная база слабо предназначена для тупого потока данных

Deep Sea
22.02.2019
18:43:32

Tishka17
22.02.2019
18:43:44
Можно наверно кликхаус

Google

Tishka17
22.02.2019
18:43:51
Но имхо на elk больше готового

Sergey
22.02.2019
18:45:20

Tishka17
22.02.2019
18:45:53

Deep Sea
22.02.2019
18:46:14

Sergey
22.02.2019
18:46:23

Tishka17
22.02.2019
18:46:36
Именно

Sergey
22.02.2019
18:46:58

Pikowet
22.02.2019
18:47:14
Прошу прощения, но есть ли кто-то способный помочь с проблемой? https://stackoverflow.com/questions/54833211/saving-scraped-data-into-csv

Sergey
22.02.2019
18:47:24
Именно
Я знал что этот день настанет

Deep Sea
22.02.2019
18:48:31

Sergey
22.02.2019
18:49:38
Ага, т.е. мне нужна все ещё реляционная, но не любоая, а что-то из пары elk\clickhouse.
Понял, спасибо!

Tishka17
22.02.2019
18:50:05

Deep Sea
22.02.2019
18:50:07
elasticsearch документный, а не реляционный (если что)

Sergey
22.02.2019
18:51:04
Пойду почитаю словом, похоже я несу что-то не очень корректное)

Alexander
22.02.2019
18:56:54

Tishka17
22.02.2019
19:00:34
Elk включает преобразование в букве L

Sergey
22.02.2019
19:01:41

Alexander
22.02.2019
19:04:57

Sergey
22.02.2019
19:05:34

Alexander
22.02.2019
19:06:38
лучше, потому что данные цифровые, а не текстовые, числа из текстового файла неудобно считывать, как минимум