
Marlik
12.05.2017
21:35:42
Привет народ, подскажите, вот это вот работает через хуки? https://github.com/go-telegram-bot-api/telegram-bot-api

Maxim
12.05.2017
21:36:41

Marlik
12.05.2017
21:38:06
То что работает, я надеюсь)) Вопрос не об этом, это через хуки, или в цикле опросы крутит?

Google

Maxim
12.05.2017
21:38:11
Там буквально в ReadMe содержится рабочий пример

Marlik
12.05.2017
21:38:38
Я не знаю Го, поэтому код не смотрел.

Maxim
12.05.2017
21:39:20

Marlik
12.05.2017
21:40:30
Это бред, в цикле опрашивать. Но вроде(с буржуйским тоже плохо) смотрю там серты генерить нуно, надеюсь что через хуки. Ладно, спасибо.
А, да, нашёл If you need to use webhooks (if you wish to run on Google App Engine), you may use a slightly different method.

Maxim
12.05.2017
21:44:27

Alex
12.05.2017
21:45:51

Maxim
12.05.2017
21:46:22

Alex
12.05.2017
21:46:24
сейчас в ЗБТ

Marlik
12.05.2017
22:01:05

Maxim
12.05.2017
22:01:23

Google

Marlik
12.05.2017
22:01:51
Какие?

Maxim
12.05.2017
22:02:47
Какие?
Точно не помню, но слегка больше ограничений должно быть, чем если бы ты по чесноку юзал обычные сертификаты

Marlik
12.05.2017
22:03:12
Хм, бред.

Maxim
12.05.2017
22:03:16
Тут топай в доки самого телеграм

Marlik
12.05.2017
22:06:37
Бред в смысле про ограничения. Всё также работает:
Примечание:
При подключенном и настроенном вебхуке метод getUpdates не будет работать.
При использовании самоподписанного сертификата, вам необходимо загрузить публичный ключ с помощью параметра certificate.
На текущий момент отправка обновлений через вебхуки доступна только на эти порты: 443, 80, 88, 8443.
https://tlgrm.ru/docs/bots/api#setwebhook

Maxim
12.05.2017
22:09:28
А так - ну, раз нет, то нет. Но с ключами всё равно придётся повозиться

Alexander
12.05.2017
22:18:29
Да нормально уже давно все с сертификатами в Телеграме, что с доверенными, что с самоподписанными
С сертификатами для ботов, в смысле.
Имеешь только самоподписанный сертификат - не проблема, при коннекте отправляешь его на сервер и все, тебя там знают по этому сертификату.

Marlik
12.05.2017
22:20:36
Ну да, я тоже так думаю.

Kirill
12.05.2017
22:36:02
✌️
Ребят, буду оч благодарен за совет.
Делаю экспорт данных из БД в несколько форматов.
Есть порядка 100 табличек в БД, каждая является либо родителем либо дочерней таблицей для другой таблицы, отношения почти везде один-ко-многим
Выглядит так что неплохо написать функцию для сбора мапы объектов какого-то типа и последующего наполнения страктов, но не пойму как без рефлексии наполнять стракты разных типов, у них же разное количество и тип полей. Есть конечно вариант написать 60-80-100 функций, которые будут наполнять стракт нужного типа из среза sql.Rows, но какое-то странное решение на мой взгляд

LexsZero
12.05.2017
22:39:10
сделай с рефлексией. даже делать ничего не надо, ормы именно это и делают.

Kirill
12.05.2017
22:39:32
А производительность не сильно упадет?

LexsZero
12.05.2017
22:40:56
производительность упадет, да. предполагаю, что примерно на порядок.
можешь сделать кодогенерациюх этих 60-80-100 функций

Alexander
12.05.2017
22:41:55
более по-русски было бы тогда уж писать "структы", чо мелочиться-то? :)
и "функи"

Google

Kirill
12.05.2017
22:42:44

Alexander
12.05.2017
22:42:55
по делу уже сказали.

Kirill
12.05.2017
22:43:30

Alexander
12.05.2017
22:44:10
да я что? Пиши "стракты", если нравится. :)
я просто минуту думал, что это вобще такое :)

Kirill
12.05.2017
22:45:53
можешь сделать кодогенерациюх этих 60-80-100 функций
Была еще идея сделать фейковый интерфейс и на каждый стракт по пустой функции, чтобы потом их можно было в один массив под эгидой полиморфизма запихнуть. Но это не решает проблему что во всех таблицах разные поля, и это тоже надо как-то по страктам распихивать.

LexsZero
12.05.2017
22:46:53
может сделать без страктов на пустых интерфейсах? эти стракты как-то из схемы бд еще расписывать придется ведь.

Kirill
12.05.2017
22:47:13
Вот именно

Maxim
12.05.2017
22:47:20

Kirill
12.05.2017
22:48:01
Но стракты вроде сами напрашиваются, очень уж удобный их экспорт в разные форматы, добавил дескрипторы и вперед

LexsZero
12.05.2017
22:49:22
можно попробовать нагенерировать дефинишны страктов вместе с конструкторами по sql-схеме

Kirill
12.05.2017
22:49:41
И, если честно, меня немного пугает что в чате "pro.go" запускают курс "базовый js"

Kirill
12.05.2017
22:50:28

LexsZero
12.05.2017
22:51:14
но вероятно это будет не очень-то просто, особенно со связями между таблицами, и если все эти 100 таблиц эволюционировали и создавались разными людьми в разное время.

Kirill
12.05.2017
22:51:15

Denis
12.05.2017
22:55:21
Как насчет варианта не играть в типы и просто взять питон

Kirill
12.05.2017
22:55:51
Не любитель я питона

Alexander
12.05.2017
22:56:02
Perl?

Denis
12.05.2017
22:56:10
Да и какой вопрос перфоманса

Google

Denis
12.05.2017
22:56:17
Весь перфоманс будет в ио

Kirill
12.05.2017
22:56:21
И там вопрос производительности сильно влияет на смысл всей затеи

Denis
12.05.2017
22:56:26
)

Kirill
12.05.2017
22:57:13

Stanislav
12.05.2017
22:57:17

Admin
ERROR: S client not available

Alexander
12.05.2017
22:58:02
В общем, при такой сложной базе, чтобы все было аккуратно, проще написать типовую прогу, которая сначала будет лезть в стракту базы и строить стракты и относящиеся к ним фанки в отдельном файлике под эту базу. После чего и юзать. Или рефлексировать по посинения
при чем, очень может быть, что кто-то такое уже и писал. поискать можно

Kirill
12.05.2017
23:02:04
Поищу, мб свое напишу. База - почти монга, это геймдев где сущностей до задницы и связей между ними тоже, но экспорт очень уж долгий, хочется ускорить. Запросы к БД можно(и нужно) пускать параллельно т.к. они по сути независимы.

Alexander
12.05.2017
23:09:20
смысл в параллелизме при импорте? На передачу данных больше времени уйдет, чем на обработку в экспортный вид. про io намекали уже
параллелизм хорошо только при ловле блох, как-то так старики поговаривали, кажется :)

Kirill
12.05.2017
23:14:21

Alexander
12.05.2017
23:15:34
а откуда возьмутся данные-то для параллельного "склеивания", если запросы долгие? :)

Kirill
12.05.2017
23:16:13
Склеивать нужно по сути только связанный таблицы, которых не так много. Ну т.е. условно 100 таблиц, из них если разбить по связям останется 30 корневых и 70 дочерних. 30 пускаем параллельно со сборкой дочерних

Alexander
12.05.2017
23:21:46
Ну, что ж... если параллельная обработак поможет загрузить сервер db не на долго, но за то полносью - то, конечно, обязательно надо так и сделать! Это радует, если удается что-то заставить поработать по полной. :)
а то понаделали мощных сервеаков, которые даже питоном не нагрузишь... блин, вон все на Django пишут.. В общем, это ужасно, конгда сервер простаивает!

Kirill
12.05.2017
23:26:48
Сервак не сказать что мощный, но судя по эксплейнам - бд больше времени тратит на поиск, нежели на передачу данных. И от параллельности тут должен быть приличный выигрыш.

Jaroslav
13.05.2017
11:41:06
Всем привет, уже просто устал искать решение. Как получить доменное имя по айпи?

Google

Eldar
13.05.2017
11:52:44

Subbotin
13.05.2017
12:00:56
На один адрес может ууазвать сотни имен

Jaroslav
13.05.2017
12:01:45
все

Subbotin
13.05.2017
12:01:52
Точнее неограниченное количество
Такова природа днс. Есть отдельные решения, но они очевидно не дают 100% результат
Даже до 80% не дотянет

Alexander
13.05.2017
12:05:08

Дмитрий
13.05.2017
12:05:36

Denis
13.05.2017
12:05:47
И прилетаешь на облако

Eldar
13.05.2017
12:06:59
это не решает задачу если кастомный resolv.conf

Alexander
13.05.2017
12:07:28
Если пользователь IP-адреса не озаботился тем, чтобы сделать соответствующую PTR-запись, то никак не узнать.
кастомный resolv.conf?
а некастомный - это какой?
nameserver 8.8.8.8
? :)
Строго говоря, если у кого-то такой кастомнай resolv.conf, что он не в состоянии пользоваться DNS - сам себе буратино, что ж поделаешь?