@spblug

Страница 932 из 1075
Daniel
01.02.2017
10:08:35
ну я, собственно, недогоняю что озночают слова @onokonem об отсутсвии поддержки перловой машиной многоядерности
чтобы утилизировать несколько ядер с помощью перла - надо играть в разные процессы и тот или иной вид IPC. треды в перле говно, считай, их нет.

как было - так и осталось

в питоне, впрочем, тоже

Google
Vartan
01.02.2017
10:10:00
ну значит разработчикам перла это дело неинтересно. Значит, не надо на перле писать такое :) Я вообще думаю, что перл -- это когда на awk получается уж очень сложно :))

Leonid
01.02.2017
10:10:57
Чтобы утилизировать несколько ядер на соседних машинах — тоже надо играть. Порой переход на кластер случается раньше, чем внезапный рост ввысь до потолка количества ядер — т.е. в вебе либо проект спокойно живёт на одном ядре с копейками, либо выстреливает и хочет сразу много рядом стоящих железок. В такой дихотомии спроить про треды не так интересно :)

Goletsa
01.02.2017
10:11:12
Serge
01.02.2017
10:13:03
Чтобы утилизировать несколько ядер на соседних машинах — тоже надо играть. Порой переход на кластер случается раньше, чем внезапный рост ввысь до потолка количества ядер — т.е. в вебе либо проект спокойно живёт на одном ядре с копейками, либо выстреливает и хочет сразу много рядом стоящих железок. В такой дихотомии спроить про треды не так интересно :)
более того, в вебе нет проектов, которые держут ровную нагрузку 24/7, поэтому гораздо удобнее скалиться по необходимости автоматически по процессам/контейнерам/машинам. а для этого надо сразу уметь изолированно эффективно бегать на одном ядре и размазываться горизонтально по ядрам/процессорам/машинам

Alexey
01.02.2017
10:14:04
ну значит разработчикам перла это дело неинтересно. Значит, не надо на перле писать такое :) Я вообще думаю, что перл -- это когда на awk получается уж очень сложно :))
ну я perl использую когда нужно много вычислений или сложная вложенность массивов, и в bash'е это начинает походить на ад...

Vartan
01.02.2017
10:14:56
Вычисления в bash'е -- это да :)

Serge
01.02.2017
10:16:50
Вычисления в bash'е -- это да :)
https://en.wikipedia.org/wiki/Bc_(programming_language)

Vartan
01.02.2017
10:17:10
так это не bash

это bc

Roman
01.02.2017
10:17:14
чтобы утилизировать несколько ядер с помощью перла - надо играть в разные процессы и тот или иной вид IPC. треды в перле говно, считай, их нет.
на самом деле ipc - это не больно. более того, если у вас хайлоад и большие rps - лучше процессами плодиться.

Vartan
01.02.2017
10:17:23
и я люблю dc для этих целей. У меня RPN-мозг :)

Google
Serge
01.02.2017
10:17:39
RPN - рулит

и я люблю dc для этих целей. У меня RPN-мозг :)
ну мы обсуждали уже. ты поставил себе galculator? :)

а realcalc?

Daniel
01.02.2017
10:18:19
на самом деле ipc - это не больно. более того, если у вас хайлоад и большие rps - лучше процессами плодиться.
на самом деле - конечно, больно, по сравнению с общей памятью и мутексами.

Leonid
01.02.2017
10:18:20
да ну. а rtb?
У rtb, кажется, входящий поток тоже зависит от суточных циклов людей, которые смотрят интернеты. Мне тут придумывается скорее телеметрия, где нагрузка от сенсоров, а люди так — иногда штырят в графики. Но кто-то скажет, что это не про веб :-)

Vartan
01.02.2017
10:18:31
у меня grpn есть :) Я по-моему до сих пор числюсь его мейнтейнером

Roman
01.02.2017
10:19:24
Daniel
01.02.2017
10:20:36
но современное состояние дел такого, что тебе довольно часто полезно привлечь более одного ядра на обработку одного запроса

в общем, коллеги, любой язык, vm/runtime которого не умеет в утилизацию более одного ядра штатно, я лично считаю мертвым и ненужным

и перл - первый среди них

Vartan
01.02.2017
10:22:31
А я считаю, что любому языку, как и любому другому инструменту -- свое место

В зависимости от задачи

(если это не Java, ггг)

Daniel
01.02.2017
10:22:57
кэп, перелогинтесь

Leonid
01.02.2017
10:23:32
Предлагаю начать закапывать python с того угла, где tensorflow похоронен :-)

Daniel
01.02.2017
10:23:52
не-не-не

Roman
01.02.2017
10:24:03
но современное состояние дел такого, что тебе довольно часто полезно привлечь более одного ядра на обработку одного запроса
например? не флейма ради, просто интересно. когда запросов сыпется сильно больше числа ядер в этом нет смысла.

Daniel
01.02.2017
10:24:34
то есть, я думаю, то, что это все сделано на питоне - это ошибка, надо было делать на чем-то вроде хаскеля. но уж как вышло

Roman
01.02.2017
10:24:49
т.е. на рейте в 10krps это всё уже не имеет смысла.

Google
Daniel
01.02.2017
10:25:13
т.е. на рейте в 10krps это всё уже не имеет смысла.
сильно зависит от времени обработки одного запроса

Roman
01.02.2017
10:26:03
сильно зависит от времени обработки одного запроса
мм... а какое это имеет значение, когда их сыпется 10к?

ну даже 4к

Daniel
01.02.2017
10:29:38
да, так вот

Vartan
01.02.2017
10:29:57
Парни, у меня практический вопрос. А в Питере есть живые Debian developer'ы? Их в Москве куча, но я по-моему с ними тут никогда не встречусь, млять, один в одной жопе мира живет, другой в другой, а машины у меня тут нет

Daniel
01.02.2017
10:31:42
мне почему-то постоянно нужно принять запрос сделать несколько запросов к другим сервисам используя разной степени запутанности логику, учитывающую, к примеру, таймауты на подзапросах, сформировать ответ отдать ответ

или несколько ядер, или гринтреды, или асинхронщина

лучше всех гринтреды, наверное, особенно как они сделаны в гошечке

а, еще акторы

Leonid
01.02.2017
10:33:02
ну если запросов 4к на машинку, на машине 16 честных ядер, то cpu time на запрос 4ms на всё про всё — между ядрами данные уже дороговато гонять :)

Roman
01.02.2017
10:33:06
или несколько ядер, или гринтреды, или асинхронщина
очевидно, что гринтреды или асинхронщина

Roman
01.02.2017
10:34:57
Daniel
01.02.2017
10:35:23
и с чайками, да

Roman
01.02.2017
10:36:37
http://money.get.away.get.a.good.job.with.more.pay.and.you.are.okay.money.it.is.a.gas.grab.that.cash.with.both.hands.and.make.a.stash.new.car.caviar.four.star.daydream.think.i.ll.buy.me.a.football.team.money.get.back.i.am.alright.jack.ilovevitaly.com/

охренеть

Leonid
01.02.2017
10:39:54
интересный заход. 4мс на 3ГГц - это вечность
Ну как вечность. Если gzip ещё ответ предстоит жать, то это довольно мало. 250 килобайт сжать примерно успеем и всё. :-)

Roman
01.02.2017
10:46:25
http://www.opennet.ru/opennews/art.shtml?num=45956

Alexey
01.02.2017
10:50:14
https://en.wikipedia.org/wiki/Bc_(programming_language)
Да я не про это, вот реализуй просто ручками двоичный посик на bash'е и на том же perl, python(не юзай bisect). И ты увидишь что на тысячи массивах в тыщёнку другую элементов ты получишь разницу в поиске в разы.

Vartan
01.02.2017
10:51:00
А на кой хрен это на bash делать? :)

Google
Daniel
01.02.2017
10:53:18
здесь нужен асинхронный апи. или можно закапывать такое приложение.
зачем мне асинхронный апи? чтобы что? мне нужны горутины и синхронный апи

Serge
01.02.2017
10:54:42
зачем мне асинхронный апи? чтобы что? мне нужны горутины и синхронный апи
чтобы не висеть с запросом, пока кто-то синхронно куда-то ходит. попросил. ушел. пришел. получил ответ. ушел. можно просто поднять вебсокет и ждать в нем ответа. но тогда это уже не про классический веб с rps по http

pl
01.02.2017
10:55:42
зачем мне асинхронный апи? чтобы что? мне нужны горутины и синхронный апи
Почему не аппликативные функторы и синхронный апи?

Alexey
01.02.2017
10:56:03
А на кой хрен это на bash делать? :)
ну люблю я bash... И это же не всё что надо было сделать. это так посерединке было

Daniel
01.02.2017
10:56:53
Почему не аппликативные функторы и синхронный апи?
потому, что все cовременные фп языки - говно

Serge
01.02.2017
10:57:15
Речь про апи, а не что там внутри
именно. мне тоже насрано что там внутри. поэтому если у тебя 40к rps и 4 ядра, тебе глубоко насрать на размазывание одного запроса по ядрам

Vitaliy
01.02.2017
10:57:24
у меня всегда чуть иной заход: а как происходит апгрейд рабочего сервиса? если запросы короткие - да, всё просто. а если клиенты сутками висят?
легко. можно передавать открытые соединения через сокет между приложениями. Для go написан чуть ли не десяток пакетов, это делающих

Admin
ERROR: S client not available

pl
01.02.2017
10:59:05
Daniel
01.02.2017
10:59:14
не все настолько

Vitaliy
01.02.2017
11:02:13
в чём проблема перетащить?

Vitaliy
01.02.2017
11:02:51
и стать луддитом

Roman
01.02.2017
11:04:35
в чём проблема перетащить?
формально - ни в чём. но если есть жирная структура в памяти которая постоянно меняется - это больно.

Vitaliy
01.02.2017
11:05:45
таким образом нерешаемая проблема превратилась в простую инженерную

Roman
01.02.2017
11:06:28
можно велосипедить свои снапшоты, а можно как редис - fork() и дитя бэкапится.

Google
Vitaliy
01.02.2017
11:08:41
это не поможет апгрейду

Roman
01.02.2017
11:09:46
это не поможет апгрейду
я к тому, что аккуратно используя механизмы ОС можно избавиться от головной боли и своих велосипедов.

Vitaliy
01.02.2017
11:11:11
весь технический прогресс в IT — это велосипеды поверх железа, ОС, юзерспейса, рантайма, сети, фреймворка, который после кристаллизуется в форме нового слоя

Andrey
01.02.2017
14:29:37
НА двух последних ITGM руби островка просто не было, хотя группа по интересам существует. Дело в том, что последдний раз, когда они были, там было пять человеки 2 доклада и то не особо про Руби.
они просто не участвуют. руби тусовка довольно плотная в питере насколько мне известно. плюс оооочень много разработчиков эмигрировало.

Roman
01.02.2017
14:30:05
https://www.youtube.com/watch?v=nc0hPGerSd4

Andrey
01.02.2017
14:32:08
https://www.icinga.com/2017/01/17/moving-to-github/

И вышла Icinga 2.6.1

Leonid
01.02.2017
15:30:37
> We're limited by the disk speed of a non-production machine. Как-то сурово у них 6 мегабайт в секунду с диска читается...

Andrey
01.02.2017
16:47:22
Вот вот

И так 310гб

Timur
02.02.2017
02:32:33
Приветствую всех!

Maxim
02.02.2017
02:35:52
Ок

Aleks
02.02.2017
05:55:19
"Идущие на смерть приветствуют тебя, о Великий Чатик!"

Sergey
02.02.2017
06:50:26
что там с гитлабом, все данные восстановлены?

https://about.gitlab.com/2017/02/01/gitlab-dot-com-database-incident/

Serge
02.02.2017
07:06:59
https://about.gitlab.com/2017/02/01/gitlab-dot-com-database-incident/
Постгрес под high io такой няша... Ну и сетап в два сервака без возможности прокрутить oplog от последнего бэкапа... Ну... Зато бесплатно.

Sergey
02.02.2017
08:37:34
Всем привет. Кажется готовят массовый зонд

Россиянам хотят предоставить всеобщий и безлимитный доступ в интернет https://rublacklist.net/25454/ Члены Экспертного совета при Правительстве России считают, что для граждан нашей страны необходимо обеспечить всеобщий и безлимитный доступ в интернет - в рамках развития цифровой инфраструктуры. В качестве приоритетных направлений цифровизации экономики Экспертный совет также предлагает выделить работу с большими объемами данных (big data), обеспечение защиты информации, создание сервисов на основе искусственного интеллекта, а также идентификацию пользователей и технических устройств

Sergey
02.02.2017
08:39:21
всеобщий, но с блокировками. да :)
часть заблокируют, а часть где мессенджеры обяжут массово все сливать, не будут... Такой тотальный надзор.

Denis
02.02.2017
08:39:52
и впн запретить. да

Страница 932 из 1075