
Чай С Лимоном
16.06.2016
11:22:16
++++

[Anonymous]
16.06.2016
11:22:29
+++++

Johnnie
16.06.2016
11:22:42
++++++

Kill me pls
16.06.2016
11:24:01
brainfuck?

Google

Aldar
16.06.2016
11:24:38
лучше быть служителем культа хаскеля

Kill me pls
16.06.2016
11:24:48
Во имя Добра

Aldar
16.06.2016
11:25:36
будь хаскеллистом, мать твою, во имя добра!
хотя бы в душе
политота, веганство, ислам, вейперы?

Petr
16.06.2016
11:29:55
про веганов забыл

fox.hs
16.06.2016
11:31:47
Не забыл

Petr
16.06.2016
11:32:01
а, туплю

Johnnie
16.06.2016
11:34:19
:D
Флеймеры

Roman
16.06.2016
11:55:26

Kolyann
16.06.2016
11:56:29

Paul
16.06.2016
12:08:59

Google

Aldar
16.06.2016
12:09:31
на правах тралля

Paul
16.06.2016
12:09:35
Вот веганов только не хватало. Только Алекса успокоили

Kill me pls
16.06.2016
12:17:25
Питоны-питончики

Rick
16.06.2016
12:17:46

Andrey
16.06.2016
12:21:46

Aleserche
16.06.2016
12:22:17
веганы в апокалипсис могут быть вкусными

Andrey
16.06.2016
12:22:51

Eugene
16.06.2016
12:23:25

Johnnie
16.06.2016
12:23:42
:)

Andrey
16.06.2016
12:25:12

Rick
16.06.2016
12:25:33
На егэ была такая задача.
Даны строки, на строчках пара чисел. (Пример 15 1)
И нужно выбрать такие числа (по одному с пары) что бы была их сумма не делилась на 5. Ну или вывести 0, если такое невозможно.
Числа в пределах 1<=N<=10000
в первой строчке указывается сколько будет строк, а в последующих уже пары будут. И жту программу нужно написать максимально эффективно, так что бы программа не зависел от N и еще что-то было, но я забыл.
Вы бы как ее решили?
А еще у них была ошибка в коде
Извините за невнятнооэе объяснение в текст, устал чуток.

Kill me pls
16.06.2016
12:30:45

Johnnie
16.06.2016
12:33:43
Веганы состоят целиком из листьев салата, там нет мяса

Paul
16.06.2016
12:34:41

Johnnie
16.06.2016
12:36:42

Kill me pls
16.06.2016
12:37:15
Они в зомби превратятся первыми

[Anonymous]
16.06.2016
12:37:33
Кто-нибудь использует MongoDB?

Arseny
16.06.2016
12:37:50
хипстеры

Google

Alexey
16.06.2016
12:38:02

[Anonymous]
16.06.2016
12:38:11
У меня зашкаливает потребление ресурсов, но я не понимаю, нормально это или нет.
Т.е. диск, запись, проц, всё ОК.
Оперативка разъедается как мразь и я не врубаюсь, это норм или нет.
Хочу сравнить с кем-нибудь, у кого тоже на проде крутится.
Потому что мне кажется это не очень нормально, на 50 лямов документов 20 GB оперативы жрать.
Вообще MongoDB прожорлива до оперативы всегда была.
Но у меня ощущение, что не в таких масштабах.

Игорь
16.06.2016
12:40:32
вейперов можно :)

Belegnar
16.06.2016
12:41:25
https://scontent-waw1-1.xx.fbcdn.net/v/t1.0-9/13435503_1367565503258608_2835533624170029180_n.jpg?oh=dc9856f84ed3ede06f075b11c14d5d34&oe=57CFCE0E

Cykooz
16.06.2016
12:42:01

[Anonymous]
16.06.2016
12:42:15
>Она старается максимально держать всё в оперативе
Да.
И это смотрел.
У меня есть hot data, с которой я работаю. Т.е. не вся база запрашивается.
Если бы я запрашивал по всей базе, то 20 GB было бы нормально.
Но я запрашиваю хвост данных за последние пару дней, например.

Google

[Anonymous]
16.06.2016
12:42:59
Именно они попадают в оперативу, что опять же, логично.

Cykooz
16.06.2016
12:43:26
Мы проблемы решали шардированием - это позволяет уменьшить потребление памяти в рамках одной шарды.

[Anonymous]
16.06.2016
12:43:45
А индексы всего 1.5 GB занимают.
И это подозрительно.
Т.е. про 20 GB подозрительно.
Я и говорю, что у меня ощущение, что какая-то хрень происходит.

oneek
16.06.2016
12:44:12
вот это флуд, про python что-нибудь писали за последние сутки?

[Anonymous]
16.06.2016
12:44:20

Cykooz
16.06.2016
12:44:23
Хотя вот был кейс когда на MongoDB 2.4 + pymongo 3 начинал дико хавать память процес mongos. Возврат на использование pymongo 2 помог

Admin
ERROR: S client not available

oneek
16.06.2016
12:44:28
про монгу вот еще ничего, а остальное - мрак ?

[Anonymous]
16.06.2016
12:44:32
Мне предложили на одной тачке шарды сделать, но я не думаю, что это поможет.

Cykooz
16.06.2016
12:44:37

[Anonymous]
16.06.2016
12:44:48
Вот я тоже не знаю зачем.
Но MongoDB рекомендует это делать.
Но они за fault tolerance топят.
Мол, так более отказоустойчиво, тут с этим проблем нет.

Cykooz
16.06.2016
12:45:34
Ну в теории может быть профит - всё таки искать в мальньком индексе быстрее чем в большом

[Anonymous]
16.06.2016
12:45:49
Куда-то память протекает.

Google

[Anonymous]
16.06.2016
12:46:16
И это причём этот.
WiredTiger.
Самый.
Я вот думал может особенности какие-то, первый раз с таким сталкиваюсь, и как раз первый прод на WiredTiger.
Обычно за 5 GB не выходит при базе в лярд, а тут 50 лямов и 20 GB памяти.

Cykooz
16.06.2016
12:48:07
На тигре пожалуй ещё нет у нас таких объёмов данных. А вот на старом движке уже были проблемы с большими индексами. Уменьшали индексы, делали шардирование - пока вроде живёт.

[Anonymous]
16.06.2016
12:49:16
Каким образом уменьшали индексы?
Меняли схему?

Cykooz
16.06.2016
12:50:12
Уменьшали размер индексируемых данных (уменьшили битность хеша который индексировался), удаляли лишние индексы

Ray
16.06.2016
12:51:10
монго, индексы, шардинг ... Вот mysql и кеш на харде, это да.

Cykooz
16.06.2016
12:52:22
MySQL тоже с радостью захавает всю память которую ему дадут. А если не дадут - будет шуршать диском.

Ray
16.06.2016
12:52:58

Cykooz
16.06.2016
12:53:27
Куда смотреть?

[Anonymous]
16.06.2016
12:53:54
Да все базы практически стараются использовать ресурсы по-максимуму.

Ray
16.06.2016
12:53:58
в корень )

Paul
16.06.2016
13:34:00
прелесть монги в том, что она никак не тюнится

Paul
16.06.2016
13:40:17

drjackild
16.06.2016
13:40:19
Посоны, есть хоть какая-то причина покупать e-book, вместо обычного чтения с экрана телефона? Бумажные книги вне конкуренции, офк

Paul
16.06.2016
13:40:43

Ray
16.06.2016
13:41:21

Roman
16.06.2016
13:41:28
ну и индексы можно на ssd положить