@phpclubru

Страница 312 из 956
Ahmadaliev
21.08.2017
10:46:11
grup kanal est

Анастасия
21.08.2017
12:18:56
#вакансия #backend #yii https://phpclub.ru/talk/threads/php-%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D1%87%D0%B8%D0%BA-%D0%9C%D0%BE%D1%81%D0%BA%D0%B2%D0%B0-%D0%BC-%D0%A7%D0%B8%D1%81%D1%82%D1%8B%D0%B5-%D0%BF%D1%80%D1%83%D0%B4%D1%8B.84204/

Alexandr
21.08.2017
12:48:09
Что-то Yii староват у вас ?

grup kanal est
Кто кого должен сьесть?

Google
Pavel
21.08.2017
12:51:20
“до 180 000 руб. до вычета НДФЛ” Цифра кажется внушительнее, но когда большинство работодателей указывают NET — я бы к вам даже не обратился за хитрожопость)

Pavel
21.08.2017
12:52:18
т.е. 156к потолок для синьера

Eugene
21.08.2017
12:53:06
ну такое. Зависит от того, кого понимать под сеньором. В целом, может и найдут.

Анастасия
21.08.2017
12:53:47
т.е. 156к потолок для синьера
160 у нас была средняя цифра для синьора, цифра для ориентира:)

Pavel
21.08.2017
12:53:57
?

Pavel
21.08.2017
12:54:42
160 у нас была средняя цифра для синьора, цифра для ориентира:)
Да надо было писать прям “до вычета налогов”, подразумевая вообще все налоги :) Можно было бы и 200+ впендюрить.

Pavel
21.08.2017
12:55:25
Вообще да, разрабы обычно всегда так странно реагируют, как будто это для них констрейнт какой-то. Понятно же что приходишь на собеседование, устраиваешь фееричный мастер-класс, а дальше можешь торговаться, хоть 200 попроси. Если реальный профессионал то и на такие деньги возьмут.

Pavel
21.08.2017
12:58:20
Далеко не всегда компании готовы предложить больше по деньгам. Не всегда готовы и по разивитию предложить хороших условий. Так что это не относится к продаже собственных услуг.

Dmitry
21.08.2017
12:58:38
ну если пишут до 160, то предполагается констрейнт... а иначе странный какой-то программсит, с условиями проблема ;)

Sparrow
21.08.2017
13:00:59
))

Pavel
21.08.2017
13:01:00
А мест для работы на самом деле не так уж много

Pavel
21.08.2017
13:01:04
Иногда в резюме без слёз не взглянешь-то, а тут про мастер-классы уже речь)

Google
Dmitry
21.08.2017
13:01:20
сеньору за 150 дофига мест

Pavel
21.08.2017
13:01:44
Я когда искал работу, себе в мск отфильтровал едва 10 мест куда я бы хотел пойти. Ну у меня правда и вилка по зп была 190+

Sparrow
21.08.2017
13:01:45
А джуны пхп

Ныне какая зп

В среднем

Pavel
21.08.2017
13:01:57
Не все те, что хочет 150 — сеньоры) Потому и мест много :D

Dmitry
21.08.2017
13:02:20
о том и речь, да... 190 сложнее

Pavel
21.08.2017
13:02:42
А джуны пхп
У джунов другая картина немного, там наоборот конкурс людей на место. Стартовая вилка где-то от 40-50к

Sparrow
21.08.2017
13:02:58
Ппц)

И работаешь как ишачок

Все нудное писанина на тебе

Pavel
21.08.2017
13:04:02
а по другому никак. Не пописав нудятины не обретешь опыт

Pavel
21.08.2017
13:06:50
С джунами хуже ещё и то, что мест не так много, которые могут себе позволить таковых.

Sparrow
21.08.2017
13:08:37
Как выжить джуну))

Живешь с мамкой пока сениором не станешь ))

Pavel
21.08.2017
13:12:37
Ящитаю что норм вариант к выпуску из универа уже быть мидлом (т.е. 21-22 года). На двух последних курсах активно роешь все технологии, алгоритмы и фреймворки, контрибутишь в опенсорс проекты по возможности, пилишь свои велосипеды и выкладываешь на гитхаб.

Pavel
21.08.2017
13:12:54
Плюсую

Yoskaldyr
21.08.2017
13:22:10
так и первоночальное утверждение абстрактоне - >90 млн. начинает умирать, отсюда и абстрактный вопрос кто-нибудь наблюдал такой эффект или нет, я при своих 50млн. такого не наблюдаю
основная проблема при таком количестве строк добавление, если оно не часто, то не будет больших проблем. Ну и конечно все зависит от конкретных индексов. Вот что точно будет тупить так это импорт всей этой таблицы из дампа, т.к. построение нескольких btree индесов с нуля учитывая кластерный первичный индекс - это жесть, тут по любому нужен будет очень быстрый ssd винт в рейде и объем памяти + скорость проца почти не играет роли

Остап
21.08.2017
13:25:25
XDXF - как считать этот xml-подобный формат для словарных записей на js?

Google
Андрей
21.08.2017
13:36:16
мы подобную стату в монгу собираем, в целом проблем нет. данных конечно много, но шардинг/реплики/map-reduce/агригация в общем и в целом терпимо

да хотя и мускуль гдето был с innodb... медленно. неудобно с индеками, но тоже живет. пока неуперлись в лимит INT... был autoincrement

Andrei
21.08.2017
13:38:44
Андрей
21.08.2017
13:59:16
но с мускулем мы не собираем всю входящую стату в одно место... 10+ бэкендов со своим мускулем. и раз в час агригируется в report db, где дополнительно агрегируется в несколько дополнительных таблиц - такчто может по этому проблем не наблюдаем. и report db нормально работает, там сейчас 500+ млн записей innodb >100 гигов данных и > 200 индексов в самой большой таблице а вот в монгу - много где пишем все в одну дб (точнее репликасет или шард)

Yoskaldyr
21.08.2017
14:00:26
Андрей
21.08.2017
14:01:03
и мускуль без шардинга... мастер и 2 реплики

Andrei
21.08.2017
14:03:30
в сек. 10-15 записей, часы пик больше

Yoskaldyr
21.08.2017
14:04:44
это вообще не о чем нагрузка с такой без проблем и один hdd справится без рейда.

Если есть свободное железо, то самый простой вариант проверить импорт дампа такой большой таблицы - в зависимости от списка индексов веселуха может затянуться на несколько часов

Andrei
21.08.2017
14:06:44
это на 1 сервер, всего 7, т.е. порядка 100 з.с. (но в целом на один сервер пока такая)

ну т.е. я правильно понимаю, чо innodb в состоянии выдержать фигову тучу записей (ну и bigint в качестве autoincrement)

Yoskaldyr
21.08.2017
14:08:46
выдержать да, но тупит добавление/изменение индекса если записей дофига.

Adel
21.08.2017
14:09:04
ну у нас таблица юзеров больше 100 миллионов. инсертится порядка 10-30 в секунду. держит уж.

Yoskaldyr
21.08.2017
14:09:10
но это тупление на каких-то задачах не будет заметно

10-30 в сек- это же вообще не нагрузка

Adel
21.08.2017
14:09:30
ну.. так то да :)

Андрей
21.08.2017
14:09:49
на своем опыте - должна поидее... но всегда есть нюансы :)

Adel
21.08.2017
14:10:04
у нас только поля добавлять не хотела новые :)

и я вполне по человечески ее понимаю :)

Andrei
21.08.2017
14:10:25
хм. успокоили :) если что, сошлюсь на вас :))

Google
Yoskaldyr
21.08.2017
14:10:56
хотя да будет тупить и на 10-30 в сек, если первичный индекс составной из 20 полеу + 20 отдельных индексов по этим полям + еще 20 ра0зличных их комбинаций

ну че успокоили - там же в самом начале написали - все от индексов зависит

Андрей
21.08.2017
14:12:00
ну и к требованиям по допустимому уровню 'тупления' :)

Andrei
21.08.2017
14:12:23
нет уж, все , как только докатит до 90 млн. я вас вспомню добрым словом :)

Yoskaldyr
21.08.2017
14:12:25
был около месяца назад или чуть более товарищ на форуме у которого был первичный индекс по всем полям таблицы + куча других бесполезных составнызх индексов, удивлялся что самые простые запросы тупят

Adel
21.08.2017
14:13:00
нужно бООльше индексов!!

Yoskaldyr
21.08.2017
14:13:29
и не стоит забывать что при таком количестве записей любой альтер связанный с индексами может выполняться неожиданно дофига времени

именно - чем больше тем будет быстрее! :))))

Андрей
21.08.2017
14:13:52
мускуль в этом плане мне не нравится, именно для big data... изза сложности alterов

Yoskaldyr
21.08.2017
14:13:59
универсальное решение!

Andrei
21.08.2017
14:14:59
окей, так а есть другое что? ну вот про монго - ок, я думаю в сторону columnstorage mariadb

Андрей
21.08.2017
14:15:42
не юзал )

Andrei
21.08.2017
14:17:58
postgres )
кирпич мне в рот - вот это поворт. я так кординально не думал :) а есть опыт?

Pavel
21.08.2017
14:18:50
Ну у нас объемы были относительно не большие, порядка 5 млн. записей в таблице, но выборки были по ней очень сложные.

Насчет альтера схемы надо смотреть каждый кейс, но там в целом все намного лучше чем у мускуля

Pavel
21.08.2017
14:20:02
У нас в постгре таблица на запись ~1 ярда строк, до того как партицирование реализовали

Pavel
21.08.2017
14:20:15
Например колонку он дропает мгновенно, т.к. просто удаляет запись о ней в системной таблице.

Alexandr
21.08.2017
14:20:22
А данные меняются или только добавляются?

Google
Pavel
21.08.2017
14:20:38
Там в нем проблема в операции VACUUM - это такой аналог сборщика мусора в постгресе

Andrei
21.08.2017
14:20:44
добавляются only - timeseries

Pavel
21.08.2017
14:20:45
Редкие изменения

Alexandr
21.08.2017
14:21:23
А clickhouse смотрел?

Pavel
21.08.2017
14:22:00
Да, смотрим в сторону колоночных.

Правда кликхаус с отсутствующим комьюнити вряд ли в прод возьмём.

Andrei
21.08.2017
14:23:01
А clickhouse смотрел?
нет, вот и я боюсь сомтреть в сторону решений которые не саппортятся или камьюнити ни какое

Alexandr
21.08.2017
14:24:18
Почему не саппортятся - нужен платный саппорь?

Adel
21.08.2017
14:24:23
конечно. яндекс ведь шарашкина контора :)

Pavel
21.08.2017
14:24:44
Нет сообщества вокруг решения. Инструмент не обкатан. А платного суппорта в случае необходимой поддержки — нет.

Andrei
21.08.2017
14:24:53
:) ну да - одина доку чего стоит - "столбцовых СУБД"

мне казалось есть устоявшияся термин - "колоночные БД"

Alexandr
21.08.2017
14:26:48
Комбюнити есть https://t.me/clickhouse_ru

Andrei
21.08.2017
14:26:49
Почему не саппортятся - нужен платный саппорь?
да хотя-бы какой-нибудь, по моему последнему обращению в яндекс, до сих пор ответа нет

Alexandr
21.08.2017
14:27:32
Ну почему тогда в MySQL не написал что тормозит ?

Andrei
21.08.2017
14:29:10
эээ, у меня еще не тормозит, я "зрю" дальше и лучше сейчас поменяю коней на переправе, чем потом сутками ждать разворачивание дампа

А clickhouse смотрел?
обязательно гляну

Pavel
21.08.2017
14:38:22
Комбюнити есть https://t.me/clickhouse_ru
Для меня это пока выглядит как группа евангелистов-экспериментаторов.

Но за ссылку спасибо, послежу внимательнее, а то вдруг сильно ошибаюсь)

Остап
21.08.2017
14:41:30
Я вот не могу могу понять, чего есть такой тип людей смеющихся с пхп?

Страница 312 из 956