
Arthur
23.04.2017
15:50:06
у скалы есть байткод свой?

Nick
23.04.2017
15:50:23
нету)
хотя не, сейчас есть nir в native
хотя его сложно байткодом назвать

Google

Oleg
23.04.2017
15:51:55

Arthur
23.04.2017
15:52:05
а что такое скала-совместимый?
джава байткод чтоли?)

Oleg
23.04.2017
15:52:33
это jvm-байткод с со всякой информацией о типах, имплиситах, специализациях и т.п., для использования в скаловских прогах

Nick
23.04.2017
15:52:45

Oleg
23.04.2017
15:53:38
если генерить скало-несовместимый получится голая джава

Nick
23.04.2017
15:54:43
я не смотрел насчет совместимости байткода, но чтот мне подсказывает, что там один и тот же код(
что и с jvm

Alexander
23.04.2017
15:55:59
http://www.scala-lang.org/old/node/945 но это олд скул

Nick
23.04.2017
15:56:30

Oleg
23.04.2017
15:57:06
это jvm-байткод с со всякой информацией о типах, имплиситах, специализациях и т.п., для использования в скаловских прогах
> для использования в скаловский прогах....
т.е. этот код потом докомпиливается скалой

Google

Oleg
23.04.2017
15:58:35
ermine -> [ermine compiler] -> scala-style jvm + scala ermine runtime -> [scala compiler] -> JVM
ладно
тут Тинькофф челленж начинается

Nick
23.04.2017
15:59:13
ну эт сейчас всяко не будет работать я думаю)
что за челледж?

Oleg
23.04.2017
15:59:39
аааа 35 минут ещё

Nick
23.04.2017
15:59:49
data science который?

Oleg
23.04.2017
15:59:58

Nick
23.04.2017
16:00:30
в проект два года коммитов не было
поэтому и говорю, что врядли работать будет

Oleg
23.04.2017
16:01:28
или 2.11 теперь запрещён?
это же не айфон, если вышла новая скала, а ты всё ещё пишешь на старой, не обязательно идти топиться

Aleksei
23.04.2017
16:04:03

Nick
23.04.2017
16:05:23
там возможно даже 2.10
посмотрел, implicit точно в байткоде нету
сейчас специализации гляну

Arthur
23.04.2017
16:17:06
я всегда думал что имплисит во время коомпиляции просто резолвятся

Google

Arthur
23.04.2017
16:17:08
да и все

Oleg
23.04.2017
16:17:13

Arthur
23.04.2017
16:17:13
такая себе автоподстановка

Oleg
23.04.2017
16:17:16
да

Nick
23.04.2017
16:20:07
специализация прост генерит все варианты примитивов

Oleg
23.04.2017
16:22:19
ник раскрывает невероятные вещи

Nick
23.04.2017
16:22:35
угу

Oleg
23.04.2017
16:23:05
оказывается, всё, что есть в скале специфичного по сравнению с жавой, не отображается в байткоде

Nick
23.04.2017
16:23:49
проверяю твои оговорки

Oleg
23.04.2017
16:29:32
ага
если ты хочешь проверить мои оговорки, тебе нужно запустить javap -private -verbose а потом как-то десериализовать значение поля ScalaSig

Oleg
23.04.2017
16:29:59
потому что именно об этой совместимости я говорил

Nick
23.04.2017
16:36:20
да так и делаю

Maverick
23.04.2017
17:11:08
утро доброе
продскажите, люди добрые, а какие есть Sсala Spark библиотеки для удобной работы с Hive таблицами?

Aleksei
23.04.2017
17:12:21
утро? вы в калифорнии чтоли?

Maverick
23.04.2017
17:12:28
ой, палюсь

Aleksei
23.04.2017
17:12:48
10 утра в воскр, он про либы для хайва спрашивает! ВОТ НРАВЫ ТО!

Google

Maverick
23.04.2017
17:13:11
я тут специально аккаунт в Telegram завёл
чтоб к каналу наскальной мудрости приобщиться
пока не понял, как нут искать по сообщениям в канале

Maks
23.04.2017
17:14:32

Maverick
23.04.2017
17:16:04
по "партиции AND hive" ничего не нашёл =(
как и по "partitions AND hive"
обидно
Может тогда другой канал пореккомандуете, где spark-оводы тусят?

Nick
23.04.2017
17:28:13
Maverick я всегда думал, что спарк использую в hive как execution engine и работают с ним напрямую,но может я и не прав

Admin
ERROR: S client not available

Nick
23.04.2017
17:28:45
Maverick есть такая группа https://t.me/hadoopusers но там тихо часто

Maverick
23.04.2017
17:29:50
@gurinderu
Как мне показалось, spark читает и пишет из/в Hive только метаданные. Данные он колбасит сам.
Спасибо, но это именно про Hadoop
Мне бы spark

Nick
23.04.2017
17:30:59
ну да, ты пишешь запрос в hive, а он обрабатывается в spark
как-то так

Aleksei
23.04.2017
17:32:23
хз есть ли вообще канал по спарку

Maverick
23.04.2017
17:34:00
@gurinderu
А есть кто из местных, что спарк использует?

Aleksei
23.04.2017
17:34:46
ну у нас крутится
но мне стыдно признаваться

Nick
23.04.2017
17:37:19

Google

Nick
23.04.2017
17:37:50

Aleksei
23.04.2017
17:38:26
ну не так уж плохо
но примерно
да и лопатит он не сырые данные
а всякое

Nick
23.04.2017
17:38:58
а есть разница?

Aleksei
23.04.2017
17:39:43
ну делать запросы по сети спарком
ну хз
ничо хорошего

KrivdaTheTriewe
23.04.2017
17:40:46

Nick
23.04.2017
17:41:53
кстати, а у кого-нибудь есть спарк в мезосе?
без всяких херовин из хадуп стека, типа ярна?

KrivdaTheTriewe
23.04.2017
17:42:48

Nick
23.04.2017
17:43:05
KrivdaTheTriewe нет, спарк эт не хадуп стек
спарк можно и без хадупчика юзать
во val results = sqlContext.sql("SELECT * FROM yahoo_stocks_temp")
но я видел когда делали запрос в hive, но бекендом был spark

Maverick
23.04.2017
17:45:47
О, похоже @krivdathetriewe понимает от чём говорит
так вот, @krivdathetriewe, я понимаю, что работать можно

Nick
23.04.2017
17:46:37
Maverick спроси в том чате, он там тоже есть

Maverick
23.04.2017
17:46:38
но мне бы работать удобно с партиционированными таблицами

Aleksei
23.04.2017
17:46:53
я прошу прощения, а вы для работы интересуетесь,