@DC7499

Страница 1343 из 1477
Egor
03.04.2018
07:23:48
По размеру пакетов, по сессиям и тд Ратники, например дают специфическую активность по которой можно сказать что это ратник. Не расшифровывая трафик. Я так понял вопрос в этом

A. A.
03.04.2018
07:25:55
По размеру пакетов, по сессиям и тд Ратники, например дают специфическую активность по которой можно сказать что это ратник. Не расшифровывая трафик. Я так понял вопрос в этом
В этом тоже. Спасибо за коммент. Цель как бы настроить нормальный мониторинг. Сейчас потенциально готовимся смотреть bluecoat. Но это больше про шлюз, а-ля proxy. А вот коллеги выше говорят, что нужен ips.

Egor
03.04.2018
07:27:53
Andrey
03.04.2018
07:29:15
В этом тоже. Спасибо за коммент. Цель как бы настроить нормальный мониторинг. Сейчас потенциально готовимся смотреть bluecoat. Но это больше про шлюз, а-ля proxy. А вот коллеги выше говорят, что нужен ips.
Эмм, существует ряд решений, включающих и шлюз, IPS, DLP и кучу всего в одном, но считать на нем трафик и мониторить кто куда - не очень ок, для статистики ресурсов все равно нужна прокся

Google
Andrew
03.04.2018
07:34:49
всем питерским две шисот!

#питер 2600! Внимание, мы в другом месте: бар BeerHub, https://vk.com/beerhub_community, Биржевой переулок, 4 (https://goo.gl/maps/1zFxQX7bsJ32) Как всегда, в пятницу. 6 апреля, в 19:00 2600.spb.ru

butch
03.04.2018
07:41:08
Andrew
03.04.2018
07:41:16
бывает, что и делаем

бывает кто-нибудь притащит какую-нибудь железку

всякое бывает))

butch
03.04.2018
07:42:27
Что самое запоминающееся было из всех встречь?)

Andrey
03.04.2018
07:42:53
Iulii
03.04.2018
07:44:07
можно тупой вопрос , почему у меня нет доступа к статьям ? :)

A. A.
03.04.2018
07:50:49
Коллеги, еще тупой может быть вопрос, но все ж. Может кто-то знает конкретные решения для задачи: контролировать трафик пользователей (ну чтобы в облака не лили, например, или еще как-то сливали контент) когда они ЗА периметром организации, т.е. например взяли ноут пошли домой, там работают. Или в коммандировке находятся и естесно подключаются абы как, абы откуда, к нам через впн, но дальше данные у них на машине.

SF
03.04.2018
08:00:03
Анализ логов прокси не правильный путь?
Для тех целей, что ты написал - неправильный. Для части задач можно использовать логи прокси, но, как ты правильно заметил, специализированный софт затыкается на гигантских объемах. Поэтому либо ты, как все, уменьшишь объемы, либо напишешь сам что-то упрощённое, что очень быстро работает с гигантскими объемами, либо напишешь ещё одно полноценное специализированное средство через пару лет

Google
A. A.
03.04.2018
08:03:42
тебя напрягает то, что они могут слить КТ, которая находится у них на компе, в то время когда они не в офисе?
да, и не вижу нормальных решений для противодействия этому, кроме может быть технологии IRM (управление правами на документы)

SF
03.04.2018
08:03:57
Это тоже не панацея

A. A.
03.04.2018
08:04:36
Ты порядок наведи - это сэкономит кучу денег
так для того и советуюсь, а не бежим покупать что увидим на полках

f1nnix
03.04.2018
08:04:40
Гайз, привет. Наша дружба с Докером с утра подверглась серьезному испытанию: ➜ ~ docker ps -a CONTAINER ID COMMAND ... 4a3d5e940819 Exited (255) 13 minutes ago ➜ ~ docker start 4a3d5e940819 Error response from daemon: container "4a3d5e940819131b604ddf8d9c72cc91b056c7b273db1c8c2964be78090dea1c": already exists Error: failed to start containers: 4a3d5e940819 Нашел такой issue: https://github.com/docker/for-linux/issues/211 Assuming it gets merged before 18.03 is cut, it'll be in 18.03 and 17.12.1 Говорят, баг в 18.02, и надо обновляться. А никто не чинил без обновления ядра? Спасибо заранее.

A. A.
03.04.2018
08:05:45
Это тоже не панацея
знаешь волшебную таблетку?

SF
03.04.2018
08:06:00
Её не существует

Николай
03.04.2018
08:06:17
да, и не вижу нормальных решений для противодействия этому, кроме может быть технологии IRM (управление правами на документы)
ну смотри, для этого нужен комплекс решений. В первую очередь - какой-нить Варонис для несистематизированных данных, который будет ставить на документы метки. После этого - DLP с возможностью чтения меток и блокировки и логирования действий с файлами, например Dozor

можно попытаться решить это одним Dozor-ом

SF
03.04.2018
08:08:09
ну смотри, для этого нужен комплекс решений. В первую очередь - какой-нить Варонис для несистематизированных данных, который будет ставить на документы метки. После этого - DLP с возможностью чтения меток и блокировки и логирования действий с файлами, например Dozor
Ты понимаешь, что это у автора почти тоже самое, что логи прокси? Он хочет целиком, сразу и чтобы мы угадали все, что он не может сформулировать (в крайнем случае, чтобы эта одна железка просто сама умела все, что он не может выразить)

Andrey
03.04.2018
08:08:11
Решения от Microsoft не надо озвучивать? ?

SF
03.04.2018
08:08:34
Что-то на них отлично работает между прочим

A. A.
03.04.2018
08:12:34
zScaler
спасибо, за наводку. сами пробовали? не стремно в облака данные отдавать?

SF
03.04.2018
08:13:07
От компании зависит Тут нет

Это мегамасштабируемое mitm решение

A. A.
03.04.2018
08:14:26
Ты понимаешь, что это у автора почти тоже самое, что логи прокси? Он хочет целиком, сразу и чтобы мы угадали все, что он не может сформулировать (в крайнем случае, чтобы эта одна железка просто сама умела все, что он не может выразить)
не совсем так. я же описал выше задачи с логами, которые хочу решить. мне ответили, что так решать не правильно все и сразу, надо решать разными способами. поэтому дискуссия и появилась. не обязательно в итоге должна быть одна мега умная железка, но помоему это нормально хотеть одно простое решение. вдруг оно уже есть. выяснилось что все еще нет.

Решения от Microsoft не надо озвучивать? ?
у них все что ни решение теперь, то azure. а мы с ними не дружим, так как они данные раскрывают. но ad rms их смотрим. тот что on-premise

Google
A. A.
03.04.2018
08:16:43
Именно про rms и говорил
я когда про irm писал, сначала rms написал) но подумал что irm это более широко) и это я озвучил понятное мне решение проблемы, но может что-то еще есть. вот SF на zscaler подсказал, за что ему спасибо. надо смотреть на сколько оно нам применимо

SF
03.04.2018
08:19:15
Ты тоже просто не особо понимаешь о чем я написал выше

Николай
03.04.2018
08:19:31
Ну и вообще, решать выход документов за пределы компании с помощью логов прокси - не правильное решение, имхо. Что мешает пользователю скачав документ, отключиться от вашего ВПН и слить их через свой уютный интернет?

SF
03.04.2018
08:19:33
Нет там связных целей решения

A. A.
03.04.2018
08:19:45
ну он целей уже минимум 3 перечислил
да) за меня ответил. мне разные для разных целей и нужны.

SF
03.04.2018
08:19:46
Сфоткать его?

A. A.
03.04.2018
08:20:24
ааааааа.. народ. цели разные. я просто хочу о вашем опыте узнать в разных направлениях. понятно что выход документов через прокси никто не планирует решать, потому что это не решается так.

Николай
03.04.2018
08:20:40
Тогда я нихуя не понял

A. A.
03.04.2018
08:20:58
попробую более емко написать, не факт что получится. но попробую

SF
03.04.2018
08:21:14
Это мне напоминает один мультфильм " -ты что, вчера родился? -нет, сегодня! -аа, это другое дело!"

Ты формулируй не задачи, ведь ты не знаешь вариантов, ты формулируй цели и требования

Под это потом надо будет решения подбирать, комбинируя варианты разные

A. A.
03.04.2018
08:36:17
Хочу решить несколько целей: 1. чтобы пользователи не сливали просто большие объемы корпоративных данных в облако, в телеграм или еще куда. просто контроль объема, т.к. распространение не критичных данных в большом объеме может быть критичным. 2. чтобы не могли слить реально критичные данные 3. я хочу обезопасить своих пользователей, когда они вирусню на тачку посадят и не хочу чтобы мы были донором для ботоводов, либо таргетированной атаки со сливом данных. При следующих условиях: А. пользователи часто бывают за периметром и прокси/шлюзы и прочий ips+dpi внутри не решает эти задачи (но не значит что их внутри решать не надо) Б. при этом топы очень не доверяют облачным решениям (особенно от тех кто сотрудничает с силовиками) и по старой вере хотят чтобы все хранилось и обрабатывалось максимально у нас, поэтому мы консервативно настроены по отношению к azure — ps. я в целом конечно имею представление как все эти задачи решить и с помощью каких технологий, но есть сомнения (например из-за опыта с DLP, когда вендоры говорят одно, а по факту все это работает не совсем так), поэтому и хочу понять, может кто-то уже решает подобные задачи успешно.

Google
Worlak
03.04.2018
08:36:33
Не напомните название сервиса который не сливал инфу антивирусам и можно было на нем проверить свой софт

Worlak
03.04.2018
08:43:12
:(

Николай
03.04.2018
08:47:26
1 -Checkpoint Firewall, Palo alto (это то, с чем реально работал, и то что реально решало эту проблему)

2 - DLP решение, иначе это не решить. Делайте пилоты, смотрите на решения. Моя рекомендация - начать с Solar Dozor, если не подойдет - посмотреть SearchInform

3 - корпоративный антивирус, зависит от обьемов организации

Andrey
03.04.2018
08:49:16
*потирает руки от слова Checkpoint*

Николай
03.04.2018
08:49:52
Andrey
03.04.2018
08:50:11
почему?
стыдно говорить =))

SF
03.04.2018
08:50:16
Хочу решить несколько целей: 1. чтобы пользователи не сливали просто большие объемы корпоративных данных в облако, в телеграм или еще куда. просто контроль объема, т.к. распространение не критичных данных в большом объеме может быть критичным. 2. чтобы не могли слить реально критичные данные 3. я хочу обезопасить своих пользователей, когда они вирусню на тачку посадят и не хочу чтобы мы были донором для ботоводов, либо таргетированной атаки со сливом данных. При следующих условиях: А. пользователи часто бывают за периметром и прокси/шлюзы и прочий ips+dpi внутри не решает эти задачи (но не значит что их внутри решать не надо) Б. при этом топы очень не доверяют облачным решениям (особенно от тех кто сотрудничает с силовиками) и по старой вере хотят чтобы все хранилось и обрабатывалось максимально у нас, поэтому мы консервативно настроены по отношению к azure — ps. я в целом конечно имею представление как все эти задачи решить и с помощью каких технологий, но есть сомнения (например из-за опыта с DLP, когда вендоры говорят одно, а по факту все это работает не совсем так), поэтому и хочу понять, может кто-то уже решает подобные задачи успешно.
Я все же за zscaler - он не российский. Там нет погонов и их понятий наглых. Отлично это работает и безопасно до тех пор, пока нет судебного решения на открытие данных, причем не в России

Николай
03.04.2018
08:50:28
ну давай, все свои же)

SF
03.04.2018
08:52:16
И мне очень нравится, что ничего, кроме понятного заранее количества денег не надо для того, чтобы оно хорошо работало. Никаких косяков админов, багов, серваков - ничего. Просто понятный счёт.

A. A.
03.04.2018
09:59:36
почему?
скорее всего он или компания их продает или типа того)

Nemo
03.04.2018
10:52:59
Везёт, я о штрафах вообще не знал, ну точне слышал истории но думал сказки
У меня другу в Баварии пришло письмо счастье на 1500 за скачанный ролик, он про него уже и думать забыл и тут здоасьте

Knuckles
03.04.2018
11:00:35
скорее всего он или компания их продает или типа того)
Уютные партнёрки никто не отменял, не обязательно что-то продавать

Luka
03.04.2018
12:18:34
Andrey
03.04.2018
12:25:04
Есть еще люди, которые не жаловались в этот орган и не получали отписки?

Viktor
03.04.2018
12:25:23
Есть

Luka
03.04.2018
12:43:33
Где можно найти список подсетей по странам?

Google
Luka
03.04.2018
12:44:18
stat.ripe.net
спасибо

Leonid
03.04.2018
12:44:45
спасибо
Но, конечно, соответствие подсети стране — это очень большая условность.

Пётр
03.04.2018
12:46:30
спасибо
у них можно db качнуть и запились себе, у них ограничение по кол-ву запросов.

Пётр
03.04.2018
12:47:17
как? зарегиться?
сек. найду манул.

Luka
03.04.2018
12:47:25
Пётр
03.04.2018
12:49:11
спс жду
https://github.com/RIPE-NCC/whois/wiki/Installation-instructions

Leonid
03.04.2018
12:52:12
Стран 200 штук. Если на один раз, то, IMHO, проще 200 раз спросить ручку https://stat.ripe.net/data/country-resource-list/data.json?resource=${iso_country_code} , чем разворачивать что-то у себя. Пару лет назад rate-limit был в духе "1 запрос в секунду".

Luka
03.04.2018
12:52:13
https://github.com/RIPE-NCC/whois/wiki/Installation-instructions
я ак понял проще вот ссылка? ftp://ftp.ripe.net/ripe/dbase/ripe.db.gz

Пётр
03.04.2018
12:59:35
я ак понял проще вот ссылка? ftp://ftp.ripe.net/ripe/dbase/ripe.db.gz
проще? я кинул сразу всю инфу, где скачать, что содержит итд.

Andrey
03.04.2018
13:19:23
таки хто чем виндовые системные диски нынче шифрует? :)

Николай
03.04.2018
13:22:20
Wanna Cry

Andrey
03.04.2018
13:22:34
отличный вариант, но работать неудобно с документами

Luka
03.04.2018
13:32:41
Andrey
03.04.2018
13:43:25
Хммм, а что может еще влиять на то, что древняя ХР неправильно резолвит имя? nslookup от сервера дает правильный внешний IP а трасерт, пинг, открытие в браузере - локальный адрес, непонятно где спрятанный, чот не помню как так можно еще. hosts говорят пустой

Блин, там вероятно ipx протокол ещё, а я о нем ничего не помню. ?

Elgis
03.04.2018
15:23:41
Всем привет, у кого то есть ссылка на трансляцию с митапа mail.ru?

Image
03.04.2018
15:24:41
Привет, https://www.youtube.com/watch?v=Qw7pvsCTank (надеюсь можно кидать?)

Elgis
03.04.2018
15:25:24
Спасиб

Страница 1343 из 1477