Я так понимаю из большого объёма информации( которая изменяется) получают результат?
Если простыми словами, то парсинг это преобразование одних данных в другие. Откуда они берутся и куда сохраняется результат - вариантов очень много. Как часто меняются данные и соответственно как часто должен повторно работать парсер (и должен ли вообще) - это также зависит от ситуации.
Отличительной чертой парсинга обычно является то, что входящие данные плохо или вообще не структурированные, т.е. прежде чем их откуда-то взять и куда-то записать, нужно провести какие-то манипуляции. Также парсинг служит зачастую автоматизацией сбора данных именно на большом кол-ве входящей информации. Ведь если информации мало и она не меняется, нам проще обработать её вручную.
Два примера для парсинга:
Сбор списка фильмов с КиноПоиска. Перебираем каждый фильм брутфорсом, берём только нужные нам данные, возможно для полноты данных собираем их из двух параллельных источников, скажем imdb в добавок к КиноПоиску, и сохраняем результат в базу данных.
Пример номер 2:
На вход поступает большой файл, в котором данные лежат по неким разделителям, мы делаем сплит по строке, разбиваем по объектам и затем эти объекты передаём на обработку (допустим, в файле лежал список из 1000 прокси сервером, и мы их парсим и подставляем в запросах)
Как мы видим, парсинг бывает разных уровней сложности и требований к знаниям. Иногда сайты даже имеют динамическую структуру SPA + ограничение по запросам в минуту + требование к аутентификации, из-за чего приходится писать очень много дополнительной логики