Веб-краулер (поисковый робот) — это программа или алгоритм, который автоматически просматривает и собирает данные с веб-сайтов. Он переходит по ссылкам и извлекает контент, такой как текст, изображения или метаинформацию. Основное применение веб-краулеров — индексация веб-страниц для поисковых систем, анализ данных или мониторинг изменений на сайтах.