Data scraping

0
272

Última Atualização 13 de janeiro de 2021

QUESTÃO CERTA: Pode-se recorrer a software conhecidos como scrapers para coletar automaticamente e visualizar dados que se encontram disponíveis em sítios de navegabilidade ruim ou em bancos de dados difíceis de manipular.

Data Scraping (raspagem de dados) é uma técnica que coleta dados de bases de dados complexas (com muitas tabelas e relacionamentos) ou de sites de difícil navegabilidade, processa automaticamente esses dados e os exibe de uma forma mais legível – ele transforma dados pouco estruturados em dados mais estruturados e fáceis de manipular.

Raspagem de dados (Scraping)

Dentre as técnicas utilizadas para se trabalhar com big data, podemos destacar a de web scraping, ou de raspagem de dados na web. Os scrapers

Advertisement
 são softwares que têm como objetivo extrair grandes volumes de dados da internet, predominantemente não estruturados, como dados em formato textual (posts em redes sociais, blogs, etc.). 

Os scrapers extraem os dados e dão a eles uma certa estrutura para que fiquem em um formato de mais simples e maleável de se trabalhar. As ferramentas de scraping não costumam ser tão complexas, mas pode ser desafiador raspar dados na internet. A falta de padronização dos dados não estruturados pode tornar a tarefa bastante complicada.