Última Atualização 13 de janeiro de 2021
QUESTÃO CERTA: Pode-se recorrer a software conhecidos como scrapers para coletar automaticamente e visualizar dados que se encontram disponíveis em sítios de navegabilidade ruim ou em bancos de dados difíceis de manipular.
Data Scraping (raspagem de dados) é uma técnica que coleta dados de bases de dados complexas (com muitas tabelas e relacionamentos) ou de sites de difícil navegabilidade, processa automaticamente esses dados e os exibe de uma forma mais legível – ele transforma dados pouco estruturados em dados mais estruturados e fáceis de manipular.
Raspagem de dados (Scraping)
Dentre as técnicas utilizadas para se trabalhar com big data, podemos destacar a de web scraping, ou de raspagem de dados na web. Os scrapers
Os scrapers extraem os dados e dão a eles uma certa estrutura para que fiquem em um formato de mais simples e maleável de se trabalhar. As ferramentas de scraping não costumam ser tão complexas, mas pode ser desafiador raspar dados na internet. A falta de padronização dos dados não estruturados pode tornar a tarefa bastante complicada.