¿Qué es 'web scraping'?

Web Scraping es una técnica utilizada mediante programas de software para extraer información de sitios web. Usualmente, estos programas simulan la navegación de un humano en la World Wide Web ya sea utilizando el protocolo HTTP manualmente, o incrustando un navegador en una aplicación como puede ser Internet Explorer o Mozilla Firefox.

El Web Scraping está muy relacionado con la indexación de la web, lo cual indexa información de la web utilizando un robot y es una técnica universal adoptada por la mayoría de los motores de búsqueda. Sin embargo, el web scraping se enfoca más en la transformación de datos sin estructura en la web, como el formato HTML, en datos estructurados que pueden ser almacenados y analizados en una base de datos central, en una hoja de cálculo o en alguna otra fuente de almacenamiento. El término Web Scraping también está relacionado con la automatización de tareas en la Web, lo cual simula la navegación de un humano utilizando un software de computadora. Alguno de los usos principales del Web Scraping son la comparación de precios en tiendas, monitorizar datos relacionados con el clima de cierta región, detectar cambios en sitios webs y la integración de datos en sitios webs.

Es una variante de la técnica más general Screen scraping.

Técnicas.-

Web Scraping es el proceso de recopilar información de forma automática de la Web. Es un campo con desarrollos activos, compartiendo un propósito en común con la visión de la web semántica. Utiliza soluciones prácticas basadas en tecnologías existentes que son comúnmente ad hoc. Existen distintos niveles de automatización que las existentes tecnologías de Web Scraping pueden brindar:

  • Copiar-y-Pegar humano: Algunas veces incluso las mejores técnicas de Web Scraping no pueden reemplazar la examinación manual de un humano, y a veces esta puede ser la única vía de solución cuando el sitio que tenemos en mente pone ciertas barreras para prevenir que se creen softwares para realizar tareas automáticas en este.
  • Uso de expresiones regulares: Una posible vía para extraer información de páginas webs pueden ser las expresiones regulares, aunque comúnmente no se recomienda utilizarlas para parsear el formato HTML.
  • Protocolo HTTP: Páginas webs estáticas y dinámicas pueden ser obtenidas haciendo peticiones HTTP al servidor remoto utilizando sockets, etc.
  • Algoritmos de minería de datos: Muchos sitios webs tienen grandes colecciones de páginas generadas dinámicamente a partir de una base de datos. Datos de la misma categoría aparecen usualmente en páginas similares mediante un script o una plantilla. En la minería de datos, un programa detecta estas plantillas en un contexto específico y extrae su contenido.
  • Parsers de HTML: Algunos lenguajes, como XQuery y HTQL pueden ser utilizados para parsear documentos, recuperar y transformar el contenido de documentos HTML.
  • Aplicaciones para Web Scraping: Existen muchas aplicaciones disponibles que pueden ser utilizadas para personalizar soluciones de Web Scraping. Estas aplicaciones pudieran reconocer automáticamente la estructura de cierta página o brindar una interfaz al usuario donde este pudiera seleccionar los campos que son de interés dentro del documento. De esta forma no es necesario escribir manualmente código para realizar estas tareas.
  • Reconocimiento de información semántica: Las páginas que son analizadas podrían incluir metadatos o cierta información semántica como anotaciones o comentarios, los cuales pueden ser usados comúnmente. Si estas anotaciones están en las mismas páginas, como sucede con los Microformatos, estas podrían ser de utilidad cuando parseamos el DOM del documento. En otro caso, las anotaciones, organizadas en una capa semántica, son almacenadas y manejadas de forma separada desde otras páginas, por lo que los scrapers pueden recuperar estos esquemas y las instrucciones desde esta capa antes de analizar los documentos.

Cuestiones legales.-

El Web Scraping pudiera ir encontra de los términos de uso de algunos sitios webs. El cumplimiento de estos términos no está totalmente claro. Mientras que la duplicación de expresiones originales puede ser en muchos casos ilegal, en Estados Unidos la corte dictó en Feist Publications v. Rural Telephone Service que la duplicación de hechos es permitida. Las cortes de Estados Unidos en ciertas ocasiones han reconocido que ciertos usos de los scrapers no deberían estar permitidos. Podría considerarse una computadora como una propiedad personal, y de esta forma el scraper estaría entrando sin autorización en esta propiedad. En el caso más conocido, eBay vs Bidder's Edge, la segunda empresa tuvo que parar de realizar peticiones automáticas al sitio de eBay. En este caso, Bidder's Edge pujaba automáticamente por ciertos productos en este sitio.

Uno de las principales pruebas de scraping involucró a American Airlines y a una empresa llamada FareChase. American Airlines ganó esta batalla, haciendo que FareChase parara de vender un software que le permitía a los usuarios comparar tarifas en linea si el sitio de American Airlines era incluido. La aerolínea dijo que las búsquedas de FareChase entraban sin autorización en los servidores cuando recopilaban la información públicamente disponible.

Southwest Airlines también ha sido víctima de prácticas de web scraping, y ha involucrado también a FareChase y a otra empresa llamada Outtask.

Aunque las decisiones actualmente tomadas no son uniformes, es difícil ignorar que un patrón está emergiendo, en el cual podemos ver que las cortes están preparándose para proteger el contenido propietario en sitios webs comerciales, previendo de esta forma que este sea utilizado sin el consentimiento de los propietarios de los sitios. Sin embargo, el grado de protección de estos contenidos aún no está establecido, y dependerá de el tipo de acceso realizado por los scrapers, de la cantidad de información recopilada y de el grado en el que afecten estos factores al propietario del sitio web.

Medidas técnicas para detener a los scrapers.-

El administrador de un sitio web puede utilizar varias técnicas para detener o disminuir los pedidos de los scrapers. Algunas técnicas incluyen:

  • Añadir entradas al fichero robots.txt. Google y otros bots pueden ser detenidos de esta forma.
  • Bloquear la dirección IP. Esto también bloqueará todos los accesos desde esa misma IP, por lo que los usuarios no podrán navegar por el sitio web si acceden desde esta.
  • Deshabilitar cualquier API que el sitio web pudiera estar brindando.
  • Los bots o scrapers algunas veces declaran quienes son, y gracias a esto pueden ser bloqueados. «googlebot» es un ejemplo. Algunos scrapers no hacen distinción entre ellos y un navegador común.
  • Monitorear el exceso de tráfico proveniente de cierta IP.
  • Añadir un CAPTCHA u otro sistema de verificación manual al sitio web. No se garantiza el completo bloqueo de los scrapers, pero mediante esta técnica se dificulta el acceso de los mismos a los sitios webs.
  • Servicios comerciales anti-bots: Muchas compañías, como Distil, SiteBlackBox y Sentor, ofrecen servicios anti-bot y anti-scraping.
  • Incrementar el uso de JavaScript y AJAX. De esta forma es más difícil para los scrapers simular las peticiones como si fueran un navegador común.

VOLVER

  • 2 Los Usuarios han Encontrado Esto Útil
¿Fue útil la respuesta?

Artículos Relacionados

¿Qué el correo no deseado (spam)?

Se llama Spam a los mensajes no solicitados, no deseados o de remitente no conocido (correo...

¿Qué es un dominio de Internet?

El dominio es sin duda lo más necesario y principal a la hora de montar cualquier servicio o...

¿Qué es una Red Social en Internet?

El concepto red social en el ámbito de internet: son páginas que permiten a las personas conectar...

¿Por qué recibo "spam" y como puedo evitarlo?

El "spam" (correo basura) es un problema continuo que cuesta a los negocios e individuos miles de...

¿Qué es el sistema DNS?

El Sistema de nombres de dominio (o Domain Name System. DNS, en inglés) ) es un sistema de...

Powered by WHMCompleteSolution