viernes, 27 de agosto de 2010

Buscadores de internet.Robot.

Un robot de un buscador , llamado tambien spider o crawler , es un programa que accede de forma automatica a paginas web y recolecta una determinada informacion sobre su contenido , frequentemente las palabras clave y los enlaces de la pagina en cuestion.
Cualquier buscador de paginas web , necesita disponer de una base de datos con la informacion de todas las paginas que pueden llegar a aparecer en la pagina de resultados, esta base de datos, se rellena utilizando precisamente un rrobot distribuido entre varios ordenadores.

No hay comentarios:

Publicar un comentario