Un robot de un buscador , llamado tambien spider o crawler , es un programa que accede de forma automatica a paginas web y recolecta una determinada informacion sobre su contenido , frequentemente las palabras clave y los enlaces de la pagina en cuestion.
Cualquier buscador de paginas web , necesita disponer de una base de datos con la informacion de todas las paginas que pueden llegar a aparecer en la pagina de resultados, esta base de datos, se rellena utilizando precisamente un rrobot distribuido entre varios ordenadores.
viernes, 27 de agosto de 2010
Suscribirse a:
Enviar comentarios (Atom)
No hay comentarios:
Publicar un comentario