- El conocimiento de las características propias de los documentos existentes en Internet, y
- La teoría de la recuperación de información
Según la creación del recurso:
La creación de listados, índices y catálogos ordenados por áreas o materias, de forma que el usuario dispusiese de un conjunto de fuentes seleccionadas en las que empezar a buscar. El ejemplo más conocido es el norteamericano Yahoo!. Han ido añadiendo motores internos a sus prestaciones, de forma que permiten consultar mediante ecuaciones sus
bases de datos. La creación automática de bases de datos basadas en índices o ficheros
inversos, mediante unas aplicaciones que rastrean o exploran todo el ámbito Web, llamados robots, spiders o wanderers. Estos robots rastrean el web a la búsqueda de documentos, obtienen una copia, la indizan, y usan los enlaces presentes en los mismos para localizar nuevos documentos
Según la herramienta utilizada:
- Directa: El navegador se conecta al servidor Web que actúa como interfaz del motor de búsqueda correspondiente a la base de datos que desea consultar. El servidor le envía una página Web que actúa como interfaz de interrogación, a través de la cual formula la consulta. El servidor la recibe, procesa y envía como respuesta una nueva página Web, generada de forma dinámica, que contiene las respuestas más pertinentes a la cuestión formulada por el usuario.
- Por intermediario: El navegador se conecta a un servidor web que le ofrece una interfaz de interrogación propia. Esta interfaz le permite interrogar una base de datos correspondiente a un motor de búsqueda situado en un servidor web diferente al que ofrece la interfaz. La interfaz actúa como intermediario entre el motor de búsqueda de destino y el usuario. El interés de estos intermediarios (metabuscadores) se da cuando consultan a múltiples motores de búsqueda.
- Por agente: El usuario instala en su computador una aplicación que permite formular las ecuaciones de búsqueda y remitirlas a uno o varios motores de búsqueda.
Finalmente y dependiendo de las prestaciones del agente, las respuestas pueden ser filtradas, aplicando criterios propios de eliminación de duplicados, reordenación de resultados, etc.
4. Por robot personal2: Se trata de aplicaciones que se instalan en el
computador del usuario, y que son capaces de acceder a un servidor web,
construir un mapa de índices de sus contenidos, y utilizar los mismos para
acceder a la información que sea interesante para el usuario, obteniendo
copias de las páginas o documentos web contenidos en el mismo.
No hay comentarios:
Publicar un comentario