fbpx

Cuando hablamos de SEO (del inglés search engine optimization) tenemos que hablar obligatoriamente de los motores de búsqueda y por eso intentaremos explica qué es un motor de búsqueda. Básicamente un motor de búsqueda es un software o programa que localiza contenidos en Internet de una forma rápida y muy eficiente para luego, en función de tus peticiones de búsqueda, presentar los resultados que ha almacenado previamente en su base de datos.

Para poder mostrar estos resultados a los usuarios es que el motor de búsqueda crea su propia base de datos para poder presentarte los diferentes resultados en función de peticiones de búsqueda, esta información se está actualizando constantemente con el fin de mantener la información lo más actualizada posible.

Hoy en día los motores de búsqueda más conocidos son: Google, Bing y Yahoo.

 ¿Cómo funciona un motor de búsqueda?

Un motor de búsqueda, en palabra sencillas, está compuesto por cuatro partes:

  • Un interfaz para el usuario para hacer peticiones de búsqueda
  • Un robot o spider que busca la información en Internet
  • Un algoritmo que conecta las peticiones de los usuarios con la base de datos
  • Y una base de datos donde se han indexado los contenidos

El eje central y columna vertebral de los motores de búsqueda está centrada en el algoritmo que dirige al robot o spider y después categoriza la información que se mostrará tras las peticiones de los usuarios.

Estos algoritmos son realmente complejos y solo sus propios desarrolladores saben cómo funcionan. Sin embargo, el algoritmo no vale de nada si el buscador no cumple con otras dos funciones como:

  • Recoger la información usando técnicas de web crawling
  • Almacenar e indexar la información

Principalmente los motores de búsqueda crean listados de páginas web utilizando sus spiders o robots a través de técnicas de ´web crawling´ y después organizan la información encontrada, creando índices de los contenidos.

Organizando la información mediante la indexación

Una vez que el robot o spider, también conocido como web crawler (de ahí el nombre link crawling), encuentra la información, se crea un indice (index en inglés) con la información esencial de la página web que se almacena en la base de datos y que únicamente será mostrado a los usuarios cuando estos hagan su petición en el interfaz de búsquedas del motor de búsqueda. De que se muestre o no lo información indexada bajo una petición del usuario depende en última instancia del algoritmo del buscador.

El algoritmo hace de intermediario entre la base de datos y las peticiones del usuario que usan palabras claves en los buscadores para encontrar una información específica. El él quien decide cual  información se va mostrar para una petición del usuario.

Comparte nuestro contenido

Share this post with your friends!