A mediados de los 90′ aparece Lycos, el primer motor de búsqueda y WebCrawler, el primer robot que comienza a indexar el contenido de Internet. Más adelante nacen Altavista, Infoseek y Yahoo!, este último incluye resultados obtenidos de forma manual. Para este momento, la optiminización de los sitios web, con el número de repeticiones de las frases clave es lo fundamental para estar en los buscadores. Ya para entonces, administradores de sitios web y proveedores de contenido, empezaron a optimizar páginas web en los buscadores, tan pronto los motores de búsqueda empezaban a clasificar el primer Internet.
En un principio, estos administradores lo que tenían que hacer era enviar una dirección IP de un sitio o una URL a los distintos buscadores, los que enviarían una araña web (programa que inspecciona páginas web), a examinar ese sitio, extraer los enlaces hacia otras páginas de esa web y regresar la información suministrada para posteriormente indexarla o registrarla. En otras palabras, el proceso consistía en que una araña web que descarga y almacena una página en los motores de búsqueda, donde otro programa llamado indexador, recoge la información del sitio (las palabras que contiene, su ubicación, la relevancia de algunas de estas y los vínculos de la página) para posteriormente almacenarlo en un proceso programado y luego ser analizados. Los dueños de las diferentes páginas webs para la época se percataron de la importancia y el valor de tener unos sitios bien posicionados y visibles para los buscadores, creando una oportunidad para los usuarios de las primeras herramientas SEO. Según Danny Sullivan, el término “Optimización de motores de búsqueda”, empezó a utilizarse en el año 1972 y el primer uso documentado de “Optimización de Motores de Búsqueda (SEO)”, proviene de John Audette y su empresa Multimedia Marketing Group en el año 1997.
Los primeros algoritmos de búsqueda se fundamentaban en los datos que otorgaban los administradores web a través de sus sitios, como las palabras clave meta tag. El meta tag otorgaba una guía del contenido de cada página. Este método no era demasiado preciso debido a que las palabras del meta tag podían diferir del contenido real de la web, por lo que muchos datos incompletos, imprecisos e inconsistentes podían hacer que muchos sitios se posicionaran para búsquedas poco relevantes. Asimismo, existían otros abusos para posicionar las páginas, como manipular una serie de atributos en el código de fuente HTML de las estas. Dada la importancia otorgada a elementos como la densidad de las palabras clave, los primeros buscadores sufrieron el abuso y la manipulación de las clasificaciones. Por lo que para ofrecer mejores resultados de búsqueda a los usuarios, estos debían garantizar que sus páginas mostraran resultados de calidad en lugar de sitios poco o nada relacionados con la consulta realizada.
Sabiendo que el éxito y la notoriedad de los motores de búsqueda estaban estrechamente relacionados con su capacidad de ofrecer resultados relevantes para los usuarios, estos buscadores no podían permitir que dichos resultados fueran falsos, ya que esto ocasionaría que los internautas acudieran a otros motores de búsqueda. En este sentido, se desarrollaron algoritmos más complicados teniendo en consideración otros elementos adicionales para que sean más difíciles de manipular por los administradores de sitios web.
En este sentido, Larry Page y Sergey Brin, desarrollaron un motor de búsqueda basado en un algoritmo matemático que apuntaba a la relevancia o importancia de los sitios webs. El nombre del número que calcularía este algoritmo sería PageRank. Este realiza un estimado de la posibilidad de que una página sea visitada por un internauta que navega aleatoriamente por la web y sigue vínculos de una página a otra. Esto significaba que unos vínculos o enlaces eran mucho más fuertes que otros, por lo que un sitio con un PageRank muy alto tendría una mayor probabilidad de ser visitado por un usuario aleatorio que uno que tuviera ese indicador muy bajo. Es entonces cuando Page y Brin en 1998 deciden fundar Google, buscador que, desde el principio, atrajo a muchos usuarios de Internet que posteriormente, se volverían seguidores fieles. A partir de ese momento aparecieron otros criterios de relevancia como los factores externos a las páginas (análisis de vínculos y PageRank) así como factores internos (meta tags, estructura del sitio web, palabras clave, entre otros) para evitar la manipulación abusiva de los administradores de sitios webs.
En los últimos años comenzaron a aparecer una serie de actualizaciones de mayor relevancia del buscador de Google (Panda, Penguin y Humminbird). Estas actualizaciones están fundamentadas sobre los parámetros de posicionamiento web, incluyendo criterios asociados a las nuevas tendencias de búsqueda de los internautas, teniendo en cuenta las redes sociales y su importancia como herramientas de posicionamiento en los motores de búsqueda.
Dejar una Respuesta