El posicionamiento en buscadores, optimización en motores de búsqueda o SEO (del inglés search engine optimization) es un conjunto de acciones orientadas a mejorar el posicionamiento de un sitio web en la lista de resultados de Google, Bing, u otros buscadores de internet.[1] El SEO trabaja aspectos técnicos como la optimización de la estructura y los metadatos de una web, pero también se aplica a nivel de contenidos, con el objetivo de volverlos más útiles y relevantes para los usuarios.
La optimización para motores de búsqueda (SEO) ha sido una práctica clave desde los primeros días de internet. A mediados de la década de 1990, cuando los motores de búsqueda comenzaron a catalogar el incipiente mundo online, los administradores de páginas web y proveedores de contenido empezaron a optimizar sus sitios web para dichos motores. Inicialmente, motores como Yahoo! permitían la inclusión manual de sitios web que solicitaban su indexación. Aunque el término «SEO» ya se utilizaba en esas prácticas, no se popularizó hasta más adelante. Se cree que fue empleado por primera vez alrededor de 1997 por el buscador 'Ask'. A lo largo de la década de 2000, con el auge del marketing digital, «SEO» se convirtió en una palabra común, reflejando su creciente relevancia para mejorar la visibilidad en los resultados de búsqueda.[2]
Al principio, bastaba con que los administradores de páginas web enviaran la dirección de una página web (o URL) a los motores de búsqueda, que enviaban una araña web o rastreador web para inspeccionar el sitio, extraer vínculos hacia otras páginas y devolver la información para ser indexada. Este proceso involucraba la descarga de la página por parte del rastreador, su almacenamiento en los servidores del buscador, y el análisis por un programa conocido como indexador, que extraía palabras clave, su ubicación, relevancia y enlaces para su posterior rastreo.
Los propietarios de sitios web comenzaron a apreciar el valor de estar bien posicionados en los resultados de búsqueda, lo que derivó en el uso de técnicas SEO de sombrero blanco y sombrero negro (white hat y black hat). Según el experto Danny Sullivan, el término optimización de motores de búsqueda comenzó a utilizarse en agosto de 1997,[3] por John Audette y su empresa, Multimedia Marketing Group, según consta en una página de dicha compañía.
Las primeras versiones de los algoritmos de búsqueda se basaban en información proporcionada por los propios administradores web, como las palabras clave incluidas en las metaetiquetas o archivos indexados en motores como ALIWEB. Estas metaetiquetas servían como guía sobre el contenido de cada página. Sin embargo, los metadatos ofrecían escasa fiabilidad, ya que los términos allí incluidos podían no representar adecuadamente el contenido real. Esta inexactitud provocaba que algunas páginas se posicionaran en búsquedas irrelevantes.[4] Además, muchos webmasters manipulaban diversos atributos del código fuente HTML con el objetivo de lograr un buen posicionamiento.[5] Motores como Altavista incluso permitían pagos para aparecer en primeras posiciones o priorizaban sitios con más antigüedad.
Debido al abuso de estas prácticas, los motores de búsqueda comenzaron a desarrollar algoritmos más complejos para mostrar resultados más relevantes y evitar manipulaciones. Como la densidad de palabras clave dependía exclusivamente del administrador del sitio, muchos resultados no respondían a la intención del usuario. El éxito de un motor de búsqueda dependía directamente de su capacidad para mostrar resultados relevantes, por lo que mejorar sus algoritmos se convirtió en una prioridad.
Durante sus estudios de posgrado en la Universidad de Stanford, Larry Page y Sergey Brin desarrollaron un motor de búsqueda llamado Backrub, basado en un algoritmo matemático que puntuaba la relevancia de las páginas web. Este algoritmo calculaba un número denominado PageRank, el cual estimaba la probabilidad de que una página fuese vista por un usuario que navegara aleatoriamente, siguiendo vínculos entre páginas. Así, los enlaces de páginas con mayor PageRank otorgaban mayor autoridad a otras páginas.
En 1998, Page y Brin fundaron Google. Su interfaz sencilla —limitada a un cuadro de búsqueda y el logotipo— fue inicialmente resultado de su desconocimiento de HTML, pero agradó a los usuarios. Google incorporó factores externos como PageRank y análisis de vínculos, así como internos como frecuencia de palabras clave, etiquetas meta, cabeceras, estructura del sitio, enlaces y velocidad de carga, lo cual permitió evitar manipulaciones más comunes en otros motores.
En el año 2000, Google lanzó la Google Toolbar, una barra que mostraba el PageRank público, en una escala de 0 a 10. Este valor, visible públicamente, se actualizó hasta diciembre de 2013.
Aunque el PageRank era más difícil de manipular, los administradores pronto desarrollaron estrategias para alterarlo. Muchos sitios se enfocaron en comprar, vender e intercambiar enlaces a gran escala, incluso creando granjas de enlaces cuyo único fin era generar vínculos irrelevantes mediante técnicas de linkbuilding.
En 2004, los motores ya habían incorporado numerosos factores no divulgados en sus algoritmos para dificultar la manipulación. En 2007, Hansell del New York Times afirmó que se usaban más de 200 factores. Sin embargo, motores como Google, Bing y Yahoo nunca han hecho públicos sus algoritmos. Algunos expertos han recurrido al análisis de patentes o experimentación para inferir el funcionamiento de dichos sistemas.
En 2005, Google comenzó a personalizar los resultados según el historial de búsqueda del usuario. En 2008, Bruce Clay declaró que «el posicionamiento está muerto», dado que la personalización hacía irrelevante el análisis del posicionamiento universal de un sitio.
Ese mismo año, Google inició una campaña contra la compra de enlaces para manipular el posicionamiento,[6] y propuso el atributo rel="nofollow"
para enlaces comerciales, como en:
<a href="https://otrodominio.com" rel="nofollow">Visita esta web</a>
.
Este atributo sirve para indicar a los motores que no deben seguir determinados enlaces.[7]
En 2007, Matt Cutts confirmó que este atributo también era útil para enlaces internos, permitiendo controlar la distribución del PageRank en el propio sitio.[8] Sin embargo, su uso masivo llevó a Google, en 2009, a cambiar el modo en que contaba estos enlaces: aunque los enlaces con "nofollow" no transmitían PageRank, sí se incluían en el reparto de este, diluyéndolo.[9]
Para sortear estas limitaciones, algunos SEOs comenzaron a usar otras etiquetas HTML como <span>
o <div>
, combinadas con JavaScript y codificación Base64 para simular enlaces que el usuario podía ver, pero que no eran rastreados por Google.[10]
En diciembre de 2009, Google anunció que usaría el historial de búsqueda de todos los usuarios para personalizar resultados.
A finales de 2010, introdujo Google Instant, una funcionalidad de búsqueda en tiempo real. Esto pretendía mostrar resultados más actuales, adaptándose al auge de redes sociales y blogs, que demandaban mayor inmediatez en el posicionamiento de contenidos.
En febrero de 2011, Google lanzó la actualización "Panda", que penaliza sitios con contenido duplicado o de baja calidad. Hasta ese momento, muchas páginas web mejoraban su clasificación copiando contenido de terceros.
En abril de 2012, llegó la actualización "Penguin", dirigida a combatir las técnicas manipuladoras como el spam SEO.
Finalmente, en septiembre de 2013, Google anunció la actualización "Colibrí", centrada en mejorar el procesamiento del lenguaje natural y la comprensión semántica de las páginas web, incluyendo avances en la eficiencia del HTML5.
El posicionamiento natural u orgánico es el que consigue una web de forma espontánea, sin que medie una campaña publicitaria.[11] Se basa en la indización o indexación que realizan unas aplicaciones denominadas arañas web para los motores de búsqueda.[12] En esta indización, las arañas web recorren las páginas web y almacenan las palabras clave relevantes en base de datos.[13]
El interés del webmaster es optimizar la estructura de una web y el contenido de la misma, así como la utilización de diversas técnicas de linkbuilding, linkbaiting o contenidos virales, aumentando la notoriedad de la web, debido al aumento de menciones. El objetivo es aparecer en las posiciones más altas posibles de los resultados de búsqueda orgánica para una o varias palabras claves concretas.
La optimización se realiza en dos sentidos:
Los buscadores suelen mostrar resultados orgánicos o naturales en un área[cita requerida], a la par de resultados de pago. El posicionamiento en estas áreas de pago, requiere del pago de ciertos servicios especiales, como Google Ads o Microsoft Ad Center, y se conoce como marketing en motores de búsqueda (en inglés: search engine marketing, frecuentemente abreviado SEM).
El servicio de Google Ads se puede contratar por impresiones (número de veces que aparecerá nuestro anuncio para una determinada palabra clave) o por clics (número de veces que además de salir impreso nuestro anuncio, será visitado o clicado por el cliente).
En la siguiente imagen puede apreciarse de forma gráfica la diferencia entre el posicionamiento orgánico y pagado. En ella se señalan los resultados que muestra Google de forma natural y los resultados que muestra por anuncios de pago de Google Ads, que también son conocidos como SEM (Search Engine Marketing).
Las actividades a desarrollarse involucran tanto cambios de programación, diseño y contenidos, las mismas alineadas a las directrices emitidas por los buscadores como buenas prácticas. Buscadores como Google[14] y Bing[15] han emitido lineamientos al respecto.
Se divide en posicionamiento interno y externo:
Son mejoras que el desarrollador web puede aplicar sobre el sitio en cuanto al contenido, apariencia, accesibilidad, etc.
Son aquellas técnicas que se emplean para mejorar la notoriedad de la web en los medios en línea. Por norma general, se busca conseguir menciones en la red, en forma de enlace, de la web a optimizar.
Rasgos públicos: Entiéndase por estos a los que son de índole declarada por los administradores o creadores de dicho algoritmo, por ejemplo podemos saber que el algoritmo de Google tienes ciertos aspectos técnicos que penalizan ciertos accionares de los administradores web o redactores de contenido. Un ejemplo práctico es Google Panda, que tiene como principal objetivo eliminar contenido copiado, duplicado o irrelevante por ser considerado Spam Web también llamado Spam SEO. Google Penguin en cambio busca las características técnicas de las páginas web, como por ejemplo: tiempos de carga, optimización de imágenes, enlaces dañados etc. También vé un factor humano importante para el Seo como es porcentaje de rebote de una página web.
Rasgos privados: Son aquellos que son mantenidos en secretos por los creadores o administradores de dicho contenido, esto es para que una persona no pueda ver el algoritmo en su totalidad y trazar una estrategia fraudulenta de posicionamiento web.
Rasgos sospechados: Son aquellos rasgos secretos discernidos en la práctica misma de la actividad, los mismos no son de carácter oficial, pero al hacer la práctica de optimización de una página web para motores de búsqueda se ven ciertas características de estos algoritmos, por ejemplo se ha descubierto que a pesar de todo lo dicho por los creadores lo más importante para los algoritmos de búsqueda es la creación de contenido relevante, fresco y necesario.
Linkbuilding o construcción de enlaces, es una técnica de SEO que consiste en conseguir que otras páginas web enlacen a la página que interesa que los buscadores consideren relevante y la posicionen mejor en sus rankings. La técnica puede hacerse de manera natural, cuando otras webs enlazan sin previo acuerdo por algún hecho o dicho, o bien de manera artificial, cuando se simula que los enlaces se han conseguido de manera natural.
Conseguir enlaces de forma artificial (linkbuilding) es una técnica que infringe las directrices para webmasters de Google. Está considerada una práctica "blackhat" y puede conllevar la pérdida de posiciones de una web por penalización por enlaces.
Esta se basa en el concepto de que uno de los factores que se incluyen dentro de la evaluación del ranking de una página es la cantidad de enlaces entrantes que tiene una página, concepto basado en el hecho de que el número de enlaces entrantes constituía uno de los factores evaluados en PageRank en 1999 por Google.[17]
Las ventajas son:
En promedio 1.5 horas[cita requerida] se utiliza para realizar linkbuilding. Sin embargo, esto depende de la capacidad del proyecto, en todo caso se[¿quién?] recomienda siempre tener un comportamiento natural ya que el buscador/es pueden sospechar de estrategias black hat SEO utilizadas para obtener mayor cantidad de enlaces no-naturales en menor tiempo, lo que conlleva a una penalización por parte del buscador hacia la web que realiza estas técnicas.
Comentarios en artículos: otra forma, no menos importante, es la de generar backlinks desde comentarios de artículos, es también una de las formas más fáciles de conseguir enlaces. Google da prioridad a los enlaces que hay en los comentarios de alguna entrada,[cita requerida] y los reconoce como un backlink válido.[cita requerida] Los comentarios en artículos siempre son aprobados o rechazados por un webmaster.
Compra de enlaces: los enlaces de pago o bolsa de enlaces, son utilizados por gran cantidad de expertos en SEO y webmaster con el fin de ahorrarse tiempo buscando ellos mismos los enlaces hacia sus sitios. Muchos sitios en línea se dedican a la venta de enlaces con alto PageRank. Google por su parte considera esta técnica como black hat SEO también y por ende penaliza a quienes lo hacen.[cita requerida]
Tipos de linkbuilding:
El SEO internacional es el conjunto de estrategias destinadas a optimizar el posicionamiento de un sitio web en múltiples regiones geográficas o idiomas, con el objetivo de atraer tráfico relevante desde distintos países o mercados. A diferencia del SEO local, que se centra en una región específica, el SEO internacional gestiona la presencia digital de un sitio en varios contextos culturales y lingüísticos.
Las prácticas comunes del SEO internacional incluyen:
El SEO internacional actúa como una herramienta clave dentro de la estrategia de internacionalización empresarial, tanto para captar demanda existente como para generar nueva demanda en mercados exteriores. Su implementación ayuda a proyectar una imagen de autoridad y fiabilidad ante nuevos usuarios, especialmente en contextos donde la marca aún no es reconocida.
Entre sus beneficios principales se encuentra la posibilidad de conocer mejor los nuevos mercados mediante el análisis de búsquedas y tendencias, lo cual facilita la toma de decisiones sobre qué productos lanzar, cuándo hacerlo y en qué regiones. También permite detectar fluctuaciones estacionales, evaluar la madurez de cada mercado y descubrir posibles socios estratégicos a través del análisis de la competencia local.
Además, el SEO internacional contribuye a mejorar la visibilidad y credibilidad de una marca en los resultados de búsqueda de cada país, lo que puede traducirse en una mayor generación de ventas o leads cualificados según el caso. Su naturaleza orgánica lo convierte en una estrategia rentable a largo plazo, y su efecto se potencia cuando se integra con otros canales de marketing digital y/o con la estrategia comercial de un proyecto.[21]
Algunas de estas nuevas tecnologías son:
A medida que avanza la comprensión de los que los usuarios desean encontrar en el buscador y lo que los webmasters ofrecen, Google ha ido actualizando[24] su algoritmo a lo largo del tiempo, lo que a su vez ha podido afectar al posicionamiento de todos los sitios en Internet sea cual sea su temática o sector.
Google ha llevado a cabo algunos cambios en la documentación de ayuda para los webmasters, especialmente en lo que a ranking se refiere. Hasta el 27 de mayo de 2013 decía:
In general, webmasters can improve the rank of their sites by increasing the number of high-quality sites that link to their pages.En general, los webmasters pueden mejorar el ranking de sus sitios aumentando el número de sitios de alta calidad que enlazan en sus páginas.
Tras los cambios, pasó a decir:
In general, webmasters can improve the rank of their sites by creating high-quality sites that users will want to use and share.En general, los webmasters pueden mejorar el ranking de sus sitios creando sitios de alta calidad que los usuarios quieran utilizar y compartir.[25]
Este cambio es consistente con lo que Google quiere de los administradores de sitios web: menos linkbuilding y más calidad, y toma en cuenta el factor de interacción de las personas con el contenido propio de cada página. Dentro de estos factores destacan: el tiempo de permanencia en el sitio web, el porcentaje de rebote, los comentarios que se realizan en la página, y las veces que se comparten en las redes sociales. Cabe mencionar las herramientas proporcionadas por Google y Bing, etc., como Herramientas de Webmaster de Google y Google Analytics (gratuita y de pago).
El 20 de mayo de 2014 Google actualizó el algoritmo de su buscador, específicamente el «Panda» a Panda 4.0[26] con lo que empresas reconocidas del sector como: PRWeb.com, BusinessWire.com, etc., vieron reducidas sus posiciones en el buscador debido a la actualización mencionada.
En 2016 Google incorpora el proyecto AMP[27] o páginas aceleradas móviles. Es una iniciativa open source con objetivo de que el usuario acceda al contenido de una manera más rápida y sencilla, de manera casi instantánea, evitando demoras en la carga de los sitios web. Implementar AMP en un portal tiene un impacto positivo en el posicionamiento web para búsquedas móviles.[28] El 4 de noviembre de 2016 Google mediante un comunicado oficial indicó que indexaría los contenidos dando prioridad a las webs para móviles frente a las desktop, por lo que la utilización de AMP también afecta los resultados para las búsquedas en desktop.[29]
En 2021 toma gran fuerza la búsqueda mediante la voz gracias a productos como Google Home, Alexa y los teléfonos inteligentes. Los usuarios se familiarizan con realizar búsquedas a través del audio. El SEO no solamente se realiza en texto o imágenes sino también se tiene en cuenta los vídeos y los podcasts.[30]
En mayo de 2024, Google anunció el lanzamiento global de las llamadas AI Overviews (o "vistas creadas con IA") en su buscador. Estas vistas, impulsadas por un modelo personalizado de la familia Gemini, permiten a los usuarios obtener respuestas generadas por inteligencia artificial directamente desde los resultados de búsqueda, sin necesidad de visitar varios sitios para recopilar información. Inicialmente activadas de forma experimental en Search Labs, estas funcionalidades comenzaron a implementarse de forma general para usuarios en Estados Unidos, con una expansión prevista a más de mil millones de personas para finales de año.[31]
Las AI Overviews resumen la información sobre una consulta compleja, proporcionando además enlaces relevantes para profundizar en el tema. Google ha indicado que los usuarios que interactúan con estas vistas tienden a explorar una mayor diversidad de fuentes, y que los clics sobre los enlaces sugeridos por la IA son de mayor calidad, lo que implica más tiempo de permanencia en los sitios enlazados.[32]
Desde el punto de vista del SEO, Google ha señalado que no es necesario realizar optimizaciones específicas para aparecer en las vistas creadas con IA, pero sí es imprescindible seguir las prácticas recomendadas generales de posicionamiento, como disponer de contenido indexable, relevante y técnicamente accesible. Aun así, el despliegue de esta funcionalidad ha generado debate en la comunidad de editores web, al afectar el modelo tradicional de visibilidad y tráfico orgánico en las SERP.