Archivos

Despierta tu imaginación y crea tu aplicación para la chrome web store

Sabemos que no te faltan ideas y que a veces solo se necesita un incentivo para ponerse a crear y desarrollar. Algunos de vosotros seguro que ya lo habéis hecho en el pasado pero otros quizás no os habéis aventurado todavía por eso, hemos creado un concurso para la chrome web store, y te queremos invitar a participar.


A partir de hoy y hasta el 20 de enero tienes la posibilidad de enviar tu aplicación que se puede enmarcar en estas 4 categorías: ocio, social y comunicación, educación y utilidades y si crees que no encaja con ninguna de las anteriores indica la categoría que crees que más se ajusta y la evaluaremos. Puedes participar de manera individual o en grupo, hasta un máximo de tres participantes.


Las aplicaciones seleccionadas aparecerán en la versión española de chrome web store y formarán parte de una campaña de visibilidad online. Se elegirá una aplicación ganadora por categoría y además habrá otro premio para la aplicación más accesible.


Toda la información y bases del concurso las puedes encontrar aquí.


Así que no te lo pienses y ponte a crear...empieza la cuenta atrás!


Inês Gonçalves
Google España

Compraventa de enlaces: Recordando nuestra posición

De vez en cuando creemos oportuno recordar a los webmasters y/o dueños de páginas web cuál es la postura de Google ante los enlaces de pago. No solo porque cada día hay cientos, sino miles, de nuevas páginas web, cuyos webmasters empiezan a familiarizarse con Internet, los motores de búsqueda y sus políticas, sino también por las preguntas alrededor de este tema que recibimos en nuestro Foro de ayuda para webmasters.

Teniendo en cuenta que nuestro objetivo es presentar a los usuarios resultados equitativos y precisos, y que este tipo de técnicas tiene la intención de manipular los mismos, nos ustaría aclarar una vez más algunos puntos sobre este tema:
  • Somos bastantes precisos a la hora de detectar los enlaces de pago y tomar acción sobre ellos, tanto de forma algorítmica como manual, así que si sospechas que hay algún sitio web comprando y/o vendiendo enlaces siempre puedes decírnoslo a través de nuestro rediseñado informe de spam.
  • Google actúa sobre todos los sitios con la misma contundencia y rigor, sin importar la popularidad o el tamaño del sitio web. En algunos casos los efectos de nuestras acciones pueden que no sean visibles con efecto inmediato como explicamos en este artículo.
Así que... ¿qué hacer?

Si un webmaster decide comprar y/o vender enlaces y no quiere que esto repercuta de forma negativa en el posicionamiento de su sitio web puede utilizar el rel=“nofollow”, o bien redireccionarlos a través de una página que esté bloqueada en el archivo robots.txt, y así ceñirse a las Directrices de calidad de Google para webmasters. Por otra parte, también es un buen momento para compartir con vosotros este artículo sobre enlaces orgánicos y recordaros que existen muchas formas de conseguir enlaces de calidad para vuestros sitios web.

Así que si crees que tu web ha sido penalizada por comprar y/o vender enlaces, la mejor forma de actuar es corregir primero esta infracción para que los enlaces no pasen PageRank y luego enviar el formulario de reconsideración explicando cuál era la situación y cómo la has solucionado. Si tenéis alguna pregunta sobre ésto podéis acudir a nuestro foro para webmasters.

Solicitudes GET y POST y cómo mostrar de forma segura más información de la Web

A medida que evoluciona la Web, las capacidades de rastreo e indexación de Google también deben progresar. Hemos mejorado la indexación de Flash, hemos creado una infraestructura más sólida denominada Caffeine e, incluso, hemos empezado a rastrear formularios cuando lo consideramos oportuno. Ahora, especialmente con el aumento de la popularidad de JavaScript y, con él, AJAX, estamos encontrando cada vez más páginas web que requieren solicitudes POST, bien para todo el contenido de la página, bien porque a las páginas les falta información o porque parecen completamente dañadas sin los recursos que se obtienen a través de POST. Para la Búsqueda de Google esto no es lo ideal, debido a que si no descubrimos e indexamos contenido de forma adecuada, los usuarios no pueden acceder al conjunto de resultados más completo y relevante.

Normalmente, recomendamos utilizar GET para recuperar recursos necesarios para una página y este es, con diferencia, nuestro método de rastreo preferido. Hemos iniciado experimentos para reescribir las solicitudes POST como GET y, aunque este sistema es válido en algunos casos, frecuentemente el contenido que devuelve un servidor web para GET y para POST es completamente diferente. Además, existen razones de peso para utilizar POST (por ejemplo, a las solicitudes POST se les puede adjuntar una mayor cantidad de datos que a las solicitudes GET). Por ello, aunque las solicitudes GET siguen siendo mucho más habituales, para mostrar más contenido en la Web, es posible que ahora Googlebot ejecute solicitudes POST cuando lo consideremos seguro y apropiado.

Tomamos las precauciones necesarias para evitar que se lleven a cabo cualquier tipo de tarea en un sitio que pueda dar lugar a una acción no intencionada por parte del usuario. Nuestras solicitudes POST se utilizan fundamentalmente para rastrear recursos que las páginas solicitan de forma automática, imitando lo que visualizaría un usuario normal cuando abre una URL en su navegador. Esto evolucionará con el tiempo a medida que descubramos heurísticas más adecuadas, pero por el momento este es el sistema que estamos utilizando.

Analicemos algunas situaciones relacionadas con las solicitudes POST que demuestran de qué forma estamos mejorando nuestros procesos de rastreo e indexación para evolucionar con la Web.

Ejemplos de solicitudes POST de Googlebot
  • Cómo rastrear una página a través de un redireccionamiento POST
<html>
  <body onload="document.foo.submit();">
   <form name="foo" action="request.php" method="post">
    <input type="hidden" name="bar" value="234"/>
  </form>
 </body>
</html>
  • Cómo rastrear un recurso a través de la solicitud XMLHttpRequest de POST
En este ejemplo con instrucciones "paso a paso", mejoramos tanto la indexación de una página como la Vista previa instantánea de esta siguiendo la solicitud XMLHttpRequest automática generada a medida que se muestra la página. 
1. Google rastrea la URL, yummy-sundae.html.
2. Google comienza a indexar yummy-sundae.html y, como parte de este proceso, decide intentar mostrar la página para entender mejor su contenido o generar la Vista previa instantánea.
3. Durante la representación, yummy-sundae.html envía automáticamente una solicitud XMLHttpRequest de un recurso, hot-fudge-info.html, utilizando el método POST.
<html>
  <head>
    <title>Yummy Sundae</title>
    <script src="jquery.js"></script>
  </head>
  <body>
    This page is about a yummy sundae.
    <div id="content"></div>
    <script type="text/javascript">
      $(document).ready(function() {
        $.post('hot-fudge-info.html', function(data)         
          {$('#content').html(data);});
      });
    </script>
  </body>
</html>
4. La URL solicitada a través de POST, hot-fudge-info.html, se añade  junto con su carga útil de datos, a la cola de rastreo de Googlebot.
5. Googlebot ejecuta una solicitud POST para rastrear hot-fudge-info.html.
6. Ahora, Google tiene una representación exacta de yummy-sundae.html para la Vista previa instantánea. En algunos casos, también podemos incorporar el contenido de hot-fudge-info.html a yummy-sundae.html.
7. Google completa la indexación de yummy-sundae.html.
8. El usuario busca [hot fudge sundae].
9. Ahora, los algoritmos de Google pueden determinar de forma más adecuada la relevancia de yummy-sundae.html para esta consulta y pueden mostrar correctamente una captura de pantalla de la página para la Vista previa instantánea.
Cómo mejorar la capacidad de rastreo e indexación de tu sitio
En nuestro Centro de asistencia podrás encontrar consejos generales para crear sitios que se puedan rastrear. Para los webmasters que quieran ayudar a Google a rastrear e indexar su contenido o a generar la Vista previa instantánea, a continuación proporcionamos algunas indicaciones sencillas que se deben recordar:
  • Utiliza GET para recuperar recursos a menos que tengas un motivo concreto para utilizar POST.
  • Asegúrate de que Google pueda rastrear los recursos necesarios para la presentación de tu página. En el ejemplo anterior, si robots.txt no permite acceder a hot-fudge-info.html, Googlebot no podrá recuperar la página. De forma más específica, si el código de JavaScript que inicia la solicitud XMLHttpRequest se encuentra en un archivo .js externo al que robots.txt no permite el acceso, no podremos encontrar la relación entre yummy-sundae.html y hot-fudge-info.html; por tanto, aunque se pueda acceder a esta última URL, esto tampoco nos sirve de mucha ayuda. Hemos visto cadenas de dependencias aún más complicadas en la Web. Para ayudar a Google a entender mejor tu sitio, casi siempre es mejor permitir que Googlebot rastree todos los recursos.
Puedes probar si los recursos están bloqueados en las Herramientas para webmasters  mediante las opciones "Labs -> Vista previa instantánea".
  • Asegúrate de enviar el contenido a Googlebot tal y como lo muestre el navegador web del usuario. El encubrimiento (técnica consistente en enviar a Googlebot contenido diferente del que se muestra al usuario) constituye una infracción de nuestras Directrices para webmasters ya que, entre otras cosas, puede hacer que proporcionemos un resultado irrelevante al usuario (el contenido que el usuario visualiza en su navegador puede ser totalmente distinto del que hemos rastreado e indexado nosotros). Hemos visto numerosos ejemplos de solicitudes POST en las que los webmasters habían encubierto contenido sin querer (lo que sigue siendo una infracción). Esos encubrimientos, incluso con los cambios más insignificantes, produjeron errores de JavaScript que impidieron indexar correctamente el sitio y acabaron por completo con la idea de utilizar el encubrimiento en primer lugar. En resumen, si quieres que tu sitio sea fácil de buscar, el encubrimiento provoca situaciones complicadas a nivel general que es mejor evitar.
Para verificar que no has encubierto contenido accidentalmente, puedes utilizar la Vista previa instantánea de las Herramientas para webmasters o probar a configurar la cadena del user-agent en tu navegador de la siguiente forma:
Mozilla/5.0 (compatible; Googlebot/2.1;
+http://www.google.com/bot.html)
Tu sitio no debe mostrar un aspecto diferente después de esta modificación. Si ves una página en blanco o un error de JavaScript o si hay partes de la página que faltan o aparecen cambiadas, significa que algo está mal.
  • Recuerda que debes incluir el contenido importante (es decir, el contenido que quieres que se indexe) como texto. Este debe ser visible directamente en la página, sin que sea necesaria ninguna acción por parte del usuario para que se muestre. La mayoría de los motores de búsqueda se basan en texto y, generalmente, funcionan mejor con contenido basado en texto. Por nuestra parte, mejoramos continuamente nuestra capacidad de rastrear e indexar contenido publicado de diferentes formas, pero sigue siendo recomendable utilizar texto para la información importante.
Cómo controlar tu contenido
Si quieres evitar que tu contenido se rastree o se indexe para la Búsqueda Web de Google, el mejor método siguen siendo las directivas de robots.txt tradicionales. Para evitar que se realice una Vista previa instantánea de tus páginas, consulta las Preguntas frecuentes sobre la Vista previa instantánea [inglés] en las que se describen el user-agent "Google Web Preview" y la metaetiqueta "nosnippet".

Previsiones para el futuro
Continuaremos esforzándonos para aumentar la exhaustividad de nuestros procesos de indexación de forma que los usuarios puedan encontrar información más relevante. Asimismo, esperamos que nuestra capacidad de rastreo e indexación mejore y evolucione con el tiempo, al ritmo de la propia Web. Si tienes alguna duda o pregunta, ponte en contacto con nosotros.

Vídeos de Matt Cutts: Optimización de motores de búsqueda (SEO) y spam

En esta ocasión Matt Cutts no va a responder a una pregunta de un webmaster , sino que en en este vídeo de tres minutos y medio, nos va a hablar sobre la Optimización de motores de búsqueda (SEO) y el spam, a través de la pregunta: "¿Google considera que los SEO son spam?". La respuesta es no, pero si quieres saber más sobre esta la repuesta, solo tienes que ver el vídeo.



Transcripción de: "¿Google considera que los SEO son spam?"

Hola. Quería hablaros unos minutos sobre la optimización de motores de búsqueda y el spam a través de la pregunta ¿Google considera que los SEO son spam?

La respuesta es no. No consideramos que los SEO sean spam. Puede que un grupo de expertos en tecnología se enfaden con esta respuesta, así que voy a explicar mi respuesta con más detalle. SEO es la abreviatura de optimización de motores de búsqueda y su función es básicamente garantizar que tus páginas se representen correctamente en los motores de búsqueda.

Hay una gran enorme cantidad de prácticas de gran calidad y de sombrero blanco que puedes realizar como optimizador del motor de búsqueda. Por ejemplo, puedes asegurarte de que tus páginas sean rastreables, es decir, quieres que sean accesibles. Quieres que los usuarios puedan encontrar tus páginas con solo hacer clic en enlaces e igualmente, que los motores de búsquedas puedan encontrarlas con tan solo hacer clic en enlaces. Debes asegurarte de que los usuarios utilicen las palabras clave adecuadas. Si utilizas jerga muy técnica que nadie más utilice, un buen SEO puede ayudarte a descubrir las palabras clave que deberías considerar.

Puedes reflexionar sobre la funcionalidad e intentar asegurarte de que el diseño del sitio sea correcto, es decir, que sea adecuado para usuarios y motores de búsqueda. Puedes pensar en cómo hacer que tu sitio sea más rápido. La velocidad de tu sitio no solo se utiliza como uno de los muchos factores que Google tiene en cuenta para las clasificaciones de búsqueda, sino que si pudieses incrementar la velocidad de tu sitio, también se podría mejorar la experiencia del usuario.

Los SEO realizan un gran número de tareas, desde ayudarte con la arquitectura inicial y la apariencia de tu sitio, la estructura URL y las plantillas, etc., para garantizar que tu sitio se pueda rastrear, hasta ayudarte a mejorar tu sitio con respecto al retorno de la inversión, es decir, intentan averiguar la forma con la que puedes obtener el mejor beneficio económico, realizan pruebas A/B, intentan saber la copia que genera más conversiones, ese tipo de cosas.

No hay en absoluto nada de malo en estos métodos de sombrero blanco. Aunque, esto no quita que seguramente haya SEO que vayan más allá del límite. Por supuesto que hay algunos SEO que intentan utilizar técnicas de sombrero negro, que piratean sitios o que utilizan palabras clave de manera engañosa o que realizan redireccionamiento engañosos. No hay duda de ello.

Nuestro objetivo es garantizar que devolvemos los mejores resultados de búsqueda posibles y los optimizadores del motor de búsqueda nos ayudan a conseguirlo cooperando e intentando ayudar a los motores de búsqueda a mejorar la búsqueda de páginas. Como veis, los SEO no son spam, al contrario, pueden ser de gran utilidad. Aunque también se puede hacer un mal uso de los mismos y suponer un obstáculo. En Google creemos que, en un mundo ideal, los usuarios no tendrían que preocuparse a este respecto, pero los motores de búsqueda aún no son tan inteligentes como los humanos. Por eso, seguimos trabajando en ello. Intentamos averiguar lo que los usuarios quieren decir, intentamos utilizar sinónimos, vocabulario y análisis morfológicos para que los usuarios no tengan que conocer la palabra exacta para poder realizar la búsqueda deseada. Pero, hasta que ese día llegue, la optimización de motores de búsqueda puede ser una forma válida de ayudar a los usuarios a encontrar lo que buscan a través de los motores de búsqueda.

Google ofrece directrices para webmasters en la página google.es/webmasters, donde también podrás encontrar un foro para webmasters y herramientas para webmasters gratuitas y un motón de documentación sobre HTML. Hemos escrito una guía de introducción a los SEO en la que los usuarios pueden obtener información sobre la optimización de motores de búsqueda. En definitiva, los SEO pueden ayudarte a hacer de este mundo un lugar mejor valiéndose de muchas prácticas correctas. No es cierto eso que muchos piensan sobre los SEO, que son unos criminales, unos estafadores.

Si encuentras a una buena persona, alguien en quien puedas confiar, alguien que te cuente con todo detalle lo que hace, el tipo de persona que te ofrece buenas referencias o una persona cuyo trabajo conozcas y consideres útil y sea claro con respecto a todas sus prácticas, esa persona será sin duda de gran ayuda para tu sitio web. Mi idea era disipar esta falsa idea con este vídeo. Algunos usuarios creen que Google considera a todos los SEO como spam, pero definitivamente eso no es verdad. Hay una gran cantidad de SEO de calidad ahí fuera. Espero que este vídeo te sea de ayuda con tu sitio web.

Datos de consultas de búsqueda de vuestros sitios

El uso de la encriptación SSL en Internet ha ido aumentando a una gran velocidad [inglés]. Como parte de nuestro compromiso para proporcionar una experiencia online más segura, la búsqueda SSL en https://www.google.com se convertirá en la experiencia predeterminada para los usuarios que inicien sesión [inglésen google.com.

 ¿Cómo afectará el cambio a los webmasters? Hoy en día, los sitios web a los que se accede a través de resultados de búsquedas orgánicas de http://www.google.com (que no utilizan SSL) pueden saber que el usuario hizo su búsqueda en google.com y ver la consulta realizada. (Técnicamente hablando, el navegador del usuario transfiere esta información a través del campo de remitente HTTP [inglés]). Sin embargo, los resultados de búsquedas orgánicas que utilizan SSL tan solo permiten que los sitios web sepan que el usuario ha hecho su búsqueda en google.com.

Los webmasters siguen teniendo acceso a una gran cantidad de datos de consultas de búsqueda de sus sitios mediante las Herramientas para webmasters de Google. En el caso de los sitios añadidos y verificados en las Herramientas para webmasters de Google, los webmasters pueden:

  • ver las 1.000 consultas diarias principales y las 1.000 páginas de destino principales de los últimos 30 días,
  • ver las impresiones, los clics, el porcentaje de clics (CTR) y la posición media en los resultados de búsqueda de cada consulta y comparar los resultados con los 30 días anteriores,
  • descargar estos datos en formato CSV.
Además, los usuarios de los informes de optimización de motores de búsqueda (SEO) de Google Analytics pueden acceder a los mismos datos sobre consultas de búsqueda que se encuentran disponibles en las Herramientas para webmaster de Google y utilizar sus completas funciones de generación de informes.

Seguiremos investigando nuevos sistemas para mejorar la forma en que aparecen los datos de las consultas de búsqueda en las Herramientas para webmasters de Google. Si tienes preguntas, comentarios o sugerencias, no dudes en participar en el foro de ayuda de las Herramientas para webmasters de Google.

Nota: Estos cambios se lanzaron el mes pasado, sin embargo creemos importante tener los detalles del cambio en nuestro blog para webmasters de habla hispana.

Información sobre la selección de URL entre dominios

A menudo se puede acceder a un determinado contenido a través de varias URL, aunque es posible que no todas ellas estén ubicadas en el mismo dominio. Un ejemplo habitual que hemos comentado a lo largo de los años está relacionado con la publicación del mismo contenido en varias URL, una incidencia que se conoce como "contenido duplicado". Cuando detectamos un grupo de páginas con contenido duplicado, Google utiliza algoritmos para seleccionar una URL representativa de ese contenido. Un grupo de páginas puede contener URL del mismo sitio o de sitios diferentes. Si la URL representativa procede de un grupo que contiene diferentes sitios, la selección se denomina "selección de URL de varios dominios". Para explicar este fenómeno de forma sencilla, si el grupo de URL contiene una URL del sitio "a.com" y otra del sitio "b.com" y nuestro algoritmo selecciona la URL de "b.com", es posible que la URL de "a.com" ya no aparezca en los resultados de búsqueda y se produzca un descenso en el tráfico de búsqueda.

Los webmasters pueden ejercer una gran influencia en las selecciones de nuestros algoritmos utilizando uno de los mecanismos admitidos actualmente para indicar la URL preferida (por ejemplo, a través del elemento rel="canonical" o de redireccionamientos 301). En la mayoría de los casos, las decisiones tomadas por nuestros algoritmos a este respecto reflejan de forma correcta la intención del webmaster. No obstante, en casos puntuales, también hemos observado que un gran número de webmasters no entendían por qué no se había seleccionado su URL y querían saber lo que podían hacer si consideraban que la selección no era correcta.

Para explicar de forma clara las decisiones a la hora de seleccionar URL de varios dominios, vamos a publicar nuevos mensajes de las Herramientas para webmasters de Google con la intención de informar a los webmasters cuando nuestros algoritmos seleccionen una URL externa en lugar de una dirección de su sitio web. La información detallada sobre el funcionamiento de estos mensajes está disponible en el artículo del Centro de asistencia sobre este tema. No obstante, en esta entrada de blog trataremos las diferentes situaciones en las que es posible que aparezca una selección de URL de varios dominios, así como los pasos que puedes seguir para solucionar las selecciones que consideres que no son correctas.

Causas habituales de la selección de URL de varios dominios

Existe un gran número de situaciones que pueden dar lugar a una selección de URL de varios dominios por parte de nuestros algoritmos.

En la mayoría de los casos, nuestros algoritmos seleccionan una URL en función de las indicaciones implementadas por el webmaster para influir en la decisión. Por ejemplo, un webmaster que siga nuestras directrices y prácticas recomendadas relacionadas con la transferencia de sitios web estará indicando de forma eficaz que las URL de su nuevo sitio web son las que prefiere que seleccione Google. Si vas a transferir tu sitio web y aparecen estos mensajes, puedes interpretarlos como una confirmación de que nuestros algoritmos han entendido tus indicaciones.

No obstante, normalmente somos testigos de las quejas de los webmasters cuando nuestros algoritmos seleccionan una URL no deseada. Si tu sitio web se ve afectado por una selección de URL de varios dominios que consideras incorrecta, es decir, si crees que no se han seguido tus indicaciones, puedes aplicar varias estrategias para solucionar la incidencia según el caso. A continuación, se indican algunos de los motivos habituales de la selección inesperada de URL de varios dominios que hemos detectado y la forma de solucionar esta incidencia.
  1. Contenido duplicado, incluidos sitios web multirregionales: solemos observar que los webmasters utilizan básicamente el mismo contenido en el mismo idioma en varios dominios, en algunas ocasiones de forma accidental y, en otras, para orientar geográficamente el contenido. Por ejemplo, es habitual que un webmaster configure el mismo sitio web en inglés en los sitios "example.com" y "example.net" o un sitio web en alemán que esté alojado en dominios "a.de", "a.at" y "a.ch".

  2. En función de tu sitio web y de los usuarios, puedes utilizar una de las técnicas de canonicalización admitidas actualmente para indicar a nuestros algoritmos las URL que quieras que se seleccionen. Consulta los siguientes artículos relacionados con este tema:
2. Errores de configuración: determinados tipos de configuraciones incorrectas pueden hacer que nuestros algoritmos tomen una decisión equivocada. A continuación, se indican algunos ejemplos de errores de configuración.
  1. Canonicalización incorrecta: el uso incorrecto de las técnicas de canonicalización que dirigen a URL ubicadas en un sitio web externo puede dar lugar a que nuestros algoritmos seleccionen las URL externas para que se muestren en los resultados de búsqueda. Hemos detectado este tipo de errores en sistemas de administración de contenido (CMS) configurados incorrectamente o en complementos de CMS instalados por el webmaster de forma inadecuada.

    Para resolver este tipo de situaciones, debes averiguar cómo erróneamente tu sitio web está indicando la preferencia de URL canónica (por ejemplo, a través del uso incorrecto de un elemento rel="canonical" o de un redireccionamiento 301) y solucionar el error.

  2. Servidores configurados de forma incorrecta: en ocasiones, detectamos errores de configuración de alojamiento en los que el contenido del sitio "a.com" se devuelve para URL ubicadas en "b.com". Algo similar ocurre cuando dos servidores web que no están relacionados devuelven páginas 404 leves que puede que no hayamos detectado como páginas de error. En ambas situaciones, podemos asumir que se ha devuelto el mismo contenido desde dos sitios diferentes, y es posible que nuestros algoritmos seleccionen de forma incorrecta la URL del sitio "a.com" como la URL canónica del sitio "b.com".

    En ese caso, deberás investigar la parte de la infraestructura de publicación de tu sitio web que no está configurada correctamente. Por ejemplo, es posible que tu servidor devuelva códigos de estado HTTP 200 (correcto) para páginas de error o que confunda solicitudes en diferentes dominios alojados en él. Una vez que hayas encontrado la causa principal de la incidencia, ponte en contacto con los administradores de tu servidor para corregir la configuración.
3. Ataques de sitios web malintencionados: algunos ataques hacia sitios web introducen código que puede dar lugar a una canonicalización no deseada. Por ejemplo, el código malintencionado puede hacer que el sitio web devuelva un redireccionamiento 301 HTTP o inserte un elemento de enlace rel="canonical" entre dominios en el encabezado HTTP o HTML <head> que dirija normalmente a una URL externa en la que se aloje el contenido malintencionado. En estos casos, nuestros algoritmos pueden seleccionar la URL malintencionada o con spam en lugar de la URL del sitio web afectado por el error.

En esta situación, te recomendamos que sigas nuestras sugerencias relacionadas con la limpieza de tu sitio y que envíes una solicitud de reconsideración de inclusión cuando hayas terminado. Para identificar ataques encubiertos, puedes utilizar la función Explorar como Googlebot de las Herramientas para webmasters de Google para ver el contenido de tu página de la misma forma que lo hace Googlebot.
En ocasiones puntuales, nuestros algoritmos pueden seleccionar una URL de un sitio externo que aloje tu contenido sin tu permiso. Si consideras que otro sitio está duplicando tu contenido infringiendo de esta forma la ley de derechos de autor, puedes ponerte en contacto con el host del sitio para solicitar la eliminación del contenido. Asimismo, puedes solicitar que Google elimine la página infractora de los resultados de búsqueda presentando una solicitud basada en la ley estadounidense de protección de los derechos de autor (Digital Millennium Copyright Act, DMCA).

Y, como siempre, si necesitas ayuda para identificar la causa de una decisión incorrecta o para saber cómo solucionar esta incidencia, puedes consultar el artículo del Centro de asistencia sobre este tema y publicar una pregunta en el Foro de ayuda para webmasters.

Las solicitudes de reconsideración se vuelven más transparentes

Si tu sitio no aparece en los resultados de búsqueda de Google o su clasificación es inferior a la que tenías antes (y consideras que no infringe las Directrices para webmasters), puedes enviar una solicitud a Google para que reconsidere su indexación. A lo largo del tiempo, hemos trabajado para mejorar el proceso de reconsideración para los webmasters. Hace un par de años, además de confirmar que habíamos recibido la solicitud, empezamos a enviar un segundo mensaje a los webmasters para confirmarles que se había procesado su solicitud. Esto fue un gran paso para los webmasters que esperaban con impaciencia los resultados. Desde entonces, hemos recibido comentarios sobre el interés de los webmasters en conocer el resultado de sus solicitudes. A principios de este año, empezamos a realizar pruebas enviando respuestas más detalladas a las solicitudes de reconsideración, y los comentarios recibidos han sido muy positivos.

Actualmente, si tu sitio se ha visto afectado por una acción manual antispam, podemos comunicarte si hemos podido revocar esa acción manual según tu solicitud de reconsideración o podemos decirte si tu sitio todavía infringe nuestras directrices. Esto puede parecer desalentador, pero, si sabes que aún existe una incidencia, te resultará más fácil detectarla.

Si tu sitio no se ha visto realmente afectado por una acción manual (que es la situación más habitual), también te lo haremos saber. Es posible que nuestros algoritmos no hayan otorgado una buena clasificación a tu sitio, en cuyo caso nuestros sistemas responderán a las mejoras en el sitio a medida que se vayan realizando cambios sin necesidad de que envíes una solicitud de reconsideración. O quizás tu sitio está experimentando incidencias de acceso que impiden a Googlebot rastrearlo e indexarlo. Para obtener más ayuda sobre cómo solucionar incidencias relacionadas con la clasificación, consulta nuestro artículo sobre los motivos por los que es posible que un sitio no aparezca en los resultados de búsqueda de Google.

Hemos progresado mucho en la forma de hacer que la totalidad del proceso de solicitud de reconsideración sea más transparente. No podemos responder a solicitudes individuales con comentarios específicos, pero ahora muchos webmasters podrán saber si su sitio se ha visto afectado por una acción manual y conocerán el resultado de la revisión de reconsideración. Lo ideal sería que Google pudiera ser completamente transparente en lo que respecta al funcionamiento de cada parte de nuestro proceso de clasificación. Sin embargo, debemos mantener un delicado equilibrio, es decir, proporcionar la máxima información posible a los webmasters sin permitir que los creadores de spam descubran cómo perjudicar aún más a los usuarios. Nos alegra que Google haya establecido normas sobre las herramientas, la transparencia y la comunicación con los propietarios de sitios, pero seguiremos buscando formas de mejorar este proceso.

Navegadores Modernos

De todo el tiempo que nuestro equipo lleva dando charlas alrededor del mundo, hemos tenido oportunidad de encontrarnos con desarrolladores de todo tipo, con diversos niveles de conocimiento e intereses. No obstante, el tiempo te permite identificar aquellas dudas comunes que aparecen prácticamente en cada evento de desarrolladores.

La duda mas común, obviamente, es la preocupación de los desarrolladores para encontrar la mejor manera de utilizar las últimas tecnologías en sus aplicaciones web y aun poder soportar a los usuarios con navegadores antiguos. Desde mi opinión personal, yo siempre enfatizo que, a ser posible, los negocios, que siempre se remiten a sus números, dejen de contemplar las estadísticas de que versiones de navegadores visitan sus paginas como factor determinante para que tipo de desarrollo aplicar.

Lo que sugiero en cambio, es que tomen un modelo similar al de desarrollo de aplicaciones móbiles donde plataformas como android y iphone permiten la elaboración mas sofisticada de aplicaciones pero si en cambio miramos a las estadísticas mundiales de navegadores móbiles [fuente externa], opera, blackberry y nokia igualan o superan el numero de usuarios.

Así pues, vale la pena optar por una estrategia mas agresiva donde satisfagamos a los usuarios mas avanzados que visitan nuestras aplicaciones, los cuales seguramente son nuestro target mas agradecido. A su vez, ayudamos a los usuarios que poseen navegadores que no se actualizan automáticamente a brindarles de una plataforma mas avanzada, como HTML5, donde nuestros productos pueden tener mas valor anadido y a su vez optimizan nuestro proceso de desarrollo.

Como actualizar una versión mayor del navegador no es tarea fácil, como se viene demostrando todos estos años, se puede optar por estrategias mas amigables. La mejor de ellas hasta el momento es el plugin de Chrome Frame para versiones 6, 7 y 8 de Internet Explorer. Si en nuestro desarrollo aun se necesitan pulir incompatibilidades entre navegadores modernos, siempre recomendamos filtrar por característica soportada y nunca por versión de navegador, como hace la herramienta modernizr. Aun y así, también se pueden evitar estos filtrados si tenemos la suerte de encontrar un polyfill (o hack javascript) de la característica moderna que estemos utilizando en nuestro navegador ya que este provee de la lógica necesaria para hacer funcionar la característica en navegadores que no lo soportan.

Os dejo con nuestra pagina principal para desarrolladores web donde generamos material y demostraciones de como desarrollar para navegadores modernos. Recordad que un navegador moderno se mide no por el numero de características que soporta sino por la facilidad del sistema de actualizaciones del mismo.

Ernest Delgado, Developer Programs Engineer de Google Chrome