Hubo un tiempo en que dar órdenes o preguntas a una máquina y recibir una respuesta era algo del futuro de la ciencia ficción. Bueno, para más de 110 millones de personas solo en los EE ., ese es su presente cotidiano. Según Gartner, el 30 % de las búsquedas se realizarán por voz en 2020 .
Voice es la interfaz predeterminada para los más de 200 millones de altavoces inteligentes que Canalys prevé que existirán a finales de 2019 . Pero la mayoría de los teléfonos inteligentes de hoy también tienen instalado algún tipo de asistente digital que permite una interfaz de voz. La empresa de investigación Juniper Research estima que para 2023 habrá 8 mil millones de asistentes de voz digitales en uso . La mayoría de ellos estarán en teléfonos inteligentes, pero los televisores inteligentes, los dispositivos portátiles, los parlantes inteligentes y otros dispositivos IoT también experimentarán un crecimiento significativo en su uso a través de comandos de voz.
El mercado de los asistentes de voz digitales está dominado por cuatro grandes jugadores:
- Asistente de Google. Este asistente digital viene instalado con todos los teléfonos Android como parte de la aplicación de Google. Por supuesto, utiliza la búsqueda de Google para responder a sus consultas. Otras propiedades de Google, como YouTube o Google Maps, también están estrechamente vinculadas al asistente. Las empresas pueden ampliar las capacidades del Asistente mediante el desarrollo de Acciones. Estas Acciones se pueden usar para interactuar con el hardware ("Hola Google, apaga las luces de la sala de estar") o con cualquier otro servicio en línea ("Hola Google, dame los titulares de hoy de mi sitio web favorito").
- Amazona Alexa. El asistente digital de Amazon está disponible de forma más famosa en la línea de altavoces inteligentes de Amazon, Echo. Pero, de hecho, está disponible en más de 20 000 dispositivos, incluidos no solo altavoces inteligentes o dispositivos portátiles, sino también televisores e incluso automóviles. Alexa también permite la creación de aplicaciones de voz a través de Alexa Skills. Amazon incluso permite la posibilidad de suscripciones premium para Skills , por lo que los editores pueden monetizar sus esfuerzos ofreciendo más opciones de personalización o una cobertura más detallada. Alexa usa Bing como motor de búsqueda.
- Manzana Siri. Lo que comenzó en 2011 como una aplicación de iOS para iPhone ahora es un asistente de voz digital completo integrado en todos los productos de Apple, incluida su línea de televisores inteligentes, parlantes y dispositivos portátiles. Apple ofrece SiriKit para permitir que las empresas amplíen sus aplicaciones y permitan la interacción de voz a través de Siri. El motor de búsqueda predeterminado que usa Siri es Google, aunque se puede configurar para usar un motor de búsqueda diferente, como Duck Duck Go o Bing.
- Microsoft Cortana. El asistente digital de Microsoft está disponible en Windows de forma nativa y en dispositivos Android e iOS como una aplicación independiente. Cortana parece haberse retrasado en la adopción frente a otros asistentes digitales, y la estrategia de Microsoft parece ser integrar a Cortana con otros asistentes digitales, en lugar de competir con ellos . Microsoft también permite el desarrollo de Skills de terceros para Cortana, pero solo para el mercado estadounidense por ahora. Dado su cambio de estrategia, no está claro si Cortana Skills estaría más disponible. Cortana usa Bing como motor de búsqueda.
Tabla de contenido
La búsqueda por voz no es solo para dispositivos móviles, es para nuestra vida cotidiana
Las primeras etapas de la búsqueda por voz se desencadenaron por la adopción en constante expansión de los teléfonos móviles. Google Now, la encarnación anterior de Assistants, se lanzó en 2012 y Siri se lanzó incluso antes, en 2011. Esto cambió con la introducción de Alexa en 2014. El asistente digital ahora vivía en una pieza de hardware diseñada para no salir nunca de tu casa.
Los asistentes digitales ahora están integrados en una amplia gama de dispositivos, desde teléfonos hasta relojes, televisores y automóviles. Las personas ahora pueden interactuar con ellos en una gama más amplia de situaciones. Pero la forma en que interactuamos con el asistente es, por supuesto, radicalmente diferente de la interfaz de texto habitual de los motores de búsqueda.
En qué se diferencia la búsqueda por voz de la búsqueda basada en texto
- Consultas más complejas y largas. El reconocimiento de voz ha evolucionado mucho en los últimos años y ahora permite consultas más complejas que hace unos años. Esto impulsa al usuario a emplear un lenguaje más natural para sus consultas y comandos.
- Más preguntas. Según una investigación de seoClarity , más del 15 % de las búsquedas por voz comienzan con cómo, qué, dónde, cuándo, por qué y quién. Esto se debe a la interfaz diferente en comparación con un motor de búsqueda basado en texto.
- Respuestas cortas y concisas. Aunque el usuario puede utilizar consultas más largas para expresar lo que quiere que el asistente haga o busque, la gente espera respuestas breves y claras.
- Sin jerarquía de información visual. Estamos acostumbrados a emplear y detectar señales visuales para organizar el contenido y resaltar los aspectos más importantes de lo que queremos transmitir al usuario. El contenido de una página de destino debe repensarse para las interfaces de solo voz para identificar qué resaltar y cómo hacerlo sin las señales visuales que permite un navegador.
- El ganador se lleva todo. Al usar un motor de búsqueda, puede hojear los resultados de la búsqueda y, aunque rara vez llegará a la segunda página del SERP, puede hacer clic en un enlace debajo de los tres primeros resultados principales. En una interfaz de voz, las personas no obtienen una página de resultados desde donde pueden elegir a dónde ir. El asistente digital devolverá solo un resultado.
- Busqueda local. Teniendo en cuenta que entre el 30 y el 40 % de las búsquedas móviles son consultas locales, también podemos esperar que un alto porcentaje de consultas en la búsqueda por voz pidan resultados locales.
Investigación de palabras clave para la búsqueda por voz
La principal diferencia al hacer una investigación de palabras clave para voz en lugar de texto es que utilizará palabras clave de lenguaje mucho más natural. La forma en que hablamos es completamente diferente a la forma en que escribimos. Usamos frases naturales en lugar de una cadena corta de palabras clave.
Para descubrir a qué palabras clave apuntar, necesitamos usar una herramienta de investigación de palabras clave semánticas. Contestar al público es la herramienta más utilizada en estos casos. Inserte su palabra clave inicial y obtendrá una lista de preguntas con esa palabra clave. Los datos se presentan primero en un gráfico, que es bonito, pero no muy útil. Afortunadamente, puede descargar los datos en un práctico CSV.
herramienta de investigación de palabras clave de Twinword también tiene algunos filtros útiles para extraer ideas de palabras clave. Puede filtrar los resultados por intención de búsqueda y por patrones de palabras clave, lo que le permitiría ver solo las preguntas que incluyen su palabra clave inicial.
También puede tomar nota del fragmento "La gente también pregunta" en la Búsqueda de Google para descubrir más oportunidades de palabras clave.
Si tiene un centro de llamadas o una función de chat en vivo o chatbot, extraiga los datos de esas conversaciones para encontrar las preguntas más frecuentes.
Consultas "Cerca de mí"
Como las consultas locales representan una gran parte de la búsqueda por voz, puede esperar que muchas consultas terminen con la frase "cerca de mí". Como en: "cuál es el mejor sushi cerca de mí", o "cuál es el mejor gimnasio cerca de mí". ¿Cómo optimizar para eso? Las empresas locales deben tener sus datos actualizados en directorios como Yelp, sitios de reseñas como Tripadvisor y servicios como Kayak. Para los editores, los datos estructurados son la respuesta.
Cómo optimizar tu contenido para la búsqueda por voz
Optimiza tu sitio para móviles
La mayoría de las optimizaciones que debe realizar en su sitio para asegurarse de que funcione bien en la búsqueda móvil también serán beneficiosas para sus clasificaciones de búsqueda por voz. Uno de los factores más importantes es la velocidad del sitio. Ya sea que la interfaz sea de voz o un dispositivo móvil, la gente espera resultados rápidos.
Usa AMP y datos estructurados
Los datos estructurados son clave para ayudar a Google a comprender y analizar mejor su contenido para que pueda brindarle a su audiencia las respuestas que está buscando. Puedes ayudar a Google a identificar personas, organizaciones, eventos, recetas, productos, lugares.
AMP significa páginas móviles aceleradas. Es un proyecto de código abierto lanzado por Google que restringe la funcionalidad de las páginas web para aumentar drásticamente su velocidad. AMP se usa a menudo con datos estructurados, ya que eso es lo que permite que las páginas de AMP aparezcan en los resultados enriquecidos en la página de resultados de búsqueda.
Además, para los editores, mostrar su contenido a través del formato AMP con datos estructurados es uno de los requisitos para crear una Acción para el Asistente de Google .
Hay un esquema de datos estructurados llamado "hablable" , actualmente en versión beta, que identifica las secciones de un artículo que son adecuadas para la reproducción de texto a voz. El Asistente de Google identificará el contenido etiquetado con este esquema como contenido que se puede leer a través de un dispositivo habilitado para el Asistente de Google. El contenido se atribuye a la fuente y la URL se envía al dispositivo móvil del usuario.
Este esquema de datos estructurados solo está disponible para usuarios de habla inglesa en los EE. UU. a través de editores que están en Google News.
Responda las preguntas de los usuarios de manera concisa
Según una investigación de Backlinko , el resultado típico de la búsqueda por voz tiene solo 29 palabras, pero el recuento de palabras de una página de resultados de búsqueda por voz es de 2312 palabras. Esto no es contradictorio. En el primer caso, estamos hablando de que el asistente digital responde a una pregunta o consulta concreta. En el segundo caso, el conteo de palabras se refiere a la fuente de la respuesta. No está claro si Google favorece el contenido de formato largo como una marca de calidad o si es solo que más contenido significa que hay más posibilidades de que una página se use como respuesta a una consulta.
De cualquier manera, lo que estas dos estadísticas combinadas nos dicen es que debemos pensar en la estructura de nuestro contenido para que abordemos las ideas principales y los puntos clave en párrafos cortos que un asistente de voz pueda captar.
Escribir contenido que sea fácil de leer y comprender
Si desea que su contenido se utilice en la interacción de voz, debe ser fácil de leer y, sobre todo, fácil de entender para sus lectores. Recuerde que los usuarios no podrán usar señales o elementos visuales para comprender mejor su contenido, como títulos o gráficos.
Recuerde que la mayoría de las consultas se realizarán utilizando el habla-lenguaje natural como si estuvieran manteniendo una conversación. Tenga eso en cuenta cuando desarrolle su contenido y escriba de manera conversacional cuando responda preguntas específicas.
Apunta a un rango alto y fragmentos destacados
Este es un caso de correlación y no de causalidad. Pero hay evidencia, según lo analizado por Backlinko en su investigación de resultados de voz en Google Assistant, de que más del 75 % de los resultados de búsqueda por voz provienen de las tres primeras posiciones en el SERP, y que el 40 % proviene de un fragmento destacado.
Esta es solo una prueba más de que el Asistente de Google y otros asistentes de voz digitales favorecerán los resultados altamente autorizados para garantizar que satisfagan la consulta del usuario en su primera respuesta.
Como los fragmentos destacados ya son respuestas cortas a preguntas específicas, tiene sentido que el Asistente los use.
Esto significa que sus esfuerzos de optimización para la búsqueda de Google también tendrán un impacto medible en la forma en que un asistente de voz digital utiliza su contenido.
Analizar y responder a la intención del usuario.
Identifique cuál es la intención del usuario para el que está proporcionando contenido. Se pueden responder tres intenciones principales del usuario a través de la búsqueda por voz. Lo primero es obtener información: ¿qué es esto? ¿Cómo hago esto?. El segundo es navegar: ¿dónde está esto?. Y la tercera y última intención es actuar: reservar mesa en un restaurante, comprar un par de zapatos, conseguir una lista de todos los conciertos de música que se van a dar este fin de semana.
L'Oreal ha estado implementando una estrategia de contenido basada en responder preguntas de "Cómo hacer" . Su investigación muestra que eso es lo que buscan sus usuarios mediante consultas de búsqueda por voz.
Construya su confianza y autoridad
Como vimos, la búsqueda por voz es un juego en el que el ganador se lo lleva todo. Un asistente de voz digital no mostrará una lista de resultados, sino que proporcionará directamente una respuesta de esos resultados de búsqueda. Como solo pueden proporcionar un resultado, tiene sentido que tiendan a favorecer los resultados de dominios con mucha autoridad, aunque no sean el resultado principal de esa consulta.
El SEO local es clave para la búsqueda por voz
Un alto volumen de consultas de búsqueda por voz es para resultados locales. Optimizar para consultas locales de SEO no es tanto una cuestión de producir contenido con palabras clave locales como mantener una presencia saludable y actualizada en ciertos servicios y directorios. Por ejemplo, las empresas locales deben reclamar su listado en Google My Business , Bing Places for Business y Apple Maps Connect . Entonces podría tener un mayor grado de control de la información extraída por el Asistente de Google, Alexa, Cortana y Siri, que también usa datos y reseñas de Yelp.
Los editores (y también las empresas locales) pueden implementar datos estructurados para resaltar elementos locales en su contenido, como lo hacen Yelp y Ticketmaster para sus reseñas y eventos. Cree Google Actions o Alexa Skills para permitir que los usuarios interactúen con su contenido
Todos los principales asistentes de voz digitales permiten la creación de aplicaciones de voz para que los usuarios puedan interactuar con su contenido a través de los asistentes.
Google va un poco más allá y crea automáticamente acciones para su contenido en función de los datos estructurados de su sitio web. Cuando eso suceda, el propietario de su sitio, como se especifica en los datos de Google Search Console, recibirá un correo electrónico. Luego puede reclamar su Acción o deshabilitarla.
Por ejemplo, Google creará una Acción para podcasts basada en su fuente RSS que permitirá a los usuarios buscar y reproducir episodios en sus dispositivos a través del Asistente. Las guías prácticas, las preguntas frecuentes y las recetas también usan marcado de datos estructurados para generar acciones automáticamente.
Para los editores de noticias, ya debe estar incluido en Google News y usar AMP y datos estructurados en sus artículos para ser elegible para generar automáticamente una Acción.
Los editores ya han comenzado a desarrollar asociaciones con Google para desarrollar acciones especializadas. Vogue lanzó una función en 2017 donde los usuarios podían interactuar con la publicación en Google Home para obtener más información sobre ciertas historias, contadas por los propios escritores.
Otros editores, como Bloomberg o The Washington Post , han desarrollado Alexa Skills que permiten a los usuarios escuchar resúmenes diarios de las noticias más importantes del día.
El Daily Mail fue un paso más allá, ya que puso toda su edición diaria en Alexa . Mientras que otros editores graban el audio ellos mismos, en este caso, el Daily Mail utiliza las capacidades automatizadas de texto a voz de Alexa. Otra diferencia es que, en este caso, el Daily Mail hace que esta función esté disponible solo para sus suscriptores actuales.
¿Puedes analizar el impacto de la búsqueda por voz?
La respuesta corta es no. Todavía no, al menos. Aunque Google ha estado diciendo desde al menos 2016 que quiere incluir análisis de búsqueda por voz en Google Search Console, el hecho es que, a partir de hoy, no hay forma de analizar las consultas y los resultados de la búsqueda por voz.
Hay algunos desafíos que impiden que Google y otros proveedores de análisis ofrezcan esta función:
- La primera es que las consultas en lenguaje natural tienden a ser más largas que las consultas basadas en palabras clave. Y la gente formulará lo que es esencialmente la misma consulta usando diferentes palabras o construcciones de oraciones. Esto significa que la misma consulta tendrá muchas variaciones de bajo volumen, lo que dificulta el análisis y la extracción de información significativa.
- El segundo desafío es que las consultas de búsqueda por voz a menudo se encadenan, como si fueran una conversación. Por ejemplo, puede preguntarle a un asistente de voz digital: "¿Quién es Stephen Curry?". El asistente devolverá un resumen de los logros de las estrellas de la NBA. Puedes preguntarles "¿Qué altura tiene?", y el asistente sabrá que te estás refiriendo a Stephen Curry. El problema se complica cuando te das cuenta de que el asistente podría responder a ambas consultas utilizando dos fuentes de contenido diferentes.
Cualquier funcionalidad de análisis de búsqueda por voz debe tener en cuenta tanto los desafíos como:
- Proporcione una forma de agrupar consultas similares y, al mismo tiempo, brinde a los analistas la libertad de explorar cuáles son esas variaciones para comprender mejor el lenguaje del usuario.
- Mostrar árboles conversacionales para comprender cómo navegan los usuarios por la información y qué consultas los mantienen en nuestro contenido y cuáles dan como resultado que la consulta sea respondida con contenido de otros sitios.
Los editores que desean comprender cómo la búsqueda por voz está afectando su presencia en línea pueden comenzar analizando las consultas que atraen a las personas a su sitio y buscar consultas más largas y conversacionales, así como consultas que se formulan como una pregunta.
También puede realizar pruebas con diferentes asistentes de voz digitales para verificar qué fuentes usan para sus respuestas (los asistentes de voz comienzan sus respuestas con "según ...") y cómo se correlaciona eso con los SERP en la búsqueda de Google.
La búsqueda por voz ya es nuestro presente
El cambio en los hábitos de consumo y el papel cada vez mayor que los dispositivos inteligentes y los asistentes digitales están jugando en nuestra vida cotidiana significa que la búsqueda por voz no es cosa del futuro. Ya es un regalo con el que tenemos que lidiar.
Los editores deben tener en cuenta el cambio de interfaz de texto y referencias visuales a solo voz. Es un cambio que cambia la forma en que las personas acceden y consumen nuestro contenido. La falta de análisis confiables para comprender el rendimiento de la búsqueda por voz hace que este objetivo sea difícil de lograr. Pero, como con cualquier otra faceta de la búsqueda, todo se reduce a generar confianza con su audiencia a través de contenido autorizado y de alta calidad.