Es gab eine Zeit, in der das Sprechen von Befehlen oder Fragen an eine Maschine und das Erhalten einer Antwort etwas aus einer Science-Fiction-Zukunft war. Nun, für mehr als 110 Millionen Menschen allein in den USA ist das ihr tägliches Geschenk. Laut Gartner werden im Jahr 2020 30 % der Suchanfragen per Sprache durchgeführt .
ist die Standardschnittstelle für die mehr als 200 Millionen intelligenten Lautsprecher, von denen Canalys prognostiziert, dass sie bis Ende 2019 existieren werden . Aber die meisten Smartphones haben heute auch eine Art digitalen Assistenten installiert, der eine Sprachschnittstelle ermöglicht. Das Forschungsunternehmen Juniper Research schätzt, dass bis 2023 8 Milliarden digitale Sprachassistenten im Einsatz sein werden . Die meisten von ihnen werden auf Smartphones sein, aber auch Smart TVs, Wearables, Smart Speakers und andere IoT-Geräte werden durch Sprachbefehle ein deutliches Wachstum in ihrer Nutzung erfahren.
Der Markt für digitale Sprachassistenten wird von vier Big Playern dominiert:
- Google-Assistent. Dieser digitale Assistent wird auf allen Android-Telefonen als Teil der Google-App installiert. Natürlich verwendet es die Google-Suche, um Ihre Anfragen zu beantworten. Auch andere Google-Angebote wie YouTube oder Google Maps sind eng mit dem Assistenten verbunden. Unternehmen können die Fähigkeiten des Assistenten erweitern, indem sie Aktionen entwickeln. Diese Aktionen können verwendet werden, um mit Hardware („Hey Google, schalte das Licht im Wohnzimmer aus“) oder mit jedem anderen Onlinedienst („Hey Google, gib mir die heutigen Schlagzeilen für meine Lieblingswebsite“) zu interagieren.
- Amazon Alexa. Der digitale Assistent von Amazon ist am bekanntesten in Amazons intelligenter Lautsprecherreihe Echo. Aber tatsächlich ist es auf über 20.000 Geräten verfügbar, darunter nicht nur intelligente Lautsprecher oder Wearables, sondern auch Fernseher und sogar Autos. Alexa ermöglicht auch die Erstellung von Sprach-Apps über Alexa Skills. Amazon ermöglicht sogar die Möglichkeit von Premium-Abonnements für Skills , sodass Publisher ihre Bemühungen monetarisieren können, indem sie mehr Personalisierungsoptionen oder eine detailliertere Abdeckung anbieten. Alexa verwendet Bing als Suchmaschine.
- Apple-Siri. Was 2011 als iOS-App für das iPhone begann, ist heute ein vollwertiger digitaler Sprachassistent, der in alle Apple-Produkte eingebettet ist, einschließlich der Smart-TVs, Lautsprecher und Wearables. Apple bietet SiriKit an, damit Unternehmen ihre Apps erweitern und die Sprachinteraktion über Siri ermöglichen können. Die Standardsuchmaschine, die Siri verwendet, ist Google, obwohl sie so konfiguriert werden kann, dass sie eine andere Suchmaschine wie Duck Duck Go oder Bing verwendet.
- Microsoft Cortana. Der digitale Assistent von Microsoft ist nativ in Windows und auf Android- und iOS-Geräten als eigenständige App verfügbar. Cortana scheint bei der Akzeptanz gegenüber anderen digitalen Assistenten zurückgeblieben zu sein, und die Strategie von Microsoft scheint darin zu bestehen, Cortana mit anderen digitalen Assistenten zu integrieren, anstatt mit ihnen zu konkurrieren . Microsoft erlaubt auch die Entwicklung von Drittanbieter-Skills für Cortana, allerdings vorerst nur für den US-Markt. Angesichts ihres Strategiewechsels ist unklar, ob Cortana Skills breiter verfügbar werden würde. Cortana verwendet Bing als Suchmaschine.
Inhaltsverzeichnis
Die Sprachsuche ist nicht nur für Mobilgeräte, sondern für unseren Alltag
Die Anfänge der Sprachsuche wurden durch die ständig wachsende Verbreitung von Mobiltelefonen ausgelöst. Google Now, die vorherige Inkarnation von Assistants, wurde 2012 auf den Markt gebracht und Siri sogar noch davor, im Jahr 2011. Dies änderte sich mit der Einführung von Alexa im Jahr 2014. Der digitale Assistent lebte jetzt in einer Hardware, die so konzipiert ist, dass sie Ihr Zuhause nie verlässt.
Die digitalen Assistenten sind jetzt in eine Vielzahl von Geräten eingebettet, von Telefonen über Uhren und Fernseher bis hin zu Autos. Menschen können jetzt in einem breiteren Spektrum von Situationen mit ihnen interagieren. Aber die Art und Weise, wie wir mit dem Assistenten interagieren, unterscheidet sich natürlich radikal von der üblichen Textoberfläche von Suchmaschinen.
Wie sich die Sprachsuche von der textbasierten Suche unterscheidet
- Komplexere und längere Abfragen. Die Spracherkennung hat sich in den letzten Jahren stark weiterentwickelt und ermöglicht heute komplexere Abfragen als noch vor wenigen Jahren. Dies veranlasst den Benutzer, eine natürlichere Sprache für seine Abfragen und Befehle zu verwenden.
- Mehr Fragen. Laut Untersuchungen von seoClarity beginnen mehr als 15 % der Sprachsuchen mit dem Wie, Was, Wo, Wann, Warum und Wer. Dies liegt an der anderen Oberfläche im Vergleich zu einer textbasierten Suchmaschine.
- Kurze und prägnante Antworten. Auch wenn der Benutzer möglicherweise längere Abfragen verwendet, um auszudrücken, was der Assistent tun oder nachschlagen soll, erwarten die Benutzer kurze und klare Antworten.
- Keine visuelle Informationshierarchie. Wir sind es gewohnt, visuelle Hinweise zu verwenden und zu erkennen, um Inhalte zu organisieren und die wichtigsten Aspekte dessen hervorzuheben, was wir dem Benutzer vermitteln möchten. Der Inhalt einer Zielseite sollte für reine Sprachschnittstellen neu überdacht werden, um zu ermitteln, was hervorgehoben werden soll und wie dies ohne die visuellen Hinweise eines Browsers zu tun ist.
- Der Gewinner bekommt alles. Wenn Sie eine Suchmaschine verwenden, können Sie die Suchergebnisse überfliegen, und obwohl Sie selten auf die zweite Seite der SERP gelangen würden, können Sie durchaus auf einen Link unter den ersten drei Top-Ergebnissen klicken. In einer Sprachschnittstelle erhalten die Leute keine Ergebnisseite, auf der sie auswählen können, wohin sie gehen möchten. Der digitale Assistent gibt nur ein Ergebnis zurück.
- Lokale Suche. Wenn man bedenkt, dass zwischen 30 und 40 % der mobilen Suchanfragen lokale Suchanfragen sind, können wir auch davon ausgehen, dass ein hoher Prozentsatz der Suchanfragen in der Sprachsuche nach lokalen Ergebnissen fragt.
Keyword-Recherche für die Sprachsuche
Der Hauptunterschied bei der Keyword-Recherche für Sprache statt für Text besteht darin, dass Sie viel mehr Keywords in natürlicher Sprache verwenden. Die Art, wie wir sprechen, ist völlig anders als die Art, wie wir tippen. Wir verwenden natürliche Phrasen anstelle einer kurzen Reihe von Schlüsselwörtern.
Um herauszufinden, auf welche Keywords wir abzielen sollen, müssen wir ein semantisches Keyword-Recherche-Tool verwenden. Answer the public ist in diesen Fällen das am häufigsten verwendete Tool. Geben Sie Ihr Seed-Keyword ein und Sie erhalten eine Liste mit Fragen zu diesem Keyword. Die Daten werden zunächst in einem Diagramm dargestellt, was hübsch, aber nicht sehr nützlich ist. Glücklicherweise können Sie die Daten in einer praktischen CSV-Datei herunterladen.
Keyword-Recherche-Tool von Twinword hat auch einige nützliche Filter, um Keyword-Ideen zu finden. Sie können die Ergebnisse nach Suchabsicht und Keyword-Mustern filtern, wodurch Sie nur Fragen sehen würden, die Ihr Seed-Keyword enthalten.
Sie können auch das Snippet „People also ask“ in der Google-Suche beachten, um mehr Keyword-Möglichkeiten aufzudecken.
Wenn Sie ein Callcenter oder eine Live-Chat- oder Chatbot-Funktion haben, durchsuchen Sie die Daten aus diesen Gesprächen, um die am häufigsten gestellten Fragen zu finden.
„In meiner Nähe“-Abfragen
Da lokale Suchanfragen einen großen Teil der Sprachsuche ausmachen, können Sie viele Suchanfragen erwarten, die mit der Phrase „in meiner Nähe“ enden. Wie in: „was ist das beste Sushi in meiner Nähe“ oder „was ist das beste Fitnessstudio in meiner Nähe“. Wie kann man dafür optimieren? Lokale Unternehmen sollten ihre Daten in Verzeichnissen wie Yelp, Bewertungsseiten wie Tripadvisor und Diensten wie Kayak aktualisieren lassen. Für Verlage sind strukturierte Daten die Antwort.
So optimieren Sie Ihre Inhalte für die Sprachsuche
Optimieren Sie Ihre Website für Mobilgeräte
Die meisten Optimierungen, die Sie an Ihrer Website vornehmen sollten, um sicherzustellen, dass sie in der mobilen Suche gut abschneidet, werden sich auch auf Ihre Rankings in der Sprachsuche auswirken. Einer der wichtigsten Faktoren ist die Seitengeschwindigkeit. Unabhängig davon, ob es sich bei der Schnittstelle um Sprache oder ein mobiles Gerät handelt, erwarten die Menschen schnelle Ergebnisse.
Verwenden Sie AMP und strukturierte Daten
Strukturierte Daten sind der Schlüssel, um Google dabei zu helfen, Ihre Inhalte besser zu verstehen und zu analysieren, damit es Ihrem Publikum besser die Antworten geben kann, nach denen es sucht. Sie können Google dabei helfen, Personen, Organisationen, Veranstaltungen, Rezepte, Produkte und Orte zu identifizieren.
AMP steht für Accelerated Mobile Pages. Es ist ein von Google gestartetes Open-Source-Projekt, das die Funktionalität von Webseiten einschränkt, um ihre Geschwindigkeit drastisch zu erhöhen. AMP wird häufig mit strukturierten Daten verwendet, da AMP-Seiten dadurch in Rich-Ergebnissen auf der Suchergebnisseite angezeigt werden können.
Darüber hinaus ist für Publisher die Anzeige Ihrer Inhalte im AMP-Format mit strukturierten Daten eine der Voraussetzungen zum Erstellen einer Aktion für Google Assistant .
Es gibt ein strukturiertes Datenschema namens „speakable“ , das sich derzeit in der Betaphase befindet und Abschnitte eines Artikels identifiziert, die für die Text-to-Voice-Wiedergabe geeignet sind. Mit diesem Schema gekennzeichnete Inhalte werden von Google Assistant als Inhalte identifiziert, die über ein Google Assistant-fähiges Gerät gelesen werden können. Der Inhalt wird der Quelle zugeordnet und die URL an das Mobilgerät des Nutzers gesendet.
Dieses strukturierte Datenschema ist nur für englischsprachige Nutzer in den USA über Publisher verfügbar, die bei Google News vertreten sind.
Beantworten Sie Benutzerfragen prägnant
Laut Untersuchungen von Backlinko ist das typische Ergebnis einer Sprachsuche nur 29 Wörter lang, aber die Wortzahl einer Ergebnisseite einer Sprachsuche beträgt 2.312 Wörter. Dies ist kein Widerspruch. Im ersten Fall sprechen wir davon, dass der digitale Assistent eine bestimmte Frage oder Abfrage beantwortet. Im zweiten Fall bezieht sich die Wortzahl auf die Quelle der Antwort. Es ist unklar, ob Google Long-Form-Content als Qualitätsmerkmal bevorzugt oder ob mehr Content einfach bedeutet, dass die Wahrscheinlichkeit steigt, dass eine Seite als Antwort auf eine Anfrage verwendet wird.
In jedem Fall sagen uns diese beiden Statistiken zusammen, dass wir über die Struktur unserer Inhalte nachdenken müssen, damit wir die Hauptideen und wichtigsten Erkenntnisse in kurzen Absätzen ansprechen, die von einem Sprachassistenten aufgenommen werden können.
Schreiben Sie Inhalte, die leicht zu lesen und zu verstehen sind
Wenn Sie möchten, dass Ihre Inhalte in der Sprachinteraktion verwendet werden, müssen sie leicht lesbar und vor allem für Ihre Leser leicht verständlich sein. Denken Sie daran, dass Benutzer keine visuellen Hinweise oder Elemente wie Überschriften oder Grafiken verwenden können, um Ihre Inhalte besser zu verstehen.
Denken Sie daran, dass die meisten Anfragen in natürlicher Sprache erfolgen, als würden sie sich unterhalten. Denken Sie daran, wenn Sie Ihre Inhalte entwickeln, und schreiben Sie bei der Beantwortung bestimmter Fragen im Gespräch.
Streben Sie einen hohen Rang und Featured Snippets an
Hier geht es um Korrelation und nicht um Kausalität. Aber es gibt Hinweise, wie von Backlinko in ihrer Sprachergebnisforschung in Google Assistant analysiert, dass mehr als 75 % der Sprachsuchergebnisse von den ersten drei Positionen im SERP stammen und dass 40 % von einem Featured Snippet stammen.
Dies ist nur ein weiterer Beweis dafür, dass Google Assistant und andere digitale Sprachassistenten hochautoritative Ergebnisse bevorzugen, um sicherzustellen, dass sie die Benutzeranfrage bei ihrer ersten Antwort erfüllen.
Da Featured Snippets bereits kurze Antworten auf bestimmte Fragen sind, ist es für den Assistant sinnvoll, diese zu verwenden.
Das bedeutet, dass Ihre Optimierungsbemühungen für die Google-Suche auch einen messbaren Einfluss darauf haben, wie Ihre Inhalte von einem digitalen Sprachassistenten verwendet werden.
Analysieren und beantworten Sie die Benutzerabsicht
Identifizieren Sie die Benutzerabsicht, für die Sie Inhalte bereitstellen. Drei Hauptbenutzerabsichten können durch die Sprachsuche beantwortet werden. Zuerst Informationen bekommen: Was ist das? Wie mache ich das?. Die zweite ist die Navigation: Wo ist das?. Und die dritte und letzte Absicht ist Handeln: Einen Tisch in einem Restaurant reservieren, ein Paar Schuhe kaufen, eine Liste aller Musikkonzerte erhalten, die an diesem Wochenende stattfinden.
L'Oreal hat eine Content-Strategie implementiert, die auf der Beantwortung von „How to“-Fragen basiert . Ihre Forschung zeigt, wonach ihre Benutzer suchen, wenn sie Sprachsuchanfragen verwenden.
Bauen Sie Ihr Vertrauen und Ihre Autorität auf
Wie wir gesehen haben, ist die Sprachsuche ein Spiel, bei dem alles gewinnt. Ein digitaler Sprachassistent zeigt keine Ergebnisliste an, sondern liefert direkt eine Antwort aus diesen Suchergebnissen. Da sie nur ein Ergebnis liefern können, ist es sinnvoll, dass sie dazu neigen, Ergebnisse von Domänen mit hoher Autorität zu bevorzugen, auch wenn sie möglicherweise nicht das beste Ergebnis für diese Suchanfrage sind.
Lokales SEO ist der Schlüssel für die Sprachsuche
Ein hohes Volumen an Sprachsuchanfragen bezieht sich auf lokale Ergebnisse. Bei der Optimierung für lokale SEO-Anfragen geht es weniger darum, Inhalte mit lokalen Schlüsselwörtern zu produzieren, als vielmehr darum, eine gesunde und aktualisierte Präsenz bei bestimmten Diensten und Verzeichnissen aufrechtzuerhalten. Beispielsweise sollten lokale Unternehmen ihren Eintrag bei Google My Business , Bing Places for Business und Apple Maps Connect . Sie hätten dann ein größeres Maß an Kontrolle über die Informationen, die von Google Assistant, Alexa, Cortana und Siri abgerufen werden, die auch Daten und Bewertungen von Yelp verwenden.
Verlage (und auch lokale Unternehmen) können strukturierte Daten implementieren, um lokale Elemente in ihren Inhalten hervorzuheben, so wie es Yelp und Ticketmaster für ihre Rezensionen und Veranstaltungen tun. Erstellen Sie Google Actions oder Alexa Skills, damit Benutzer mit Ihren Inhalten interagieren können
Alle wichtigen digitalen Sprachassistenten ermöglichen die Erstellung von Sprach-Apps, damit Benutzer über die Assistenten mit Ihren Inhalten interagieren können.
Google geht noch ein bisschen weiter und erstellt automatisch Aktionen für Ihre Inhalte basierend auf den strukturierten Daten Ihrer Website. In diesem Fall erhält Ihr Websitebesitzer, wie in den Daten der Google Search Console angegeben, eine E-Mail. Dann können Sie Ihre Aktion beanspruchen oder deaktivieren.
Beispielsweise erstellt Google eine Aktion für Podcasts basierend auf ihrem RSS-Feed, mit der Benutzer Episoden auf ihren Geräten über den Assistenten finden und abspielen können. Anleitungen, FAQs und Rezepte verwenden ebenfalls strukturiertes Daten-Markup, um Aktionen automatisch zu generieren.
Als Nachrichtenverleger müssen Sie bereits in Google News aufgenommen sein und AMP und strukturierte Daten in Ihren Artikeln verwenden, um automatisch eine Aktion generieren zu können.
Publisher haben bereits damit begonnen, Partnerschaften mit Google einzugehen, um spezialisierte Aktionen zu entwickeln. Vogue führte 2017 eine Funktion ein, mit der Benutzer mit der Veröffentlichung in Google Home interagieren , um mehr Informationen über bestimmte Geschichten zu erhalten, die von den Autoren selbst erzählt wurden.
Andere Verlage, wie Bloomberg oder The Washington Post , haben Alexa Skills entwickelt, die es den Benutzern ermöglichen, sich täglich die wichtigsten Nachrichten des Tages anzuhören.
Die Daily Mail ging noch einen Schritt weiter, indem sie ihre gesamte Tagesausgabe auf Alexa stellte . Während andere Verlage den Ton selbst aufnehmen, verwendet die Daily Mail in diesem Fall die automatisierten Text-to-Speech-Funktionen von Alexa. Ein weiterer Unterschied besteht darin, dass die Daily Mail diese Funktion in diesem Fall nur ihren aktuellen Abonnenten zur Verfügung stellt.
Können Sie die Auswirkungen der Sprachsuche analysieren?
Die kurze Antwort ist nein. Zumindest noch nicht. Auch wenn Google seit mindestens 2016 , dass sie Sprachsuchanalysen in die Google Search Console integrieren wollen, ist es Tatsache, dass es bis heute keine Möglichkeit gibt, Sprachsuchanfragen und -ergebnisse zu analysieren.
Es gibt einige Herausforderungen, die Google und andere Analyseanbieter daran hindern, diese Funktion bereitzustellen:
- Erstens sind Abfragen in natürlicher Sprache tendenziell länger als schlüsselwortbasierte Abfragen. Und die Leute werden im Wesentlichen dieselbe Abfrage mit unterschiedlichen Wörtern oder Satzkonstruktionen formulieren. Dies bedeutet, dass dieselbe Abfrage viele Variationen mit geringem Volumen aufweist, was es schwierig macht, aussagekräftige Erkenntnisse zu analysieren und zu extrahieren.
- Die zweite Herausforderung besteht darin, dass Sprachsuchanfragen oft wie in einem Gespräch aneinandergereiht werden. Sie können beispielsweise einen digitalen Sprachassistenten fragen: „Wer ist Stephen Curry?“. Der Assistent gibt eine Zusammenfassung der Leistungen der NBA-Stars zurück. Sie können sie fragen „Wie groß ist er?“, und der Assistent wird wissen, dass Sie sich auf Stephen Curry beziehen. Das Problem wird komplizierter, wenn Sie feststellen, dass beide Abfragen vom Assistenten mit zwei verschiedenen Inhaltsquellen beantwortet werden könnten.
Jede Sprachsuchanalysefunktion muss sowohl Herausforderungen berücksichtigen als auch:
- Bieten Sie eine Möglichkeit, ähnliche Abfragen zusammenzufassen, und geben Sie Analysten gleichzeitig die Freiheit, diese Variationen zu untersuchen, um die Sprache des Benutzers besser zu verstehen.
- Konversationsbäume anzeigen, um zu verstehen, wie Benutzer durch die Informationen navigieren und welche Abfragen sie in unseren Inhalten halten und welche dazu führen, dass die Abfrage mit Inhalten von anderen Websites beantwortet wird.
Publisher, die verstehen möchten, wie sich die Sprachsuche auf ihre Online-Präsenz auswirkt, könnten damit beginnen, die Suchanfragen zu analysieren, die Nutzer auf Ihre Website bringen, und nach längeren, eher dialogorientierten Suchanfragen sowie Suchanfragen suchen, die als Frage formuliert sind.
Sie könnten auch Tests mit verschiedenen digitalen Sprachassistenten durchführen, um zu überprüfen, welche Quellen sie für ihre Antworten verwenden (Sprachassistenten beginnen ihre Antworten mit „laut …“) und wie dies mit SERPs in der Google-Suche korreliert.
Die Sprachsuche ist bereits unsere Gegenwart
Die veränderten Konsumgewohnheiten und die zunehmende Rolle von Smart Devices und digitalen Assistenten in unserem Alltag machen der Sprachsuche keine Zukunftsmusik. Ist bereits ein Geschenk, mit dem wir uns befassen müssen.
Verlage müssen die Änderung der Benutzeroberfläche von Text und visuellen Verweisen auf reine Sprache berücksichtigen. Es ist eine Veränderung, die die Art und Weise verändert, wie Menschen auf unsere Inhalte zugreifen und sie konsumieren. Der Mangel an zuverlässigen Analysen zum Verständnis der Leistung der Sprachsuche macht es schwierig, dieses Ziel zu erreichen. Aber wie bei jeder anderen Facette der Suche kommt es darauf an, Vertrauen bei Ihrem Publikum durch maßgebliche, qualitativ hochwertige Inhalte aufzubauen.