Google BERT: Komplexe Abfragen besser verstehen

Google BERT: Komplexe Abfragen besser verstehen

Mit der Ankündigung, es sei die “größte Veränderung der letzten fünf Jahre” und “eine, die sich auf jede zehnte Suche auswirken wird”, hat Google mit Sicherheit einige Köpfe mit einem unauffälligen Namen umgedreht: BERT. BERT ist ein NLP-Modell (Natural Language Processing), mit dem Google die Sprache besser versteht, um relevantere Ergebnisse zu erzielen. Es gibt Millionen von Artikeln online über diese Neuigkeiten, aber wir wollten Sie trotzdem darüber auf dem Laufenden halten. In diesem Artikel werfen wir einen kurzen Blick auf die Funktionsweise von BERT und verweisen auf verschiedene Ressourcen, die Ihnen ein umfassenderes Verständnis der Funktionsweise von BERT vermitteln.

Das Wichtigste ist zunächst, dass sich die Empfehlungen von Google beim Rollout dieser Updates für den Algorithmus nicht ändern. Produzieren Sie weiterhin qualitativ hochwertige Inhalte, die den Zielen Ihrer Nutzer entsprechen, und machen Sie Ihre Website so gut wie möglich. Aus diesem Grund werden wir kein Patentrezept für die Optimierung des BERT-Algorithmus vorlegen, da es keines gibt.

Was ist Google BERT?

BERT ist eine neuronale netzwerkbasierte Technik für die Verarbeitung natürlicher Sprache (NLP), die auf dem Wikipedia-Korpus vorab trainiert wurde. Das vollständige Akronym lautet Bidirectional Encoder Representations from Transformers. Das ist schon der Bissen. Es ist ein Algorithmus für maschinelles Lernen, der zu einem besseren Verständnis von Abfragen und Inhalten führen soll.

Das Wichtigste, woran Sie sich erinnern müssen, ist, dass BERT den Kontext und die Beziehungen aller Wörter in einem Satz verwendet und nicht nacheinander. So kann BERT den vollständigen Kontext eines Wortes herausfinden, indem er die Wörter betrachtet, die davor und danach kommen. Der bidirektionale Teil macht BERT einzigartig.

Auf diese Weise kann Google den gesamten Inhalt einer Abfrage besser verstehen. Google hat im Launch-Blog-Post mehrere Beispielabfragen veröffentlicht. Ich werde sie nicht alle wiederholen, sondern möchte eine hervorheben, um Ihnen eine Vorstellung davon zu geben, wie es bei der Suche funktioniert. Für Menschen geht es bei der Abfrage [2019 brasilianische Reisende nach USA brauchen ein Visum] offensichtlich darum, zu beantworten, ob Reisende aus Brasilien 2019 ein Visum für die USA benötigen. Computer tun sich damit schwer. Früher hat Google das Wort “bis” in der Abfrage weggelassen, wodurch die Bedeutung geändert wurde. BERT berücksichtigt alles im Satz und findet so die wahre Bedeutung heraus.

Google Bert

Wie Sie dem Beispiel entnehmen können, funktioniert Google BERT am besten bei komplexeren Abfragen. Es ist nicht etwas, das bei der Suche nach Schlagwörtern zum Tragen kommt, sondern die Suchanfragen im langen Schwanz. Trotzdem sagt Google, dass es jede zehnte Suche betreffen wird. Und selbst dann sagt Google, dass BERT manchmal etwas falsch macht. Es ist nicht die endgültige Lösung für das Sprachverständnis.

Wo wendet Google BERT an?

Für das Ranking von Inhalten wird BERT derzeit in den USA in englischer Sprache eingeführt. Google nutzt die Erkenntnisse von BERT, um die Suche auch in anderen Sprachen zu verbessern. Heutzutage wird BERT für ausgewählte Snippets in allen Märkten verwendet, in denen diese umfangreichen Ergebnisse angezeigt werden. Dies führt laut Google in diesen Märkten zu deutlich besseren Ergebnissen.

Nützliche Ressourcen

Wir gehen nicht ins Detail, was BERT tut, sprechen über seine Auswirkungen auf NLP und darüber, wie es jetzt in die Suche einbezogen wird, da wir einen anderen Ansatz verfolgen. Wenn Sie verstehen möchten, wie dies funktioniert, sollten Sie sich über die Forschung informieren. Zum Glück gibt es zu diesem Thema viele lesbare Artikel.

Das Original-BERT-Papier (pdf) enthält alles, was Sie brauchen, um herauszufinden, wie Google BERT genau funktioniert. Leider ist es sehr wissenschaftlich und die meisten Menschen benötigen eine Übersetzung. Glücklicherweise hat Keita Kurita das ursprüngliche BERT-Papier in lesbare Lektionen zerlegt: BERT: Vorschulung von tiefen bidirektionalen Transformatoren für das erklärte Sprachverständnis.
Rani Horevs Artikel BERT Explained: Modernes Sprachmodell für NLP bietet auch eine hervorragende Analyse des ursprünglichen Google-Forschungsberichts.
Dawn Anderson ist eine der interessantesten SEOs, die es zu diesem Thema zu befolgen gilt. Schauen Sie sich ihren epischen Einblick in Google BERT und das Slide-Deck mit dem Titel Google BERT and Family und das Leaderboard-Rennen zum Verständnis natürlicher Sprache an.
Benötigen Sie eine Einführung in NLP, die von Computern zum Verstehen der menschlichen Sprache verwendet wird? Hier ist eine sechsminütige Lektüre: Eine Einführung in die Verarbeitung natürlicher Sprachen.
Und seit dem Open-Source-BERT von Google finden Sie alles auf GitHub. Warum nicht eigene Modelle und Experimente durchführen?
Außerdem ein großartiger, aber sehr relevanter Artikel von AJ Kohn über die Analyse algorithmischer Veränderungen im Zeitalter der Einbettungen.
Last but not least lernt ein Artikel von Wired-Autor John Pavlus mit dem Titel “Computer” das Lesen, aber sie sind immer noch nicht so schlau.
Dies sollte Ihnen ein solides Verständnis dafür vermitteln, was in der sich schnell entwickelnden Welt des Sprachverständnisses vor sich geht.

Das neueste Update von Google: BERT

Die wichtigste Erkenntnis aus diesem BERT-Update ist, dass Google dem Verständnis der Sprache auf menschlicher Ebene wieder näher kommt. Für Rankings bedeutet dies, dass Ergebnisse angezeigt werden, die besser zu dieser Abfrage passen und nur eine gute Sache sein können.

Es gibt keine Optimierung für Google BERT außer der Arbeit, die Sie bereits erledigen: Erstellen Sie relevante Inhalte in hervorragender Qualität.

This post first appeared in English on yoast.com at: https://yoast.com/google-bert/