Bing nimmt Google an und zeigt Suchergebnisse 10x schneller an

Inhaltsverzeichnis:

Video: Force Microsoft Edge to Use Google Search & Remove Bing New Tabs 2024

Video: Force Microsoft Edge to Use Google Search & Remove Bing New Tabs 2024
Anonim

Microsofts spezielle Hardware für die KI-Berechnung heißt Brainwave und wurde so entwickelt, dass ein neuronales Netzwerk so schnell wie möglich mit minimaler Latenz ausgeführt werden kann.

Das Unternehmen gab bekannt, dass es seit der Verwendung von Brainwave gelungen ist, die Leistung der KI von Bing um das Zehnfache zu steigern. Das Modell des maschinellen Lernens unterstützt im Wesentlichen die Funktionalität der Suchmaschine.

Microsofts Ziel, das über Brainwave erreicht werden soll, ist die Bereitstellung von AI-Vorhersagen in Echtzeit für Apps wie die neuesten Bing-Funktionen.

Bing erhält neue Funktionen

Microsoft bietet Bing auch einige neue Funktionen, und die wichtigsten, die es zu erwähnen gilt, bieten mehr Antworten auf Fragen zur Vorgehensweise und Unterstützung beim Definieren von Wörtern, die nicht so häufig verwendet werden, wenn Benutzer mit dem Mauszeiger darüber fahren. Diese Funktionen werden von Brainwave unterstützt.

Microsoft verwendet die FPGAs von Intel, um die KI-Berechnung zu ermöglichen

FPGAs sind so etwas wie leere Leinwände, die Entwickler verwenden können, wenn sie verschiedene Schaltkreise bereitstellen möchten, indem sie neue Software senden. Dies beinhaltet eine starke Mischung aus Leistung und Programmierbarkeit.

Microsoft kann jetzt mehr als nur schnellere Modelle mit der Hardware erstellen. Das Unternehmen kann auch anspruchsvollere KI-Systeme bauen. Beispielsweise ist Bings Turing Prototype 1 dank der über Brainwave hinzugefügten Rechenkapazität jetzt zehnmal komplexer und schneller.

Die von Microsoft bereitgestellten FGAs sind mit dedizierten digitalen Signalprozessoren ausgestattet, die für komplexe KI-Mathematik optimiert sind.

Der Hauptvorteil von FPGAs

Der bedeutendste Vorteil von FPGAs gegenüber den GPUs (die zur bevorzugten Wahl für AI-Berechnungen wurden) besteht darin, dass sie keine umfangreichen Stapelberechnungen erfordern.

Eine wichtige Neuerung, die Microsoft ermöglicht, über FPGAs so erfolgreiche Ergebnisse zu erzielen, ist die Verwendung von 8- und 9-Bit-Gleitkomma-Datentypen, die die Leistung radikal steigern.

Mit den FPGA-Chips von Intel kann Bing Milliarden von Dokumenten im gesamten Web schnell lesen und analysieren und in weniger als einem Sekundenbruchteil die beste Antwort auf Ihre Frage liefern.

Dank der FPGAs von Intel konnten wir die Latenz unserer Modelle um mehr als das 10-fache senken und gleichzeitig die Modellgröße um das 10-fache erhöhen.

Die Verwendung von FPGAs zur Beschleunigung der KI-Berechnung stammt aus dem Jahr 2012

Microsoft hat vor mehr als sechs Jahren damit begonnen, FPGAs zu verwenden, um die Geschwindigkeit der KI-Berechnung zu verbessern, als das Bing-Team damit begann, die Chips zu verwenden. All dies sind großartige Neuigkeiten für Intel. Das Unternehmen kaufte Altera, einen FPGA-Hersteller, im Jahr 2015, und der 16, 7-Milliarden-Dollar-Deal versorgte Intel mit der notwendigen Energie, um die Bedürfnisse von Microsoft bis heute zu befriedigen.

Wir freuen uns darauf, dass Brainwave über Microsoft Azure verfügbar ist, um Kunden die Möglichkeit zu geben, ihre Modelle bereitzustellen.

Bing nimmt Google an und zeigt Suchergebnisse 10x schneller an