Intels gegenwärtiges und zukünftiges KI-Chip-Geschäft

Die Zukunft von Intel ist die KI. Seine Bücher implizieren das. Die KI-Chipsegmente des Santa Clara-Konzerns erzielten im vergangenen Jahr einen Umsatz von 1 Milliarde US-Dollar, und Intel erwartet, dass die Marktchancen jährlich um 30% von 2,5 Milliarden US-Dollar im Jahr 2017 auf 10 Milliarden US-Dollar im Jahr 2022 steigen werden. In diesem Zusammenhang macht der datenzentrierte Umsatz heute rund die Hälfte des gesamten Geschäfts in allen Divisionen aus, gegenüber rund einem Drittel vor fünf Jahren.

Dennoch droht der zunehmende Wettbewerb mit etablierten Unternehmen wie Nvidia, Qualcomm, Marvell und AMD, Start-ups wie Hailo Technologies, Graphcore, Wave Computing, Esperanto und Quadric und sogar Amazon die Gewinne von Intel zu verlangsamen, weshalb sich das Unternehmen nicht auf seinen Lorbeeren ausruht. Intel kaufte 2015 den FPGA-Hersteller Altera und ein Jahr später Nervana, füllte seine Hardware-Plattformangebote aus und schuf die Voraussetzungen für eine völlig neue Generation von KI-Beschleuniger-Chipsätzen. Im vergangenen August schnappte sich Intel Vertex.ai, ein Startup, das eine plattformunabhängige KI-Modellreihe entwickelt.

Intel hat natürlich viel auf dem Frontbrenner – so viel, dass es schwierig ist, den Überblick zu behalten. Aber Vizepräsident und Architektur-Generaldirektor Gadi Singer freute sich, uns in einem kürzlich geführten Interview zu unterstützen. Ebenso Casimir Wierzynski, Senior Director in Intels Produktgruppe Künstliche Intelligenz, der einen Einblick in Intels Arbeit mit lichtbasierten, KI-beschleunigenden photonischen Schaltungen und optischen Chips gab.

„KI-Hardware ist eine Multimilliarden-Dollar-Gelegenheit. Die Tatsache, dass wir in mehrere Produktlinien investieren können und werden, liegt daran, dass die Bedürfnisse[breit] reichen werden – einige werden sich auf Dinge wie Beschleunigung mit viel Energieeffizienz-Empfindlichkeit konzentrieren, die sich von anderen unterscheiden“, sagte Singer. „Das ist also ein Bereich, der es wert ist, in ein sich ergänzendes Portfolio zu investieren.“

Intel

Software

Hardware ist nichts, wenn sie nicht leicht zu entwickeln ist, betonte Singer zu Recht. Deshalb hat Intel darauf geachtet, den Teil des Software-Ökosystems des KI-Puzzles nicht zu vernachlässigen, sagte er.

Im vergangenen April kündigte das Unternehmen an, dass es nGraph, einen neuronalen Netzwerkmodell-Compiler, der Assembler-Code über mehrere Prozessorarchitekturen hinweg optimiert, als Open-Source-Lösung einsetzen wird. Etwa zur gleichen Zeit nahm Intel die Wraps von One API, einer Suite von Tools zum Abbilden von Rechenmaschinen auf eine Reihe von Prozessoren, Grafikchips, FPGAs und anderen Beschleunigern. Und im Mai stellte das neu gegründete KI-Labor des Unternehmens eine plattformübergreifende Bibliothek für die Verarbeitung natürlicher Sprache – NLP Architect – zur Verfügung, die darauf ausgelegt ist, Gesprächsassistenten mit Namensentitätserkennung, Intent Extraktion und semantischem Parsing zu versorgen und zu bewerten.

Singer bemerkte, dass dies nicht die einzigen Toolkits sind, die Intel im Open-Source-Bereich hat. Es bietet jetzt seine neuronale Netzwerk-Destillationsbibliothek an, mit der Teile von KI-Modellen, die für eine Zielaufgabe irrelevant sind, entfernt werden können, um die Größe dieser Modelle zu verringern. Es gibt auch net Framework 4 Chip, ein Verstärkungs-Lernframework, mit dem Benutzer KI-Agenten in Trainingsumgebungen für Robotik und selbstfahrende Fahrzeugszenarien einbetten können.

Im Frühjahr 2018 wurde OpenVINO (Open Visual Inference & Neural Network Optimization) vorgestellt, ein Toolset für die Entwicklung von AI Edge Computing, das vorgefertigte AI-Modelle für die Objekterkennung, Gesichtserkennung und Objektverfolgung enthält. Es arbeitet mit traditionellen CPUs oder Chips, die speziell für die Inferenzierung (dem Zeitpunkt, zu dem ein trainiertes KI-Modell Vorhersagen macht) wie FPGAs entwickelt wurden, und es wurde bereits von Unternehmen wie GE Healthcare für medizinische Bildgebung und Dahua für Smart City Services eingesetzt.

Singer sagte, dass OpenVINO dazu bestimmt ist, Intels Computer Vision Software Development Kit (SDK), das Videoverarbeitung, Computer Vision, Machine Learning und Pipeline-Optimierung in einem einzigen Paket kombiniert, mit Movidius Neural Compute SDK zu ergänzen, das eine Reihe von Software zum Kompilieren, Profilieren und Überprüfen von Modellen für Machine Learning beinhaltet. Sie gehören zur gleichen Familie wie Intels Movidius Neural Compute API, die darauf abzielt, die App-Entwicklung in Programmiersprachen wie C, C++ und Python zu vereinfachen.

Viele dieser Suiten laufen in Intels KI DevCloud, einer von der Cloud gehosteten KI-Modell-Trainings- und Inferencing-Plattform auf Basis von Xeon Scalable-Prozessoren. DevCloud bietet skalierbare Speicher- und Rechenressourcen und ermöglicht es Entwicklern, Modelle aus der Ferne auf Hardware zu testen, zu optimieren und zu validieren, wie beispielsweise Mini-PCIe-Entwicklungsboards von Herstellern wie Aaeon Technologies.

Datenschutz

Intel ist sich des Trends zum privatwirtschaftlichen KI-Training und Inferencing bewusst, sagte Singer, der auf das Open-Sourcing Ende letzten Jahres von HE-Transformer als wichtigen ersten Schritt hinwies. Auf hohem Niveau ist der HE-Transformer ein nGraph Backend, das auf der Simple Encrypted Arithmetic Library (SEAL) von Microsoft Research basiert, die es KI-Modellen ermöglicht, mit verschlüsselten Daten zu arbeiten.

Das „HE“ im HE-Transformer ist die Abkürzung für „homomorphe Verschlüsselung“, eine Form der Kryptographie, die die Berechnung von Chiffriertexten ermöglicht – Klartext (Dateiinhalt), der mit einem Algorithmus verschlüsselt wird. Es erzeugt ein verschlüsseltes Ergebnis, das bei der Entschlüsselung genau dem Ergebnis von Operationen entspricht, die mit unverschlüsseltem Text durchgeführt worden wären.

HE-Transformer fügt effektiv eine Abstraktionsschicht hinzu, die auf neuronale Netzwerke in Open-Source-Frameworks wie Google’s TensorFlow, Facebook’s PyTorch und MXNet angewendet werden kann.

„Wir glauben, dass sowohl Sicherheit als auch Privatsphäre eine wichtige Rolle spielen werden. Es ist eigentlich ein grundlegender Faktor für maschinelles Lernen im großen Maßstab“, sagte er. „Datenschutzfragen werden immer wichtiger, wenn Sie z.B. Informationen für viele Patienten in vielen Krankenhäusern erhalten wollen. Wenn Sie mehr über das Verhalten und die Bewegungen dieser Personen erfahren möchten, wenn Sie nicht in der Lage sind, ihre Privatsphäre zu schützen, dann erhalten Sie keinen Zugriff auf diese Daten.

Auf die Frage, ob Intel die Entwicklung einer maschinellen Lernbibliothek wie Googles TensorFlow Privacy verfolgen würde, die eine Reihe von statistischen Techniken einsetzt, um den Datenschutz im KI-Modelltraining zu gewährleisten, sagte Singer, dass an verwandten Tools gearbeitet wird. „Wir sprechen zum jetzigen Zeitpunkt nicht darüber, denn es ist sehr früh für unsere Fähigkeiten im Bereich des tiefen Lernens“, sagte er. „Aber es gibt ein hohes Interesse und eine Menge Investitionen zu diesem Zeitpunkt.“

Beschleuniger und FPGAs

Die neuronalen Netze, die das Herzstück der meisten KI-Systeme bilden, bestehen aus Neuronen, oder mathematischen Funktionen, die lose nach biologischen Neuronen modelliert sind. Diese sind durch „Synapsen“ verbunden, die Signale an andere Neuronen übertragen, und sie sind in Schichten angeordnet. Diese Signale – das Produkt von Daten oder Eingaben, die in das neuronale Netzwerk eingespeist werden – wandern von Schicht zu Schicht und stimmen das Netzwerk langsam ab, indem sie die synaptische Stärke (Gewichte) jeder Verbindung anpassen. Im Laufe der Zeit extrahiert das Netzwerk Merkmale aus dem Datensatz, identifiziert stichprobenübergreifende Trends und lernt schließlich, Vorhersagen zu treffen.

Neuronale Netzwerke nehmen keine Rohdaten von Bildern, Videos, Audio oder Text auf. Vielmehr werden Proben aus Trainingskorpora algebraisch in multidimensionale Arrays wie Skalare (einzelne Zahlen), Vektoren (geordnete Arrays von Skalaren) und Matrizen (in einer oder mehreren Spalten und einer oder mehreren Zeilen angeordnete Skalare) umgewandelt. Ein vierter Entitätstyp, der Skalare, Vektoren und Matrizen kapselt – Tensoren – fügt Beschreibungen gültiger linearer Transformationen (oder Beziehungen) hinzu.

Ein einzelnes Bild mit Millionen von Pixeln zum Beispiel kann in eine große Matrix von Zahlen umgewandelt werden, während Wörter und Phrasen aus Äußerungen in einer Audioaufzeichnung auf Vektoren abgebildet werden, eine Technik, die als Einbettung bezeichnet wird.

Einige Hardwaregeräte wickeln diese statistischen Vorgänge effizienter ab als andere, was wenig überraschend ist. Prozessoren sind im Allgemeinen ausreichend für die Inferenzierung und einige Schulungen mit komplexen sequentiellen Berechnungen – insbesondere solche wie Intels Xeon Scalable CPUs der zweiten Generation, die eine Kombination aus neuronalen Vektor-Netzwerkanweisungen und Deep-Learning-Software-Optimierungen namens DL Boost AI aufweisen. Zu diesem Zweck behauptet Intel, dass seine Xeon Scalable CPUs der zweiten Generation bis zu 2,4-fache Leistung bei KI-Workloads bieten, die 60% der Inferenzierung im Rechenzentrum ausmachen, und bis zu 14-fache Leistung bei der Inferenzierung von Workloads, einschließlich Bilderkennung, Objekterkennung und Bildsegmentierung. Das Unternehmen behauptet auch, dass die bevorstehende 10-Nanometer-Architektur von Ice Lake eine bis zu 8,8-mal höhere Spitzen-KI bieten wird, die den Durchsatz beeinflusst als vergleichbare Produkte auf dem Markt.

Aber einige der anspruchsvollsten Deep-Learning-Aufgaben beinhalten Tensoroperationen, und Grafikkarten und speziell entwickelte Chips, die als anwendungsspezifische integrierte Schaltungen (ASICs) bezeichnet werden, sind für diese Operationen günstiger. Das liegt daran, dass sie Tausende von Kernen enthalten, die in der Lage sind, Millionen von mathematischen Berechnungen parallel durchzuführen.

„Auch wenn die CPU für die Inferenzierung sehr effektiv ist, gibt es Fälle, in denen Sie Tensoroperationen durchführen müssen. Die anspruchsvollsten Aufgaben im Bereich des tiefen Lernens sind die Arbeit mit multidimensionalen Arrays und die Durchführung der gesamten Arithmetik auf Tensoren“, sagte er. „[Aus] einer Sicht der Lösungsarchitektur ist es sinnvoll, die CPUs kontinuierlich zu verbessern, sowohl im Hinblick auf die Optimierung von Software- als auch zusätzlicher Hardware-Features….[aber] CPUs allein werden nicht ausreichen, um alle diese Arten von[Use Cases] abzudecken.“

Betrachten Sie einen Vision-Prozessor wie Intels 16nm Myriad X VPU. Es ist optimiert für die Bildsignalverarbeitung und die Inferenzierung auf dem Gerät, mit einem Stereoblock, der Dual 720p Feeds mit bis zu 180Hz verarbeiten kann, und einer abstimmbaren Signalprozessor-Pipeline mit hardwarebasierter Codierung für bis zu 4K Videoauflösung über acht Sensoren. Es verfügt auch über Intels Neural Compute Engine, einen dedizierten Hardwarebeschleuniger mit nativer FP16-Unterstützung und Festkomma 8-Bit-Unterstützung.

Intel behauptet, dass der Chip 4 Teraflops Rechenleistung und 1 Billion Operationen pro Sekunde erreichen kann.

This entry was posted in Hardware. Bookmark the permalink.

Comments are closed.