HPE hat den zweiten Prototypen seines Big-Data-Rechners "The Machine" veröffentlicht. Dieser soll dank einem Arbeitsspeicher von satten 160 Terabyte das bis zu fünffache Datenvolumen seines Vorgängers gleichzeitig bearbeiten können. "
Zdnet.de" zufolge entspreche dies rund 160 Millionen Büchern. Der Rechner arbeitet mit einem optimierten Linux-Betriebssystem, das auf Thunder X2 basiert. Zudem kommt die ARM-v8-SoC-Architektur der zweiten Generation von Cavium zum Zug.
Ziel der Entwicklung von "The Machine" ist es laut HPE, den neuen Anforderungen, die durch Cloud Computing, IOT und M2M Computing entstehen, gerecht zu werden. Dank dem Rechner soll es möglich sein, aus der Datenflut bahnbrechende Innovationen und Technologien herauszufiltern. Hierzu hat HPE die Trennung von Hauptspeicher und Massenspeicher aufgehoben und stattdessen einen universellen Speicher eingeführt. Auf diesen können bis zu 40 Nodes gleichzeitig zugreifen. Der universelle Speicher kommuniziert über optische Verbindungen mit auf bestimmte Arbeitslasten spezialisierten Prozessoren. Diese optischen Technologien sollen dem Bericht zufolge mit den HPE-Synergy-Systemen, die für das laufende Jahr angekündigt wurden, erhältlich werden. Zudem soll ab 2018 die Photonik-Technologie von "The Machine" in anderen Produktlinien eingesetzt werden. Weitere Informationen zu "The Machine" können der
Website von HPE sowie dem untenstehenden Video entnommen werden.
(af)