Die Europäische Organisation für Kernforschung (CERN) die Entwicklungs-Version einer neuen Cloud-Speicher-Lösung von Huawei erfolgreich einem Leistungstest unterzogen hat. Das CERN hat mit steigenden Anforderungen durch die Anwender und einem immer stärkeren Datenwachstum zu kämpfen.
Die Huawei-Lösung konnte sich durch flexible Skalierbarkeit auszeichnen und wird voraussichtlich Ende des Jahres offiziell angekündigt. Im Rahmen der CERN-openlab-Partnerschaft hat Huawei den Cloud-Speicher Anfang 2012 an das CERN geliefert, innerhalb von drei Monaten aufgebaut, in Betrieb genommen und den Leistungstest bestanden. Huaweis Cloud-Speicher hat sich als sehr leistungsstark beim Schreiben und Lesen in Massenspeicher-Umgebungen erwiesen.
Das System verfügt über Funktionen zur automatischen Analyse, Reparatur und Wartung. Das senkt die Betriebskosten und verbessert die Verfügbarkeit und Zuverlässigkeit. Der Test bestätigte, dass die innovative Hard- und Software-Architektur der neuen Cloud-Lösung den Anforderungen des CERN an Massenspeicher entspricht.
Das CERN-Rechenzentrum ist auch als Worldwide LHC Computing Grid (WLCG) Tier-0 bekannt. Es ist zentraler Bestandteil der weltweit verteilten IT-Ressourcen, die es den Forschern ermöglichen, jedes Jahr mehr als 20 PB Daten aus den Versuchen mit dem Large Hadron Collider (LHC) zu speichern und zu analysieren.
CERN openlab ist eine Partnerschaft zwischen dem CERN und führenden ITK-Unternehmen. Im Rahmen dieser Partnerschaft werden innovative und fortschrittliche IT-Systeme für die LHC-Community entwickelt. Dafür werden Ansätze und Lösungen aus Wirtschaft und Wissenschaft kombiniert.
Als Mitglied von CERN openlab fokussiert sich Huawei auf die Untersuchung, ob sich neue Speicher-Techniken und -Architekturen dafür eignen, die großen Datenmengen aus den Versuchen mit dem LHC zu verarbeiten.
James Hughes, Chief Architect of Cloud Storage bei Huawei, sagte: „Die Zusammenarbeit mit CERN openlab ermöglicht uns, unsere Cloud-Speicher weiterzuentwickeln und zu beweisen, dass sich diese Lösungen für die außergewöhnlichen Anforderungen von wissenschaftlicher Forschung und Big Data eignen.“