Autor Thema: Petaflop/Exaflops-Supercomputer  (Gelesen 3820 mal)

0 Mitglieder und 1 Gast betrachten dieses Thema.

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
Top500-Liste der Supercomputer: America first again
« Antwort #30 am: 14 November, 2016, 16:19 »
In Salt Lake City trifft sich in diesem Jahr die internationale Supercomputerszene zur SC16. Zu Beginn der Konferenz wird die neue Top500-Liste der Supercomputer veröffentlicht. Im Zweikampf USA gegen China hat die USA wieder ein bisschen nachgelegt.

Mit Cori, dem neuen Supercomputer in Berkeley, hat man es noch vor Donald Trumps Regentschaft geschafft, wenn auch nicht auf Platz 1 der Top500-Liste: Amerika ist zumindest bei der Gesamtleistung der Supercomputer wieder Nummer 1, nachdem China im Sommer die USA überholt hatte. Das ergibt die neue 48. Top500-Liste, die zum Auftakt der Supercomputer-Konferenz SC16 in Salt Lake City veröffentlicht wurde. Das gilt allerdings nur für die installierte Leistung, denn in der Anzahl der Systeme in der neuen Liste zog Berkeley mit 171 Systemen mit China lediglich gleich. Cori, der neue Cray-Supercomputer am National Energy Research Scientific Computing Center (NERSC) in Berkeley hat dabei mit 9152 Xeon-Phi-7250-Prozessoren 14 Petaflops beigetragen und damit Platz 5 erreicht, hinter den vier führenden Systemen, die schon im Sommer vorne standen.

Allen voran an der Spitze steht weiterhin einsam und allein der Sunway TaihuLight am National Supercomputing Center in Wuxi, der mit den 10 Millionen Kernen der Sunway-S26010-Prozessoren auf 93 PFlops im Linpack-Benchmark kommt. Nummer zwei ist der Tianghe am National Supercomputing Center in Guangzhou mit 33,9 Pflops, der lange die Liste anführte. Er speist seine Performance hauptsächlich aus den älteren Intel-Xeon-Phi-Prozessoren (Knights Corner). Platz 3 mit 7,6 PFlops hält der Oldtimer Titan am Oakridge National Lab mit AMD-Bulldozer-Prozessoren vor dem noch älteren Sequoia am Lawence Livermore National Lab (17,2 Pflops) mit BlueGene/Q.

Der ganze Artikel

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )

Offline SiLæncer

  • Cheff-Cubie
  • *****
  • Beiträge: 191383
  • Ohne Input kein Output
    • DVB-Cube
HPE baut The Machine weiter aus - der Rechner soll einen Architekturwechsel zum "Memory Driven Computing" einläuten. Das System schöpft die Möglichkeiten der photonischen Links voll aus, HPE schweigt sich allerdings darüber aus, wo diese liegen.

Nach dem ersten Prototypen von "The Machine" im Oktober 2016 gab HPE jetzt die Inbetriebnahme einer zweiten Version im Labor in Fort Collins (Colorado) bekannt. HPE hatte das Projekt ursprünglich 2014 lanciert. Statt 4 TByte wie beim ersten Prototypen bietet diese Maschine 160 TByte Arbeitsspeicher und auch sonst etliche Verbesserungen der Systemarchitektur. HPE spricht in der Pressemitteilung von einem "Meilenstein" und dem "weltgrößten Computer mit einheitlichem Arbeitsspeicher".

Paradigmenwechsel durch "The Machine"?

"The Machine" ist laut Andrew Wheeler, Vice President und Deputy Director der Hewlett Packard Labs, das größte Forschungs- und Entwicklungsprogramm in der Geschichte des Unternehmens: eine neue Computer-Architektur – Memory-Driven-Computing – jenseits der klassischen Von-Neumann-Konzepte, die den Prozessor in den Mittelpunkt des Systems stellen.

Beim Memory-Driven-Computing steht der Arbeitsspeicher im Zentrum der Architektur. Durch das Vermeiden von Flaschenhälsen bei der Interaktion zwischen Arbeitsspeicher, Plattenspeicher und Prozessoren erlaubt es völlig neue Applikationen, erfordert aber auch andere Betriebskonzepte sowie Middleware und eine radikal andere Software-Entwicklung. Eine schlichte Portierung bewährter Anwendungen beschleunigt zwar die Nutzbarkeit von The Machine, reizt aber die Performance-Vorteile nicht aus.

Prototyp mit 160 TByte Arbeitsspeicher

Der heute vorgestellte Prototyp hat 160 TByte Arbeitsspeicher. Es war laut Wheeler vorher nie möglich, diese Datenmenge in einem System mit einheitlichem Arbeitsspeicher vorzuhalten und zu bearbeiten. Basierend auf dem aktuellen Modell erwartet HPE, dass die Architektur leicht bis zu einem System mit einheitlichem Arbeitsspeicher in Exabyte-Größe skaliert werden kann und in einem Rackverbund mit mehreren Adressräumen bis zu 4.096 Yottabyte. Der neue Prototyp bietet:

    160 TByte Shared Memory über 40 physische Rechnerknoten, untereinander verbunden mit einem eigenen Fabric-Protokoll;
    ein Linux-basiertes Betriebssystem, das auf ThunderX2 läuft, der ARMv8-SoC-Architektur der zweiten Generation von Cavium;
    optische Kommunikationsverbindungen, darunter das neue Photonics-Modul X1;
    Softwareprogrammierungs-Werkzeuge, um die Vorteile des neben DRAM verbauten nicht-flüchtigen Arbeitsspeichers voll auszuschöpfen.

Weitere Details zu diesem Prototypen – etwa Bitrate oder Bandbreite der verwendeten Photonic – sind bisher nicht bekannt. Memristoren als nicht-flüchtige Speicherbausteine wurden jedenfalls noch nicht verbaut, teilte Wheeler im Interview mit; ihr Einsatz bei The Machine sei aber nach wie vor geplant. Bezüglich Termin oder Zeitfenster für die finale Version hielt er sich bedeckt.

Mehr zu den Plänen von HPE im Interview mit Andre Wheeler.

Quelle : www.heise.de

Arbeits.- Testrechner :

Intel® Core™ i7-6700 (4 x 3.40 GHz / 4.00 GHz)
16 GB (2 x 8 GB) DDR4 SDRAM 2133 MHz
250 GB SSD Samsung 750 EVO / 1 TB HDD
ZOTAC Geforce GTX 1080TI AMPExtreme Core Edition 11GB GDDR5
MSI Z170A PC Mate Mainboard
DVD-Brenner Laufwerk
Microsoft Windows 10 Home 64Bit

TT S2 3200 ( BDA Treiber 5.0.1.8 ) + Terratec Cinergy 1200 C ( BDA Treiber 4.8.3.1.8 )