06.06.2017 – Kategorie: IT, Technik

Supercomputing: Vorschau auf die ISC 2017

de_2017_03_600_2

Die ISC 2017 (18. bis 22. Juni in Frankfurt/Main) bietet ein fünf-tägiges technisch-wissenschaftliches Programm, das sich auf technologische Entwicklungen und Anwendungen von HPC auch im industriellen Bereich konzentriert.

Die ISC 2017 (18. bis 22. Juni in Frankfurt/Main) bietet ein fünf-tägiges technisch-wissenschaftliches Programm, das sich auf technologische Entwicklungen und Anwendungen von HPC auch im industriellen Bereich konzentriert. von Horst Gietl

Um die ISC-Konferenz noch attraktiver für die HPC-Community zu machen, hat der Veranstalter in diesem Jahr einige Modifikationen und Erweiterungen im Programm umgesetzt. In Frankfurt stehen deshalb neben den klassischen HPC-Anwendungen vermehrt auch IT-Trends und deren Auswirkungen auf das HPC-Umfeld auf der Agenda der ISC. Diese bietet einen umfassenden Überblick für die erwarteten 3.300 Teilnehmer der ISC 2017. Dabei hat sich der Veranstalter um ein ausgewogenes Gleichgewicht bei den Vorträgen zwischen HPC-Systemen, HPC-Anwendungen und zukunftsweisenden Trends bemüht.

Die Trendthemen

Beispielsweise werden die Quantencomputer, bisher eher ein exotisches Thema, hoffähig. Automobil-Unternehmen versuchen bereits, diese zur Verkehrsfluss-Optimierung einzusetzen. Zudem erfährt das Cloud-Computing durch Big Data Analytics eine Renaissance und Imaging- beziehungsweise Bildverarbeitungstechniken spielen in vielen Bereichen eine immer größere Rolle.
Darüber hinaus sind Exascale-Systeme nicht mehr nur bloße Zukunftsmusik und am Horizont zu erahnen. Die Frage: „Quo vadis Exascale?“ ist also eines der Themen im ISC-Programm. Auch wächst der Einfluss von Deep-Learning-Anwendungen überproportional. Das wird den Einfluss von HPC auf Artificial Intelligence und Deep Learning in der Zukunft noch verstärken.

Konferenz-Keynote von Microsoft

Die ISC einläuten wird Jennifer Chayes, Managing Director bei Microsoft Research, mit dem Konferenz-Keynote zum Thema „Network Science: From the Massive Online Networks to Cancer Genomics“. In ihrer Präsentation werden Modelle vorgestellt, die für die Beschreibung von Netzwerken geeignet sind. Damit lassen sich Methoden entwickeln, die Rückschlüsse auf die Netzwerkstruktur eines zugrundeliegenden Big-Data-Pools zulassen. Zudem wird es um die Anwendung der Techniken etwa im Bereich Life Science gehen.
Neben der Konferenz-Keynote von Jennifer Chayes am Montag wird es auch an weiteren Tagen Keynotes geben. Am Dienstag geht es um „Forecasting the future role of HPC in weather and climate prediction“ und am Mittwoch um „HPC Achievement and Impact – 2017“ Die Frage über den Status von HPC-Aktivitäten in Asien beantworten einige asiatische Länder in zwei dafür vorgesehenen Sessions.

Der Deep-Learning-Schwerpunkt

Die Wiederauferstehung von Artificial Intelligence ist sicher eine Folge der unglaublichen Möglichkeiten, die Artificial Intelligence durch den Einsatz von HPC gewinnen konnte. War es vor 20 Jahren noch undenkbar, rechenintensive Deep-Learning-Algorithmen auch nur in Betracht zu ziehen, so ist der Deep-Learning-Erfolg der letzten Jahre eine Folge von immer aufwendigeren neuronalen Netzwerken, die in der Lage sind, immer größer werdende Datenmengen zu bearbeiten und zu analysieren.
Durch den Einsatz von HPC-Systemen lassen sich auf diese Weise unbekannte Muster und Zusammenhänge in größten Datenmengen entdecken. Damit durchdringt Deep Learning in schneller Geschwindigkeit immer mehr Bereiche sowohl in Wissenschaft als auch in der Industrie. Deep Learning steht dabei erst am Anfang, die gesamte IT-Landschaft neu zu gestalten.
Am Mittwoch, dem 21. Juni, findet dazu ein Special Track statt, der „Deep Learning Day“. Dieser Track wird einen Überblick über die momentanen Entwicklungen bei Deep Learning geben, vor allem wird es darum gehen, wie Deep Learning von existierenden HPC-Techniken profitieren kann und welche Herausforderungen es in Zukunft für HPC bringen wird.
Der Deep Learning Day zeigt auch, wie HPC-Entwickler jetzt und in der Zukunft die Deep Learning-Entwicklungen entscheidend mitgestalten werden. Diskutiert werden die Themen innerhalb von vier Sessions, die parallel zum normalen Konferenz-Programm laufen.
Die Deep Learning Day beginnt mit zwei Keynotes über „Deep Learning and Scientific Computing“ und „Text, Location and Semantic Layout Conditioned Generative Adversarial Image Synthesis“. Es folgen drei Sessions mit Themen wie: „Deep Learning: The „Killer“-App for GPUs“, „AI Frontiers for the Future of R&D“ und „HPC for Machine Learning and Validation for Automated Driving at BMW“, „The Future of Advanced Driver Assistance Systems (ADAS) computing platforms“ und „Future Challenges for Deep Learning & HPC“.

HPC-Systeme im Fokus

Die Sessions zu den HPC-Systemen drehen sich in diesem Jahr um Themen wie „Processor Technologies for HPC and Artificial Intelligence – Convergence or Divergence?“
In dieser Session wird untersucht, wie stark die Artificial-Intelligence- beziehungsweise Deep Learning-Anwendungen Prozessor-Technologien wie CPU und GPU beeinflussen. Außerdem wird diskutiert, ob der HPC-Mainstream und AI-Anwendungen in der Zukunft gemeinsam auf ein und derselben Prozessor-Technologie effizient ablaufen können. Weitere Sessions tragen die Titel „Interconnects for HPC-Systems“, „Memory Outlook for HPC-Systems“ und „Fault Tolerance for Next Generation HPC“. In einem Panel geht es um „65 years of compiler development“.

Exascale-Systeme

Die Entwicklung von Exascale-Systemen liefert – wie in der Vergangenheit – auch dieses Jahr einen wichtigen Beitrag zur ISC-Konferenz. Im Moment deutet alles darauf hin, dass China noch vor 2020 mit dem ersten Exascale-System aufwarten wird und damit die USA aus den Spitzenpositionen in der TOP500-Liste der Supercomputer verdrängt. Dies werden zwei spezielle Sessions thematisieren:
• Exascale System Developments
(Architecture & Concepts)
• Exascale Concepts
for Programming Models

Distinguished Talks

Einen Distinguished Talk gibt es beispielsweise zum Thema „Robots in Crowds – Robots and Clouds“. In dieser Präsentation werden die Zusammenhänge zwischen Artificial Intelligence, kognitivem System und Robotern dargestellt. Der Talk „Big Data & Machine Learning Techniques for the Atlas experiment at the LHC“ gibt einen Überblick über die Atlas-Experimente am LHC, deren Auswertungen nur durch den Einsatz von Big-Data-Technologien und Machine-Learning-Techniken möglich sind. In der Präsentation „Sunway TaihuLight: Designing and Tuning Scientific Applications at the Scale of 10-Million Cores“ werden neuere Ergebnisse aus der Klima-Forschung, der Erdbeben-Simulation und CFD vorgestellt, die auf Systemen mit mehr als 10 Millionen Cores ablaufen.

Klassische HPC-Anwendungen

Die klassischen HPC-Anwendungen spielen immer noch und weiterhin eine gewichtige Rolle, auch wenn in der Zukunft Artificial-Intelligence-Anwendungen mindestens gleichwertig vertreten sein werden. Die Supercomputing-Konferenz beleuchtet in diesem Jahr „High Performance Computing in Life Sciences“, „How HPC influences Energy Exploration“, „Turbulences & Combustion“, „Advanced Material Science“, „Large Scale Engineering & Cloud Computing“ und „Algorithms for Extreme Scale in Practice“ in Sessions.
Ein Panel fokussiert zudem auf „Energy Efficiency in HPC“. Das Ziel dieses Panels ist es, Energie-Effizienz beziehungsweise Energie-Management-Techniken auf ihre Verwendbarkeit für künftige HPC-Systeme hin zu diskutieren.
Im Rahmen der HPC-Sessions finden sich auch einige der anfangs erwähnten IT-Trends wieder:
• High Performance Visualization
• Big Data Experiments & Big Data Analysis
• Quantum Annealing and Its Applications for Simulation in Science and Industry

Der Industrial Day

Die Industrie ist zweites Schwerpunkt-Thema der ISC 2017. Der Industrial Day soll zeigen, wie sich HPC zu einem wichtigen Erfolgsfaktor in der Industrie entwickelt hat.
Die Industrie muss in fast allen Bereichen vermehrt auf die individuellen Anforderungen der Kunden eingehen und reagieren können. Schnellere Produktentwicklungen sind dazu ein Muss. Die Beschleunigung von Simulationen durch HPC-Systeme führt dazu, dass Resultate vielfach „auf Knopfdruck“ vorliegen und damit wesentlich mehr Produktsimulationen für den Ingenieur möglich werden. Es zeigt sich, dass nicht nur große, sondern auch mittlere Unternehmen davon profitieren.
Auch 2017 wird deshalb der Industrial Day am Dienstag, dem 20 Juni, weitergeführt. Er thematisiert den Einfluss von HPC-Technologien und -Anwendungen auf unterschiedliche Bereiche der Industrie.
Der Industrial Day startet mit einer Keynote über „High-Performance Computational Fluid Dynamics for future Aircraft Design“. Es folgen Sessions zu den Themen „Benefits of exascale computing for industrial users“, „Infrastructure, services and software for industrial HPC“ und „Use cases for high performance data analytics“. In einer Panel-Sitzung mit dem Titel „Industrial HPC User Round-Table“ treffen HPC-Anwender aus der Industrie zusammen.
Für die Industrie ist es ein entscheidender Wettbewerbsvorteil, wenn es gelingt, die Verfügbarkeit aller relevanten Informationen in Echtzeit zu realisieren, was nur mit Hilfe von HPC möglich ist.

Autor: Horst Gietl ist Consultant für High Performance Computing bei der ISC Group.


Teilen Sie die Meldung „Supercomputing: Vorschau auf die ISC 2017“ mit Ihren Kontakten:


Scroll to Top