Illustration zeigt SK hynix Stand mit Besuchern auf Technologiemesse

SK hynix verblüfft auf der FMS 2025 mit KI-getriebener Speicherrevolution

Mit einem beeindruckenden Showcase auf der FMS 2025 demonstrierte SK hynix nicht nur seine Führungsrolle in der Speicherindustrie, sondern auch, wie entscheidend intelligente Speicherlösungen für die nächste Generation Künstlicher Intelligenz sind. Vom revolutionären HBM4 über massive NAND-SSDs bis zu innovativen PIM-Technologien – für Entwickler, Rechenzentren und Tech-Visionäre wurde eines klar: Die Zukunft von KI beginnt im Speicherchip.

Neuheiten von SK hynix auf der FMS 2025

  • SK hynix präsentierte auf der FMS 2025 seine neuesten Technologien im Bereich DRAM, NAND und KI-Speicherlösungen.
  • Die Messe fand vom 5. bis 7. August 2025 in Santa Clara, Kalifornien, statt.
  • Durch diesen Auftritt unterstreicht SK hynix seine Führungsrolle im globalen Speichermarkt.
  • FMS wurde 2024 von „Flash Memory Summit“ in „Future of Memory and Storage“ umbenannt und richtet den Fokus stärker auf Innovationen der Zukunft.
  • Die Veranstaltung konzentriert sich auf zukunftsweisende Entwicklungen in den Bereichen Künstliche Intelligenz und Storage-Technologien.

KI-Speichertechnologie als Rückgrat intelligenter Systeme

Die Speicherlandschaft ändert sich dramatisch – und SK hynix ist ganz vorne mit dabei. Auf der FMS 2025, der neu gebrandeten „Future of Memory and Storage“-Konferenz in Santa Clara, präsentierte das Unternehmen ein überzeugendes Portfolio an Speicherlösungen, die das Rückgrat der aufstrebenden KI-Infrastruktur bilden. Spannend ist vor allem, wie eng neue Anforderungen aus dem KI-Sektor mit Fortschritten in den Bereichen DRAM, NAND und CXL verknüpft sind.

Ein gutes Bild davon, wie essenziell diese Technologien für ein funktionierendes KI-Ökosystem sind, liefert die Metapher des menschlichen Gehirns: KI-Prozessoren agieren wie das Denkzentrum – blitzschnell, aber leistungsbegrenzt, wenn der Zugriff auf „Gedächtnis“ limitiert ist. Genau hier kommen ultraschnelle Speichertechnologien wie HBM4 ins Spiel. Die frisch vorgestellte zwölflagige Variante wurde bereits im März 2025 an Kunden wie NVIDIA ausgeliefert und bietet enorme Bandbreiten für inference-lastige Anwendungen.

Auch im AI-Kontext zeigt sich ein klarer Trend: Anwendungen mit riesigen Sprachmodellen wie GPT, Claude oder Gemini benötigen nicht nur mehr Rechen-, sondern auch mehr Speicherleistung – sowohl hinsichtlich Kapazität als auch Zugriffszeit. Technologien wie LPDDR5X, MRDIMM und CMM-DDR5 ermöglichen hierbei gleichzeitige Datenzugriffe auf mehreren Rängen und bieten enorme Vorteile bei Systemskalierung und Energieeffizienz.

Weitere Informationen zur Veranstaltung findest du auf der offiziellen FMS 2025 Presseplattform.

Revolution durch NAND: Von Terabyte bis QLC

Ein weiteres Highlight der Messe war das neue Line-up von NAND-Produkten – darunter die aktuell branchenweit größte SSD mit 245 Terabyte im E3.L-Formfaktor. Mit der Integration von 238-Layer- und sogar 176-Layer-4D-NAND demonstriert SK hynix eindrucksvoll, wie Terabyte nicht nur brutto, sondern in High-Performance-Settings effizient nutzbar werden.

Für den Consumer-Bereich besonders spannend gestalten sich QLC-basierte SSDs wie das Modell PQC21. Quad-Level-Cell-Technologie speichert vier Bits pro Zelle und eignet sich hervorragend für Hochkapazitätssysteme mit gemischten Workloads.

Damit wird ein neues Spannungsfeld sichtbar: Zwischen Datenmenge und Performance liegt die Herausforderung der Architektur. Je mehr Bits auf kleinerer Fläche gespeichert werden, desto komplexer wird das Management von Fehlerkorrektur und Latenzen – Themen, in denen SK hynix auf Innovationskurs geht.

CMM-DDR5 und CXL: Die Zukunft des Serverspeichers

Besonders beeindruckend waren die Live-Demonstrationen, bei denen SK hynix Speicherupgrades auf Intel Xeon 6-Systemen zeigte. Mit bis zu 50 % mehr Kapazität und 30 % höherer Speicherbandbreite hebt CMM-DDR5 das Gesamtsystem auf ein neues Level – besonders effektiv für KI-Inferenz, Datenbanken und Cloud-Anwendungen.

Ein Schlüsselbegriff in diesem Zusammenhang ist Pooled Memory. Durch die kooperative Nutzung über CXL hinweg können mehrere Systeme gleichzeitig auf riesige Speicherpools zugreifen – eine Architektur, die der klassischen Netzwerkanbindung klar überlegen ist und Skalierbarkeit bei minimaler Latenz ermöglicht.

Die Analogieskizze: CXL ist das Autobahnnetz für Speicherzugänge. Anstatt jedes System mit „Landstraßen“ zu verbinden, teilen sich nun viele Knotenpunkte eine schnelle Haupttrasse, die gleichzeitigen Zugriff effizient steuert.

OASIS & PIM: Wenn Speicher selbst rechnet

Besonders faszinierend sind Technologien wie OASIS auf Basis von Data-Aware Computational Storage (CSD). Dieses System analysiert und erkennt Daten direkt im Speichergerät – ohne Umweg über CPU oder GPU. Das spart enorm viel Energie und reduziert Verzögerungen bei Echtzeitanalyse, wie sie in High-Performance-Computing-Umgebungen z.B. am Los Alamos National Laboratory genutzt wird.

Eine ähnliche Philosophie steht hinter PIM (Processing-in-Memory): Speicher wie GDDR6-AiM oder AiMX integrieren Rechenfunktionen direkt in die Speicherzellen. Im Zusammenspiel mit CPUs oder GPUs erreichen sie Rechengeschwindigkeiten, die unter optimalen Bedingungen bis zu 16-fach höher liegen als bei herkömmlichen Speicherarchitekturen.

Diese Entwicklungen zeigen eines klar: Speicher ist nicht mehr nur „Datentank“, sondern wird zum aktiven Rechensubjekt – eine Art neuronales Netzwerk aus Silizium, das passiv speichert und aktiv analysiert.

Führungsanspruch durch Vision: Was SK hynix mit AI erreichen will

Im Rahmen von Keynotes und Panels – begleitet und moderiert von Branchenriesen wie NVIDIA – unterstrich SK hynix seinen strategischen Anspruch, als Full-Stack-AI-Memory-Anbieter die globale Technologielandschaft mitzuprägen. Vizepräsidenten wie Joonyong Choi (HBM) und Chunsung Kim (eSSD) betonten dabei die Bedeutung eines fein abgestimmten Zusammenspiels aus Leistung, Skalierbarkeit und Energieverbrauch.

Der Fokus liegt klar auf Lösungen, die nicht nur Rechenpower liefern, sondern durch Energieeffizienz und Systemintegration langfristig ökonomisch tragfähig sind – Stichwort Total Cost of Ownership (TCO). Die Vorstellung von hochspezialisierten Speicherlösungen für Training und Inference, getrennt optimiert für LLMs wie ChatGPT, zeigt, wie differenziert SK hynix im Markt denkt.

Auch gesellschaftspolitisch sind das relevante Impulse. Intelligente Speicherlösungen können nicht nur KI demokratisieren, indem sie günstiger und effizienter werden, sondern gleichzeitig den globalen Stromverbrauch im Rechenzentrum senken – relevanter denn je in Zeiten von Nachhaltigkeitsdebatten.

Für tiefergehende Inhalte rund um Technologien wie HBM, CXL oder PIM wirf einen Blick auf unsere Kategorie Speichertechnologie.

Häufig gestellte Fragen zur Speicherrevolution für KI

Quelle: https://news.skhynix.com/future-of-memory-and-storage-2025/

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Nach oben scrollen
Logitech Zone 300: Revolutionäres kabelloses Headset für Home Office Entdecke Destiny 2: „Echos“ – Start, Inhalte und Belohnungen Wie man Steam-Spiele effektiv deinstalliert und Speicherplatz freigibt Entdecke die Hama Outdoor-Kamera: Sicherheit und Komfort Erlebe die Thrustmaster Airshow 2: Virtuelle Kunstflug-Show mit Gewinnspiel