Ampere Computing

Cloud Native CPUs

Ampere entwickelt die Zukunft des Hyperscale Cloud- und Edge-Computing mit dem weltweit ersten Cloud-nativen Prozessor. Der Hersteller hat die Ampere® Altra® Produktfamilie entwickelt, eine Familie von Cloud-nativen Prozessoren mit einer modernen 64-Bit-ARM Server-basierten Architektur.

AMPERE COMPUTING

Ampere wurde für die Cloud mit einer modernen 64-Bit-ARM Server-basierten Architektur entwickelt und gibt Kunden die Möglichkeit, die Bereitstellung aller Cloud-Computing-Anwendungen zu beschleunigen.

Mit branchenführender Leistung, Energieeffizienz und linearer Skalierbarkeit sind die Ampere-Prozessoren auf das kontinuierliche Wachstum von Cloud- und Edge-Computing zugeschnitten.

CLOUD-NATIVE

AMPERE ALTRA

Ampere Altra ist die branchenweit erste Cloud-native CPU, die für Anforderungen moderner Rechenzentren entwickelt wurde.

Er bietet eine vorhersehbare hohe Leistung, lineare Skalierbarkeit und Energieeffizienz für den Einsatz im Rechenzentrum von der Hyperscale Cloud bis zur Edge Cloud.

Einige der wichtigsten Highlights der Ampere Altra Server-Architektur sind:

  • Top-End-Performance mit der höchsten Leistung/Watt in einer CPU der Serverklasse
  • Branchenführende bis zu 128 Cores pro CPU (mit bis zu 2 CPUs pro Server) für Hyperscale-Rechenzentren
  • Open-Source-Hardware- und Software-Konformität auf der gesamten Plattform
ERWEITERUNG ZU AMPERE ALTRA

AMPERE ALTRA MAX

Ampere Altra Max erweitert die Prozessorarchitektur auf 128 Cores. Die CPU bietet die branchenweit höchste Leistung auf Socket-Ebene und E/A-Skalierbarkeit.

Ampere Altra Max bietet Kunden einen weiteren Cloud-optimierten Prozessor zur Maximierung der Gesamtleistung und der Core-Dichte pro Rack.

Ampere Altra Max ist ideal für Anwendungen, die die Vorteile von Scale-out- und elastischen Cloud-Architekturen nutzen. Kompatibel mit dem 80-Core Ampere Altra und Ampere Altra Max unterstützt er auch 2-Socket-Plattformen und bietet die branchenweit höchste Socket-Level-Leistung und I/O-Skalierbarkeit.

HAUPTMERKMALE VON AMPERE ALTRA

Vorhersehbare hohe Leistung

Ampere Altra bietet bis zu 80 Cores mit einer Geschwindigkeit von bis zu 3,3 GHz bei gleichbleibender Performance. Jeder Core ist als Single-Thread-Prozessor ausgelegt und verfügt über einen eigenen 64 KB L1 I-Cache, 64 KB L1 D-Cache und einem großen 1 MB L2 D-Cache, was zu 100% eine vorhersehbare hohe Performance ermöglicht. Dieser architektonische Ansatz eliminiert die mit Multi-Thread-Designs verbundenen „Noisy-Neighbour“-Probleme vollständig und liefert somit eine vorhersagbare hohe Performance während der gesamten Ausführungszeit der Arbeitslast. Die Ampere Altra CPU unterstützt acht 2DPC, 72-bit DDR4-3200 Kanäle und bietet eine hohe Bandbreite und Speicherkapazität von bis zu 4 TB pro Sockel.

Lineare Skalierbarkeit

Mit führender Performance/Core und Multi-Sockel-Unterstützung bietet der Ampere Altra eine lineare Skalierbarkeit zur Maximierung der Anzahl der Cores pro Rack, die in der Branche einzigartig ist.

Energie-Effizienz

Ampere Altra bietet eine branchenführende Leistungseffizienz/Core, während 80 Cores in einem Single-Socket und 160 Cores in einem Dual-Socket untergebracht werden können, wodurch ein neues Niveau an Leistungseffizienz mit Skalierbarkeit entsteht.

On-Demand

Ampere Altra Produkt-familie

Erfahren sie mehr zu den Hauptmerkmalen von Ampere Altra in unserer Webinar Aufzeichnung. - Im Fokus steht Energie-Effizienz im Bereich Hyperscale Cloud und Edge Computing.

Boston Serverlösungen mit Ampere ARM CPU

Boston Server-Systeme basierend auf Ampere ARM-CPUs

Boston Fenway-Serie mit Ampere

Boston bietet selbst-entwickelte Server-Systeme mit Ampere ARM CPUs an. 

Dazu gehören:

  • FENWAY-11A210.1 (P3583)
  • FENWAY-21A312.1 (P3584)
  • FENWAY-12A212.1 (P3700)
  • FENWAY-22A312.1 (P3701)

AMPERE COMPUTING PLATTFORMEN

MT. JADE

Die auf dem Ampere Altra-Prozessor basierende Mt. Jade-Plattform bietet 160 Prozessorkerne in einer Dual-Socket-Konfiguration und ist damit die Plattform mit der höchsten Core-Dichte in der Branche. Mt. Jade bietet die Performance und Skalierbarkeit für eine Vielzahl von Workloads, darunter Cloud Native, KI-Inferenz, Big Data, rechenintensive Anwendungen und Speicher.

MT. SNOW

Die auf dem Ampere Altra-Prozessor basierende Mt. Snow-Plattform bietet ein ausgewogenes Verhältnis aus Performance und Energie, das problemlos skaliert werden kann. Mt. Snow ist in einer Single-Socket-Konfiguration mit dem Ampere Altra-Prozessor erhältlich und bietet 80 Cores mit vorhersehbarer Performance, die ideal für Cloud-native Anwendungen ist. Mt. Snow ist eignet sich für eine Vielzahl von Workloads, darunter Cloud Native, KI-Inferenz, Big Data, rechenintensive Anwendungen und Speicher in einer 1P-Konfiguration.

MT. COLLINS

Die auf dem Ampere Altra-Prozessor basierende Mt. Collins-Plattform bietet 160 Prozessorkerne in einer Dual-Socket-Konfiguration, wie die Mr. Jade-Plattform, und ist gehört zu den Plattformen mit der höchsten Core-Dichte in der Industrie. Mt. Collins bietet Performance und Skalierbarkeit für eine Vielzahl von Workloads, darunter Android in der Cloud, Cloud Native, KI-Inferenz, Big Big Data, rechenintensiv und Speicher. Die Plattform ist für Ampere® Altra Max optimiert und mit dem neuesten BMC ausgestattet.
AI LÖSUNGEN

AMPERE AI

Ampere AI ist eine Familie von Software-Tools, die die Verarbeitung von AI- und ML-Inferenz-Workloads auf Ampere-Prozessoren optimiert.

Mit Ampere AI-Tools können CPU-basierte Inferenz-Workloads Kosten, Leistung, Skalierbarkeit und Energieeffizienz von Ampere-Prozessoren nutzen, während Nutzer mit gängigen und Standard-KI-Frameworks programmieren können.

Die Ampere AI Deep Learning Software (DLS) AI Optimierungs-Engine liefert signifikante Performance-Verbesserungen im Vergleich zu den üblicherweise verwendeten CPU-basierten Machine Learning (ML) Frameworks und steigert die AI-Leistung der Ampere Altra Familie in der Cloud und Edge-Infrastruktur.

Benchmark - in Geschwindigkeit und Leistungsstärke

Ampere Computing konnte durch Tests nachweisen, dass auf Ampere-basierten Instanzen eine 4-fache Beschleunigung möglich ist, auf denen beliebte KI-Inferenz-Workloads ausgeführt werden.

Die Lösung umfasst einen optimiertes Gesamtpaket mit:

  • Objekterkennung,
  • Videoverarbeitung und
  • Empfehlungs-Engines.
Mehrwerte der Lösung

Wesentliche Merkmale von Ampere AI

Ampere AI optimierte Frameworks und Ampere Prozessoren liefern einen überdurchschnittlichen Wert für AI Inferenz.

Hohe Leistung

Ampere AI liefern einen bis zu 4-fachen Leistungsvorteil im Vergleich zu CPUs auf Basis der x86-Architektur.

Energieeffizienz

Ampere AI verbraucht 2,8-mal weniger Strom und benötigt ein Drittel des Platzes als x86-Prozessoren.

Skalierbarkeit

Ampere AI besitzt (lt. Ampere Computing) eine optimierte Architektur sowie Kernzahlen, die bestehende x86-Prozessoren übertreffen. Darüber hinaus besitzen sie eine verbesserte Speicherbandbreite, die durch Ampere Optimized AI Frameworks beschleunigt wird.

Kompatibilität

Robustes Ökosystem mit umfassender Unterstützung durch führende KI-Frameworks, Bibliotheken und Software-Tools, die eine mühelose Integration ermöglichen.

Funktionalitäten von Ampere AI

AMPERE AI-OPTIMIZER

AIO (Ampere AI Optimizer) ist eine Softwarebibliothek zur Beschleunigung von Standard-KI-Frameworks, wie TensorFlow, PyTorch oder ONNX. AIO beschleunigt die Inferenz von trainierten, neuronalen Netzen nahtlos bis zum 5-fachen, was zu niedrigeren Latenzzeiten, höherem Durchsatz und verbesserten TCO für Ihre KI-Workloads führt. AIO funktioniert sofort nach der Installation: Es ist keine Umschulung oder Modellkonvertierung erforderlich, und die Genauigkeit bleibt erhalten. Es handelt sich um eine nahtlose Plug-and-Play-Bibliothek, die sofort in der Umgebung eingesetzt werden kann, egal ob es sich um eine virtuelle Maschine (VM), einen Container oder eine reine Bare-Metall-Maschine handelt.

AMPERE AI-MODEL-LIBARY

AML (Ampere AI Model Library) ist eine Reihe von pre-trained, hochmodernen neuronalen Netzwerkmodellen für Anwendungen wie Computer Vision, natürliche Sprachverarbeitung und Empfehlungsmaschinen. AML ermöglicht dem Nutzer, ein KI-Projekt schneller und mit weniger technischen Ressourcen zu starten. Alle Modelle werden in Standard-Frameworks' (TF, PyTorch usw.) bereitgestellt und können für Transfer Learning oder für den direkten Einsatz genutzt werden. AML kann mit oder ohne die AIO von Ampere Computing verwendet werden.

Häufig gestellte Fragen

Folgende Fragen zu Ampere Computing erreichen uns am häufigsten. Sollten Sie andere Fragen zur Technologie haben, kommen Sie sehr gerne persönlich auf uns zu.  

Ampere AI ist eine Familie von Software-Tools, die die Verarbeitung von AI- und ML-Inferenz-Workloads auf Ampere-Prozessoren optimiert.

Mit Ampere AI-Tools können CPU-basierte Inferenz-Workloads Kosten, Leistung, Skalierbarkeit und Energieeffizienz von Ampere-Prozessoren nutzen, während Nutzer mit gängigen und Standard-KI-Frameworks programmieren können.

Ampere Altra ist die branchenweit erste Cloud-native CPU, die für Anforderungen moderner Rechenzentren entwickelt wurde. Sie wurde von Ampere Computing entwickelt.

Ampere Altra Max erweitert die Prozessorarchitektur von Ampere Altra auf 128 Cores. Die CPU bietet die branchenweit höchste Leistung auf Socket-Ebene und E/A-Skalierbarkeit.

Ampere Computing bietet Systeme an, die als Plattformen bezeichnet werden. Es wird nach MT. Jade, MT. Snow und MT. Collins unterschieden.

News im Boston Blog

Immer auf dem Laufenden

Newsletter-Anmeldung

+41 71 5542275
envelope
sales@boston-it.ch