Pressemitteilung

OVHcloud vereinfacht KI-Entwicklung für Unternehmen mit neuen Grafikprozessoren und KI-Modellen

2024
Pressemitteilung

Köln, 6. Juni 2024 – OVHcloud, der führende europäische Cloudanbieter, unterstreicht sein Engagement für die Demokratisierung von KI in Unternehmen im Einklang mit seinen Grundwerten einer offenen, transparenten und vertrauenswürdigen Cloud. Als Teil seines erweiterten KI-Angebots komplementiert OVHcloud jetzt sein Portfolio an NVIDIA-Grafikprozessoren (GPUs) und den neuesten KI-Sprachmodellen auf Open-Source-Basis, wie Mixtral 8x22B oder Llama 3.

 

NVIDIA L40S-GPUs für jeden Computing-Bedarf

Die Lösungen von OVHcloud beschleunigen Projekte von der Erstellung von KI-Modellen bis hin zur Inferenz der neuesten Large Language Models. So bietet das Unternehmen jetzt in seinem Public-Cloud-Universum ein komplettes Portfolio hochmoderner GPUs an, die auf Nachfrage verfügbar sind und alle auf NVIDIA-Hardware der neuesten Generation (H100 Tensor Core/L4 Tensor Core/L40S) basieren. Zusätzlich zu den bereits verfügbaren NVIDIA-GPUs für Public-Cloud-Projekte (H100/L4) kombinieren die NVIDIA L40S-Einheiten leistungsstarke KI-Rechenleistung mit erstklassiger Grafik- und Medienbeschleunigung für ein breites Spektrum an Workloads, von LLM-Inferenz und Training bis hin zu 3D-Grafik, Rendering und Video.

 

Dedizierte Server jetzt mit NVIDIA L40S GPU

Um dem Bedarf an leistungsstarken, dedizierten KI-Servern gerecht zu werden, hat OVHcloud neue dedizierte Bare-Metal-Server mit NVIDIA L40S eingeführt. Der neue Server aus der High-Grade-Reihe zielt auf Anwendungsfälle wie Deep Learning, Machine Learning und High Performance Computing ab. Die Reihe ist mit AMD EPYC 9354 in einer Dual-Prozessor-Konfiguration ausgestattet und verfügt somit über 64 Kerne und 128 Threads mit 384 GB DDR5-Speicher (bis zu 2,3 ​​TB). Um anspruchsvolle KI-Workloads zu bewältigen, verfügt der neue HGR-AI-2 aus der High-Grade-Reihe über 2x NVIDIA L40S 48 GB mit der Möglichkeit, bis zu 4x NVIDIA L40S 48 GB pro Server zu konfigurieren.

 

„Wir demokratisieren KI für unsere Public-Cloud- und Bare-Metal-Kunden, indem wir eine große Auswahl an NVIDIA-GPUs anbieten, die strategisch für eine Vielzahl von KI-Workloads ausgewählt und bepreist werden – vom Modelltraining bis zu Inferenzen“, sagt Yaniv Fdida, Chief Product and Technology Officer bei OVHcloud.

 

Nutzungsfreundliche Tools für KI-Workloads

Die KI-Lösungen von OVHcloud sind in jedem Schritt der KI-Wertschöpfungskette von der Ideenfindung bis zur Produktion integriert. Die nutzungsfreundlichen Services AI Notebooks, AI Training und AI Deploy fungieren als komplettes Set serverloser Tools, die zum Experimentieren mit Daten, Trainieren von Modellen und Überführen in die Produktion entwickelt wurden.

 

Neue Open-Source-Modelle für Llama und Mistral über AI Endpoints verfügbar

OVHcloud AI Endpoints ist eine weitere serverlose Lösung, die über Schnittstellen (API Endpoints) Zugriff auf eine Vielzahl von KI-Modellen ermöglicht und daher wenig bis gar kein Vorwissen auf der Anwenderseite erfordert. Bevor Entwickler:innen ihre Schnittstelle nutzen, können sie ihre Endpunkte auf einem Playground testen. Genau wie OVHcloud AI Notebooks, AI Training und AI Deploy nutzt auch AI Endpoints die Infrastruktur von OVHcloud. Das Unternehmen hat stark nachgefragte Open-Source Large Language Models wie Mixtral 8x22b und Llama 3 sowie NVIDIA-optimierte Modelle für Aufgaben wie die automatische Spracherkennung (ASR) hinzugefügt.

 

KI-Modelle mit wenigen Klicks nutzen

Die KI-Modelle sind direkt einsatzfähig und verfügbar, ihre Nutzung erfordert wenig Vorwissen auf Seiten der Unternehmen. Damit vereinfacht OVHcloud die Nutzung von KI und senkt die Barrieren zur Entwicklung erfolgreicher KI-basierter Geschäftsmodelle in Europa. OVHcloud konzentriert sich damit konsequent auf die vier Schlüsselelemente, die Unternehmen für einen erfolgreichen KI-Einsatz benötigen: leistungsstarke und dennoch effiziente Rechenressourcen, optimierte Datensätze, Software-Tools und modernste Fähigkeiten.

 

Preise und Verfügbarkeit

Neue NVIDIA GPU-Optionen, darunter NVIDIA H100/L40S/L4, sind ab sofort im Public-Cloud-Universum verfügbar, um KI-gesteuerte Projekte auszuführen. Neue HGR-AI-2-Server mit NVIDIA L40S GPU sind ab sofort in Frankreich und Kanada ab 2969,99 Euro pro Monat verfügbar. Neue KI-Modelle, darunter Mixtral 8x22b und Llama 3, sind ab sofort über OVHcloud AI Endpoints verfügbar.

Weitere Informationen über das GPU-Portfolio von OVHcloud finden Sie hier.

Über OVHcloud

OVHcloud ist ein Global Player im Cloud-Segment und europäischer Marktführer in diesem Bereich. Das Unternehmen betreibt mehr als 450.000 Server in 43 Rechenzentren auf 4 Kontinenten und bedient 1,6 Millionen Kund:innen in mehr als 140 Ländern. Als Vorreiter im Bereich der vertrauenswürdigen Cloud und Pionier der nachhaltigen Cloud mit dem besten Preis-Leistungs-Verhältnis setzt das Unternehmen seit mehr als 20 Jahren auf ein integriertes Modell, mit dem es die volle Kontrolle über seine Wertschöpfungskette hat – von der Konzeption seiner eigenen Server über die Orchestrierung seines Glasfasernetzwerks bis hin zur Errichtung und Verwaltung seiner Rechenzentren. Dieser einzigartige Ansatz ermöglicht es OVHcloud nicht nur, alle Verwendungszwecke seiner Kundinnen unabhängig abzudecken, sondern ihnen auch die Vorteile eines umweltverträglichen Modells mit sparsamem Ressourceneinsatz und einem CO2-Fußabdruck zu bieten, der die besten Werte der Branche erreicht. Heute bietet OVHcloud hochmoderne Lösungen an, die starke Leistung, vorhersehbare Preise und vollkommene Datensouveränität vereinen, um das ungehinderte Wachstum seiner Kund:innen zu unterstützen.

Kontakt

Pressekontakt OVHcloud:

FleishmanHillard Germany GmbH 
Stephan Ester / Jonathan Lautenschläger 
Tel.: +49-69-405702-521 / +49-172-14233-60 
E-Mail: OVH-Presse@fleishman.com

 

Kontakt bei OVHcloud:

Hanna Sißmann
E-Mail: media.germany@ovhcloud.com