Starten und Ausführen großer Sprachmodelle auf einem einzelnen Dell Server liefert außergewöhnliche Ergebnisse
Große Sprachmodelle (Large Language Models, LLMs) sind KI-Systeme (künstliche Intelligenz), die Algorithmen für maschinelles Lernen (ML) verwenden, um große Mengen an Textdaten natürlicher Sprache zu verarbeiten. Aufgrund ihrer beeindruckenden Fähigkeiten zur Verarbeitung natürlicher Sprache (Natural Language Processing, NLP) ) erfreuen sie sich immer größerer Beliebtheit.1 Große vorab trainierte Sprachmodelle sind in der Lage, aus riesigen Mengen von Textdaten Verallgemeinerungen zu extrahieren, die für eine Vielzahl von Downstream-Anwendungen wie Textklassifizierung, Textzusammenfassung, Texterzeugung, Eigennamenerkennung (Named Entity Recognition, NER), Textstimmungsanalyse und Fragen-Antwort (Q&A) verwendet werden können. Darüber hinaus sind viele große Sprachmodelle mehrsprachig, sodass sie mit Text-Datasets in vielen verschiedenen Sprachen noch vielseitiger eingesetzt werden können. In diesem Whitepaper werden ein Ansatz für die Entwicklung und Bereitstellung von LLMs auf einem einzigen Dell PowerEdge-Server und die beeindruckenden Ergebnisse im Vergleich zu einer herkömmlichen HPC-Architektur vorgestellt.