Nvidia hat inzwischen eine marktbeherrschende Stellung bei der Software und den Prozessoren im Bereich der KI-Infrastruktur erlangt. So hat Nvidia durch die Kombination der Hochleistungs-GPUs und seinem proprietären Modelltrainings-Software-Stack, dem CUDA-Toolkit, den idealen Modelltrainings-Workflow geschaffen.
Die Entwicklung kosteneffizienter ML-Modelle ist für nahezu alle Unternehmen von großer Bedeutung. Wie können die Unternehmen ihre Modelle ohne umfangreiche Forschungs- und Entwicklungsinvestitionen entwickeln und flexibel bleiben, um eine Anbieterbindung zu vermeiden? In dem Beitrag Angesichts der Dominanz von Nvidia: Agile ML-Entwicklungsstrategien für nicht große Technologieunternehmen (inmitten von Angebots- und Kostenherausforderungen) werden vier pragmatische Strategien vorgestellt. Empfohlen wird die Beschäftigung mit AMDs neuester Chipversion AMD RocM, die Erkundung weiterer Hardware-Alternativen (z.B. Google Tensor Processing Units und Graphcore), Softwareoptimierung (z.B. durch die AutoNac-Technologie von Deci AI) und die Zusammenarbeit mit anderen Unternehmen für den Aufbau dezentraler Cluster (Google Kubernetes Engine, Petals, Togehter.ai).