Nvidia führt neue offene Modelle ein, um die physische und digitale KI zu verbessern.

Nvidia hat neue Tools und die Entwicklung offener Modelle für physikalische und digitale KI vorgestellt, darunter Nvidia Drive Alpamayo-R1 (AR1) für autonomes Fahren. Der Technologiekonzern gab auf der KI-Konferenz NeurIPS bekannt, sein Angebot an offenen KI-Modellen, Tools und Datensätzen weiter auszubauen.
Nvidia gab bekannt, dass seine neuen offenen physikalischen und digitalen KI-Modelle die Forschung in der KI-Branche und darüber hinaus unterstützen sollen. Das Unternehmen hob hervor, dass sein Alpamayo-R1 das weltweit erste branchenweite offene Modell für Bildverarbeitung, Sprache und Aktionen (VLA) für autonomes Fahren sei. Der Chiphersteller deutete zudem die Veröffentlichung neuer Datensätze und Modelle für KI-Sicherheit und Sprachverarbeitung an.
Die Forscher des Technologieunternehmens haben über 70 wissenschaftliche Arbeiten, Workshops und Vorträge für die Konferenz vorbereitet. Das Unternehmen präsentiert seine innovativen Projekte aus den Bereichen medizinische Forschung, autonomes Fahren und KI-gestütztes Denken.
Nvidia beweisttronEngagement für Open Source
Der Technologiekonzern demonstrierte auf der KI-Veranstaltung ein deutlich stärkeres Engagement für Open Source. Dies wurde von der KI-Benchmark-Plattform Artificial Analysis mit ihrem neuen Openness Index gewürdigt. Der Artificial Analysis Open Index bewertete die Nemo- tron Produktfamilie von KI-Tools des Unternehmens als eine der besten verfügbaren. Die Bewertung basiert auf dem Umfang der geteilten technischen Informationen, der Benutzerfreundlichkeit der Modelllizenzen und der Klarheit der Datenschutzbestimmungen.
Der AR1 (Alpamayo-R1) integriert unterdessen KI-gestütztes logisches Denken in die Pfadplanung, um autonomes Fahren der Stufe 4 zu ermöglichen und die Sicherheit autonomer Fahrzeuge in verschiedenen Verkehrssituationen zu verbessern. Laut dem Chiphersteller hatten frühere Versionen autonomer Fahrmodelle Schwierigkeiten mit Situationen wie stark frequentierten Fußgängerkreuzungen, in Radwegen geparkten Autos oder sich nähernden Straßensperrungen. Durch die Integration von logischem Denken erhalten autonome Fahrzeuge jedoch den nötigen gesunden Menschenverstand, um wie Menschen zu fahren.
Das AR1-Modell erreicht dies, indem es Szenarien aufschlüsselt und jeden Schritt durchdenkt, um alle möglichen Ergebnisse zu berücksichtigen. Anschließend nutzt es Kontextdaten, um die effektivste Vorgehensweise zu ermitteln.
Nvidia behauptet, dass der AR1 auf einer Art Denkkette basiert, die es ihm ermöglicht, Daten entlang seines Weges zu verarbeiten und diese Informationen zur Flugbahnplanung zu nutzen, beispielsweise um bei Fußgängern, die die Straße bei Rot überqueren, anzuhalten. Das offene Fundament des Modells basiert auf Nvidias Cosmos Reason, wodurch Forscher es für ihre nicht-kommerziellen Anwendungsfälle anpassen können.
Laut dem Chiphersteller können Forscher das AR1-Modell auch für Benchmarking oder die Entwicklung experimenteller Anwendungen für autonome Fahrzeuge anpassen. Nvidia Drive Alpamayo-R1 wird auf Hugging Face und GitHub , während ein Teil der zum Trainieren und Evaluieren der Modelle verwendeten Daten auf Nvidia Physical AI Open Datasets bereitgestellt wird.
Reinforcement Learning erweist sich nach dem Training als effektiv für AR1.
Forscher von Nvidia gaben an, dass sich Reinforcement Training für das Post-Training von AR1 als effektiv erwiesen habe. Sie wiesen darauf hin, dass Entwickler mithilfe von Schritt-für-Schritt-Anleitungen auch lernen können, wie sie Modelle auf Basis von Cosmos . Beispiele für schnelle Inferenz und fortgeschrittenes Post-Training finden sich laut den Forschern im Cosmos Cookbook . Dieser umfassende Leitfaden für Entwickler physikalischer KI behandelt die schrittweise Datenaufbereitung, Modellevaluierung und die Generierung synthetischer Daten.
Der Chiphersteller erklärte, die Anwendungsmöglichkeiten für Cosmosseien nahezu unbegrenzt. Der Technologiekonzern nannte Beispiele für CosmosAnwendungen, darunter LidarGen, Omniverse NuRec Fixer, Cosmos Policy und ProtoMotions3.
Das Technologieunternehmen rühmte sich damit, dass LidarGen das weltweit erste Modell sei, das Lidar-Daten für Simulationen autonomer Fahrzeuge generiere. Es erwähnte außerdem, dass sein Omniverse NuRec Fixer-Modell für Robotik- und AV-Simulationen auf Nvidias Cosmos Predict zurückgreife.
ProtoMotions3 ist ein Open-Source-Framework mit GPU-Beschleunigung, das auf Nvidia Newton und Isaac Lab basiert. Laut Chiphersteller kann das Framework zum Training physikalisch simulierter humanoider Roboter und digitaler Menschen verwendet werden. Mithilfe der Cosmos World Foundation Models (WFMs) lassen sich realistische Szenen generieren.
