Elons neue Idee: Optimus könnte durch das Ansehen von Videos lernen, Kleidung zu falten
Tesla stattet den humanoiden Roboter Optimus mit "neuen Lehrmaterialien" aus: Anstatt sich auf Motion-Capture-Anzüge und Fernsteuerung zu verlassen, wird der Roboter nun durch das Ansehen von Videos trainiert.
Tesla (TSLA.O) greift auf einen bewährten Ansatz zurück, um seinen humanoiden Roboter zu trainieren. Laut informierten Kreisen teilte der Elektroautohersteller Ende Juni seinen Mitarbeitern mit, dass das Optimus-Projekt sich stärker auf einen „rein visuellen“ Ansatz konzentrieren wird.
Zuvor hatte Tesla Motion-Capture-Anzüge und Virtual-Reality-Headsets verwendet, um die Daten menschlicher Bediener aufzuzeichnen und den Roboter aus der Ferne zu steuern. Nun wird das Unternehmen den Roboter hauptsächlich durch das Filmen von Arbeitern beim Ausführen von Aufgaben trainieren, zum Beispiel indem es ihm beibringt, wie man Gegenstände aufhebt oder T-Shirts faltet.
Informierte Kreise berichten, dass das Unternehmen erklärte, der Verzicht auf Motion-Capture-Anzüge und Fernsteuerung ermögliche es dem Team, die Datenerfassung schneller zu skalieren.
Dieser Wandel markiert eine bedeutende Anpassung in Teslas Roboterstrategie und bringt Optimus in Einklang mit der langjährigen Überzeugung von CEO Musk, dass künstliche Intelligenz komplexe Aufgaben allein durch Kameras erlernen kann. Tesla hat eine ähnliche Methode zum Training seiner Autopilot-Software verwendet.
Diese Änderung erfolgte kurz nach dem Rücktritt des Optimus-Projektleiters Milan Kovac. Informierten Kreisen zufolge hat AI-Leiter Ashok Elluswamy das Projekt übernommen.
Motion-Capture und Fernsteuerung sind Standardverfahren in der Roboterbranche. Beispielsweise hat das führende Robotikunternehmen Boston Dynamics Fernsteuerung verwendet, um seinen Atlas-Roboter zu trainieren. Während des Trainings tragen Arbeiter Motion-Capture-Anzüge, um verschiedene Aufgaben auszuführen, deren Daten anschließend in den Roboter eingespeist werden. Motion-Capture-Anzüge können auch zur Fernsteuerung von Robotern verwendet werden.
Es ist derzeit unklar, ob Tesla in Zukunft Motion-Capture und Fernsteuerung wieder priorisieren oder ob das Unternehmen auf Basis der zuvor gesammelten Daten mit Videomaterial weiterentwickeln wird.
Robert Griffin, Senior Research Scientist am Institute for Human and Machine Cognition, erklärt, dass umfangreiche Fernsteuerungsdaten es Robotern ermöglichen, durch physische Interaktion mit der Umgebung zu lernen. Er sagt, es sei schwierig, Roboter allein mit Videodaten dazu zu bringen, die im Video gezeigten Bewegungen präzise in die reale Welt zu übertragen.
„Wenn man nur Videodaten verwendet, fehlt die direkte physische Interaktion“, sagt er.
T-Shirts falten und Gegenstände aufheben
Musk kündigte 2021 erstmals an, dass Tesla einen humanoiden Roboter namens Optimus entwickeln werde. Der Milliardär sagte, der Roboter werde letztlich Aufgaben wie Fabrikarbeit und Pflege übernehmen können.
Im vergangenen Jahr stellte das Unternehmen „Data Collection Operators“ ein. Diese Positionen beinhalteten das Ausführen und Aufzeichnen grundlegender Haushaltsaufgaben. Laut Stellenausschreibung mussten die Operatoren über längere Zeiträume Motion-Capture-Anzüge und Virtual-Reality-Headsets tragen.
Bis Ende Juni umfasste das Projekt noch das Training von Optimus durch Fernsteuerung und Motion-Capture-Anzüge. Informierte Kreise berichten, dass die Arbeiter viel Zeit mit Problemen rund um die Kleidung und den Roboter selbst verbrachten, was die Menge der gesammelten Daten begrenzte.
Seit der Umstellung der Trainingsmethode nutzen die Arbeiter nun ein von Tesla selbst entwickeltes Set aus fünf Kameras, um ihre Bewegungen aufzuzeichnen. Informierten Kreisen zufolge sind diese Kameras an Helmen und schweren Rucksäcken der Arbeiter montiert und filmen in alle Richtungen, um dem KI-Modell präzise Umgebungsdaten zu liefern.
Christian Hubicki, Leiter des Robotiklabors am gemeinsamen College of Engineering der Florida Agricultural and Mechanical University und der Florida State University, erklärt, dass diese Kameras aus verschiedenen Blickwinkeln Tesla helfen könnten, feinere Details wie „die Position von Gelenken und Fingern“ zu erfassen und den Roboter besser zu lokalisieren. Er ergänzt, dass diese Videos auch als Ergänzung zu den zuvor durch Fernsteuerung gesammelten Daten dienen könnten.
Während des Trainings erhalten die Arbeiter konkrete Aufgabenanweisungen, insbesondere für Handbewegungen, um sicherzustellen, dass die Bewegungen möglichst menschlich wirken. Ein Mitarbeiter berichtet, dass sie möglicherweise monatelang immer wieder dieselbe einfache Aufgabe ausführen.
Jonathan Aitken, Robotikexperte an der University of Sheffield, sagt, Tesla müsse vermutlich einen Weg finden, wie Optimus durch einige generalisierbare Bewegungen verschiedene Aufgaben erlernen könne.
„In diesem Maßstab müssen sie eine Art universelle Bewegungen haben, sonst würde das Training aller Aufgaben extrem lange dauern“, sagt Aitken.
Er fügt hinzu, dass Tesla möglicherweise eine Strategie ähnlich der von Physical Intelligence verfolgt, bei der Roboter durch die Eingabe großer Mengen an Demonstrationsdaten übertragbare Fähigkeiten erlernen und flexibel anwenden, anstatt einzelne Aufgaben auswendig zu lernen.
„Eine sehr Tesla-typische Roboterentwicklung“
Diese neue Strategie entspricht Teslas Ansatz beim Training der Autopilot-Software. Andere Unternehmen im Bereich autonomes Fahren nutzen Sensoren wie Lidar und Millimeterwellenradar, während Tesla hauptsächlich auf Kameras setzt.
Das Unternehmen sammelt Daten von Millionen Tesla-Fahrzeugen, die mit 8 bis 9 Kameras ausgestattet sind. Musk erklärte, dass Tesla die Fahrerassistenzsoftware in China eingeführt habe, nachdem das KI-System mit öffentlich zugänglichen Videos von asiatischen Straßen trainiert worden war.
Musk räumte im Earnings Call im Januar dieses Jahres ein, dass „der Trainingsbedarf für den humanoiden Roboter Optimus letztlich mindestens zehnmal so hoch sein könnte wie für die Fahrzeuge.“
„Das ist eine sehr Tesla-typische Art der Roboterentwicklung. Kein anderes Unternehmen versucht, das in diesem Maßstab zu tun“, sagt Aitken. „Sie benötigen eine ebenso große Datenmenge wie beim Training der Fahrzeuge.“
Alan Fern, Experte für KI und Robotik an der Oregon State University, erklärt, dass das Training von Optimus für Tesla sogar noch schwieriger sei als die Entwicklung autonomer Fahrzeuge.
„Fahren ist nur eine Aufgabe“, sagt er. Das Lernen hauptsächlich durch Videos „erfordert, dass der Roboter sowohl versteht, was im Video passiert, als auch die Fähigkeiten besitzt, die Aufgabe zu erfüllen. Manche Dinge kann man durch Beobachtung lernen, andere muss man in einem Simulator oder in der Realität selbst üben.“
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
AiCoin Tagesbericht (26. August)
Die Preisrätsel durchbrechen: Woher kommt der dauerhafte Wert der Blockchain?
Wenn wir Erfolg am Spekulationsinteresse messen, bauen wir Sandburgen. Wenn wir Erfolg an der Infrastruktur messen, legen wir das Fundament.
Gespräch mit Ray Dalio: Von der Vermögensallokation bis zur Vermögensweitergabe – 10 Finanzregeln für chinesische Freunde
Langfristig ist Bargeld eine sehr schlechte Investition.

Was ist das Ethereum-Meme, das sogar Tom Lee interessiert?
Wird es einen Meme-Trend im Zusammenhang mit dem Tom Lee-Konzept geben?

Im Trend
MehrKrypto-Preise
Mehr








