Nueva idea de Musk: Optimus podría aprender a doblar ropa viendo videos
Tesla está actualizando el “material educativo” para su robot humanoide Optimus, dejando de depender de trajes de captura de movimiento y control remoto, y entrenándolo mediante la visualización de videos.
Tesla (TSLA.O) está adoptando un modelo probado para entrenar su robot humanoide. Según personas familiarizadas con el asunto, el fabricante de autos eléctricos informó a sus empleados a finales de junio que el proyecto Optimus se enfocará más en un enfoque de “visión pura”.
Anteriormente, Tesla utilizaba trajes de captura de movimiento y visores de realidad virtual para registrar los datos de operadores humanos y controlar el robot a distancia. Ahora, la compañía entrenará principalmente al robot filmando videos de trabajadores realizando tareas, como enseñarle a recoger objetos o doblar remeras.
Según las fuentes, la empresa afirmó que abandonar los trajes de captura de movimiento y el control remoto permitirá al equipo ampliar la escala de recolección de datos más rápidamente.
Este cambio marca un ajuste importante en la estrategia robótica de Tesla, alineando a Optimus con la creencia de larga data del CEO Elon Musk de que la inteligencia artificial puede dominar tareas complejas solo a través de cámaras. Tesla ha entrenado su software de conducción autónoma usando un método similar.
Este cambio se produce poco después de la renuncia de Milan Kovac, jefe del proyecto Optimus. Según las fuentes, el jefe de IA Ashok Elluswamy ha asumido el liderazgo del proyecto.
La captura de movimiento y el control remoto son prácticas estándar en la industria robótica. Por ejemplo, la empresa líder Boston Dynamics ha utilizado el control remoto para entrenar a su robot Atlas. Durante el entrenamiento, los trabajadores usan trajes de captura de movimiento para realizar diversas tareas, cuyos datos luego se introducen en el robot. Los trajes de captura de movimiento también pueden usarse para controlar el robot a distancia.
Aún no está claro si Tesla volverá a priorizar la captura de movimiento y el control remoto en el futuro, o si continuará desarrollando a partir de los datos de video sobre la base de la información recopilada previamente.
Robert Griffin, científico investigador principal del Instituto de Cognición Humana y de Máquinas, señaló que una gran cantidad de datos de control remoto permite que los robots aprendan interactuando físicamente con el entorno. Señaló que depender únicamente de datos de video dificulta que el robot traduzca con precisión las acciones del video al mundo real.
“Si solo usás datos de video, no hay interacción física directa”, dijo.
Doblar remeras y recoger cosas
Musk anunció por primera vez en 2021 que Tesla planeaba desarrollar un robot humanoide llamado Optimus. El multimillonario afirmó que el robot eventualmente podrá realizar tareas como trabajo en fábricas y cuidado de personas.
El año pasado, la empresa contrató “operadores de recolección de datos”. Estos puestos implicaban ejecutar y registrar tareas domésticas básicas. Según los anuncios de empleo, los operadores debían usar trajes de captura de movimiento y visores de realidad virtual durante largos períodos.
Hasta finales de junio, el proyecto aún incluía entrenar a Optimus mediante control remoto y trajes de captura de movimiento. Según las fuentes, los trabajadores pasaban mucho tiempo lidiando con problemas relacionados con la vestimenta y el propio robot, lo que limitaba la cantidad de datos que el equipo podía recopilar.
Desde el cambio en el método de entrenamiento, los trabajadores comenzaron a registrar sus movimientos usando un set de cinco cámaras fabricadas por Tesla. Según las fuentes, estas cámaras están montadas en cascos y mochilas pesadas que llevan los trabajadores, filmando en todas las direcciones para proporcionar datos precisos de posicionamiento del entorno al modelo de IA.
Christian Hubicki, director del laboratorio de robótica de la Facultad de Ingeniería Conjunta de Florida A&M y Florida State University, señaló que estas cámaras desde diferentes ángulos podrían permitir a Tesla captar detalles más sutiles, “como la posición de las articulaciones y los dedos”, y mejorar la localización del robot. Agregó que estos videos también podrían complementar los datos recopilados previamente mediante control remoto.
Durante el entrenamiento, los trabajadores reciben instrucciones específicas de tareas, especialmente en lo que respecta a los movimientos de las manos, para asegurar que las acciones se vean lo más humanas posible. Un empleado comentó que podrían pasar meses repitiendo la misma tarea simple.
Jonathan Aitken, experto en robótica de la Universidad de Sheffield, dijo que Tesla probablemente necesitará encontrar una forma de que Optimus aprenda diversas tareas a través de movimientos generalizables.
“A esta escala, deben tener un conjunto de movimientos universales, de lo contrario, entrenar todas las tareas llevaría muchísimo tiempo”, dijo Aitken.
Agregó que Tesla podría adoptar una estrategia similar a la de la empresa Physical Intelligence, que enseña a los robots habilidades transferibles y flexibles introduciendo grandes cantidades de datos de demostración, en lugar de que memoricen tareas individuales.
“Un desarrollo robótico muy al estilo Tesla”
Esta nueva estrategia es consistente con la forma en que Tesla entrena su software de conducción autónoma. Otras empresas de conducción autónoma utilizan sensores como lidar y radar de onda milimétrica para entrenar su software, mientras que Tesla depende principalmente de cámaras.
La empresa recopila datos de millones de autos Tesla equipados con 8 a 9 cámaras. Musk ha dicho que el lanzamiento del software de asistencia a la conducción de Tesla en China se logró tras entrenar el sistema de IA con videos públicos de calles asiáticas.
En la llamada de resultados de enero de este año, Musk admitió que “los requisitos de entrenamiento para el robot humanoide Optimus podrían ser al menos 10 veces mayores que los necesarios para los autos”.
“Es una forma muy al estilo Tesla de desarrollar robots. Ninguna otra empresa está intentando hacerlo a esta escala”, dijo Aitken. “Necesitan una cantidad de datos tan grande como la que usan para entrenar autos”.
Alan Fern, experto en IA y robótica de la Universidad Estatal de Oregón, señaló que entrenar a Optimus es incluso más desafiante para Tesla que desarrollar autos autónomos.
“Conducir es solo una tarea”, dijo. Depender principalmente del aprendizaje por video “requiere que el robot no solo entienda lo que ocurre en el video, sino que también tenga las habilidades para completar la tarea. Algunas cosas se pueden aprender observando, pero otras requieren práctica en simuladores o en el mundo real”.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
Aave apuesta por RWA: ¿Será Horizon el próximo motor de crecimiento?
Después de resolver disputas, Aave Labs lanzó el mercado RWA de Ethereum llamado Horizon.

¿Por qué necesitamos DeFi?
Desde una perspectiva global, ¿cuál es el verdadero significado práctico de las finanzas descentralizadas?

Predicción del precio de Solana: ¿Puede SOL superar los 215 dólares y dispararse hasta los 300 dólares?
Solana está luchando contra una resistencia clave en la zona de 205 a 215 dólares. ¿El aumento del flujo de capital institucional impulsará a SOL por encima de los 300 dólares, o perder el soporte lo empujará hacia abajo? A continuación, las predicciones y perspectivas de precios para hoy.

Si MicroStrategy colapsa: ¿La venta de 70 mil millones de dólares en bitcoin por parte de Saylor podría detonar el mercado?

En tendencia
MásPrecios de las criptos
Más








