Universal Robots zaprezentowało podczas GTC 2026 w Dolinie Krzemowej rozwiązanie UR AI Trainer opracowane we współpracy ze Scale AI. System ma przyspieszać rozwój modeli sztucznej inteligencji dla robotyki oraz zmniejszać lukę między badaniami a przemysłowymi wdrożeniami. Kluczową rolę odgrywają tu wysokiej jakości dane generowane w środowiskach treningowych, w których roboty uczą się przez naśladowanie człowieka. W połączeniu z platformą UR AI Accelerator oraz oprogramowaniem Scale AI powstaje spójny obieg danych robotycznych, obejmujący zarówno rzeczywiste aplikacje, jak i środowiska symulacyjne oparte na Nvidia Omniverse i Isaac Sim. Pokazy z udziałem partnerów Scale AI i Generalist AI ilustrują, w jaki sposób te rozwiązania mogą umożliwić rozwój systemów Physical AI, zdolnych do realizacji złożonych zadań manipulacyjnych poza środowiskiem laboratoryjnym.
Uczenie przez naśladowanie i bezpośrednia kontrola momentu obrotowego
Jednym z głównych wyzwań w szkoleniu robotów wykorzystujących sztuczną inteligencję jest rozproszona infrastruktura sprzętowa oraz niska jakość pozyskiwanych danych. Wiele danych treningowych powstaje na robotach badawczych, które nie są przystosowane do warunków produkcyjnych. Dodatkowo liczne systemy opierają się wyłącznie na analizie obrazu, co utrudnia realizację precyzyjnych operacji wymagających kontaktu fizycznego z obiektami.
Anders Beck, VP of AI Robotics Products w Universal Robots, podkreśla zmianę oczekiwań użytkowników względem rozwiązań opartych na sztucznej inteligencji. Jak zaznacza, klienci, od dużych przedsiębiorstw po laboratoria badawcze AI, potrzebują obecnie skutecznych sposobów na zbieranie wysokiej jakości, zsynchronizowanych danych z robotów i systemów wizyjnych, aby trenować modele na tych samych robotach, które będą później wdrażane. Według Becka UR AI Trainer ma być pierwszym w branży narzędziem, które bezpośrednio łączy laboratorium z halą produkcyjną w procesie trenowania modeli AI.
W systemie UR AI Trainer wykorzystano funkcje direct torque control oraz sprzężenie zwrotne, co ma umożliwiać deweloperom precyzyjną kontrolę fizycznej interakcji robota z otoczeniem. Modele AI mogą być trenowane na tym samym sprzęcie, który jest już stosowany w ponad 100 000 zastosowań przemysłowych robotów Universal Robots, co upraszcza przejście od prototypu do aplikacji produkcyjnej.
Leader-follower i zintegrowany obieg danych robotycznych
UR AI Trainer umożliwia prowadzenie robotów Universal Robots przez zadania w układzie leader-follower. Operatorzy fizycznie prowadzą robota pełniącego rolę „lidera” przez kolejne etapy procesu, podczas gdy zsynchronizowany robot „naśladowca” odwzorowuje ruch w czasie rzeczywistym. W trakcie demonstracji system rejestruje zsynchronizowane dane ruchu, siły i dane wizyjne, tworząc ustrukturyzowane zbiory danych niezbędne do trenowania modeli Vision-Language-Action.
System działa na platformie UR AI Accelerator, która łączy roboty Universal Robots z oprogramowaniem Scale AI. Dzięki temu możliwe jest zbieranie danych na robotach UR w warunkach produkcyjnych i na dużą skalę. Powstaje w ten sposób ciągła pętla informacji zwrotnej, która zasila proces nieprzerwanej optymalizacji systemów Physical AI, obejmujący zarówno etap zbierania danych, jak i trenowania oraz doskonalenia modeli.
Ben Levin, General Manager Physical AI w Scale AI, wskazuje, że globalna obecność Universal Robots stanowi dogodną platformę do gromadzenia danych i wdrażania rozwiązań AI. Jak zapowiada, w wyniku współpracy UR i Scale AI powstaje zintegrowany obieg danych robotycznych, który ma umożliwiać klientom szybsze trenowanie, wdrażanie i ulepszanie modeli sztucznej inteligencji. Firmy planują opublikować jeszcze w tym roku obszerny przemysłowy zbiór danych zarejestrowanych na robotach Universal Robots.
Pokazy UR AI Trainer i środowisk symulacyjnych na GTC
Podczas GTC system UR AI Trainer miał swoją oficjalną premierę w formie demonstracji na stoisku Universal Robots. Uczestnicy konferencji mogli sterować dwoma robotami UR3e, pełniącymi role „liderów” i dostarczającymi sygnały haptyczne do dwóch robotów UR7e w roli „naśladowców”. Dzięki sprzężeniu haptycznemu odwiedzający wykonywali złożone zadanie pakowania smartfonów, a system jednocześnie zbierał dane niezbędne do uczenia przez imitację i trenowania modeli Vision-Language-Action. Dane demonstracyjne były rejestrowane w czasie rzeczywistym w środowisku Scale AI i mogły być odtwarzane bezpośrednio w narzędziu UR AI Trainer.
Proces pozyskiwania danych treningowych przedstawiono również w środowisku wirtualnym. Zastosowano w tym celu Nvidia Omniverse i Isaac Sim, tworząc wirtualne stanowisko pakowania smartfonów. Uczestnicy mogli sterować symulowanym dwuręcznym systemem UR3e z haptycznym sprzężeniem zwrotnym w czasie rzeczywistym, wykorzystując dwa urządzenia Haply Inverse3 w roli „liderów”. Zastosowane rozwiązanie miało zapewnić symulację zgodną z prawami fizyki, umożliwiając generowanie danych syntetycznych z uwzględnieniem rzeczywistych interakcji mechanicznych.
Universal Robots analizuje także możliwości wykorzystania Nvidia Physical AI Data Factory Blueprint do automatyzacji i skalowania procesu generowania danych syntetycznych. Celem jest przekształcenie globalnych zasobów obliczeniowych w wydajny system produkcyjny wysokiej jakości danych treningowych dla robotów, które mogą być później użyte do trenowania systemów Physical AI w różnych zastosowaniach.
Embodied foundation models w zastosowaniach przemysłowych
Prezentacje związane ze zbieraniem danych uzupełnił pokaz przygotowany przez Generalist AI, preferowanego partnera Universal Robots w obszarze zaawansowanych modeli bazowych dla robotyki. Firma zaprezentowała pierwszą publiczną demonstrację embodied foundation models, czyli modeli sztucznej inteligencji działających w świecie fizycznym. Dwa roboty UR7e autonomicznie realizowały złożone zadanie pakowania smartfonów, pokazując wysoką precyzję ruchu, koordynację oraz zaawansowaną manipulację obiektami w rzeczywistych warunkach pracy.
Pokaz miał zilustrować, w jaki sposób wysokiej jakości dane treningowe zbierane na dużą skalę, połączone z nowoczesnymi architekturami modeli, mogą tworzyć systemy Physical AI zdolne do działania poza środowiskiem laboratoryjnym. Pete Florence, współzałożyciel i CEO Generalist AI, wskazuje, że rozwijane przez firmę embodied foundation models mają wyznaczać standardy w zakresie precyzji i niezawodności. Jak podkreśla, demonstracja na przemysłowej platformie Universal Robots pokazuje, w jaki sposób fizyczny „zdrowy rozsądek” modeli AI może zostać przełożony na praktyczne zastosowania i stanowić podstawę do wdrożeń w różnych branżach na dużą skalę.
Anders Beck z Universal Robots zwraca uwagę, że wykorzystanie technologii UR przez liderów w obszarze trenowania modeli AI i pozyskiwania danych jest jednym z czynników, które przyczyniły się do ugruntowania pozycji Universal Robots jako preferowanej platformy dla rozwiązań Physical AI. Przedstawiciel firmy uczestniczył także w panelu GTC zatytułowanym „Beyond the Workcell: Scaling Robotics Workflows Across the Factory Floor”, poświęconym skalowaniu przepływów pracy w robotyce w całym zakładzie produkcyjnym.
Znaczenie dla przemysłowej robotyki i automatyzacji
Przedstawione podczas GTC 2026 rozwiązania Universal Robots, Scale AI i Generalist AI pokazują kierunek rozwoju systemów robotycznych, w których kluczową rolę odgrywa obieg danych i zdolność robotów do uczenia się na podstawie demonstracji oraz generowanych syntetycznie scenariuszy. Z perspektywy przemysłu oznacza to przejście od sztywno zaprogramowanych zadań do robotów zdolnych do postrzegania, wnioskowania i adaptacji w zmiennym środowisku produkcyjnym.
Zgodnie z oceną przedstawioną przez Amitę Goela, Head of Robotics and Edge AI Ecosystem w Nvidia, rozwój Physical AI wymaga odejścia od tradycyjnej, z góry zaprogramowanej automatyzacji na rzecz bardziej uniwersalnych systemów. Wykorzystanie środowisk symulacyjnych Nvidia Isaac oraz narzędzi do generowania danych syntetycznych ma umożliwić budowę skalowalnej infrastruktury do pozyskiwania i generowania wysokiej jakości danych, które są niezbędne do treningu nowej generacji autonomicznych systemów na dużą skalę.
W kontekście zakładów produkcyjnych, w tym w sektorze przetwórstwa tworzyw sztucznych i pakowania, tego typu rozwiązania mogą w dłuższej perspektywie wspierać automatyzację złożonych operacji manipulacyjnych, takich jak pakowanie produktów, obsługa komponentów czy prace montażowe. Integracja robotów współpracujących z systemami Physical AI otwiera drogę do aplikacji, w których układy mechaniczne, sensoryczne i algorytmy sztucznej inteligencji są ściśle sprzężone w jednym środowisku produkcyjnym.
