Loading a pallet into a trailer using an autonomous mobile robot. The robot determines a pose of the trailer based on sensor data and navigates to a first goal position inside the trailer, determined based on the pose of the trailer. The robot then side-shifts the fork toward the trailer's side wall until sensors detect contact between the pallet and the side wall, with the pallet positioned above a lip on the trailer wall. The robot retracts the fork by a distance corresponding to the lip's width to prevent the pallet and the side wall of the trailer from scraping each other. The robot then navigates in a straight line forward to a second goal position, which is within a predetermined threshold distance from the drop position. The robot releases the pallet at the second goal position.
Loading last few rows of pallets onto a trailer using an autonomous mobile robot. The robot determines that the next pallet to be loaded is a first in a row where the trailer does not have sufficient space to accommodate the robot. The robot identifies a pose of a previous pallet in an immediately prior row and determines a front plane of the immediately prior row. The robot navigates to a first goal position at least partially inside the trailer, determined by the pose of the previous pallet and the trailer. The robot then side-shifts the fork toward the trailer's side wall until contact is detected and subsequently adjust the fork back to prevent scraping. The robot proceeds to a second goal position, which is within a predetermined threshold distance of the drop position, before lowering and releasing the pallet.
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
B66F 9/075 - Caractéristiques de construction ou détails
Unloading first few rows of pallets from a trailer using an autonomous mobile robot. The robot determines that a pallet is a first in a row where the trailer does not have sufficient space to accommodate the robot. The robot determines a pose of each observable pallet in the trailer and determines a front plane for the pallets in the same row as the target pallet. The robot navigates to a first goal position inside the trailer, based on the pallet and trailer poses, then picks up the pallet. The robot side-shifts toward an adjacent pallet until detecting contact, then adjusts back by a predetermined distance to maximize clearance between the pallet and a side wall of the trailer. The robot navigates backward in a straight line to a second goal position on a ramp, and then proceeds to drop off the pallet in the staging area.
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
B66F 9/075 - Caractéristiques de construction ou détails
Loading and unloading pallets in a trailer using an autonomous mobile robot. The method involves the robot determining the pose of the trailer and using sensor data to navigate to goal positions inside the trailer for precise pallet placement or retrieval. During loading, the robot side-shifts the fork to align the pallet with the trailer's side wall and retracts the fork to prevent scraping before advancing to a second goal position to release the pallet. For unloading, the robot identifies the pose of the target pallet, navigates to align the fork, lifts the pallet, and proceeds to a drop-off location. In scenarios where space within the trailer is limited, the robot adjusts its movements to avoid scraping and maximize clearance, ensuring efficient loading or unloading operations. The method enables autonomous management of the first or last rows of pallets even in confined spaces.
A method implemented at an autonomous mobile robot equipped with a fork to carry a pallet. The robot transitions between a first and second piecewise flat floor segments with differing geometries. The robot uses sensor data from sensors such as LIDAR, stereo cameras, GPS, and ultrasound sensors to determine the transition between the first and second piecewise flat floor segments. The fork operates based on parameters that meet reference constraints. When the robot detects that a second floor geometry would cause these parameters to no longer meet the reference constraints, the robot determines new parameters that will satisfy the reference constraints. Control signals are then sent to adjust the fork's operation as the robot transitions to the second floor segment.
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
Unloading pallets from a trailer using an autonomous mobile robot. The robot determines a pose of the trailer and a pose of each observable pallet inside. The robot identifies a target pallet for retrieval based on the observed poses and determines a front plane for the pallets in the same row as the target pallet. The robot navigates to a first goal position, side-shifts its fork to align the fork with the target pallet's pockets, inserts the fork, and lifts the pallet. The robot then navigates in reverse to a second goal position, determined based on the front plane and trailer pose. From the second position, the robot proceeds to a drop-off point in a staging area, side-shifting the fork towards the center during transit.
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
B66F 9/075 - Caractéristiques de construction ou détails
A method implemented at an autonomous mobile robot equipped with a fork to carry a pallet. The robot transitions between a first and second piecewise flat floor segments with differing geometries. The robot uses sensor data from sensors such as LIDAR, stereo cameras, GPS, and ultrasound sensors to determine the transition between the first and second piecewise flat floor segments. The fork operates based on parameters that meet reference constraints. When the robot detects that a second floor geometry would cause these parameters to no longer meet the reference constraints, the robot determines new parameters that will satisfy the reference constraints. Control signals are then sent to adjust the fork's operation as the robot transitions to the second floor segment.
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G05D 1/435 - Commande de la position ou du cap par référence à un système à deux dimensions induisant un changement de niveau, p. ex. en empruntant des ascenseurs ou des escaliers
G05D 1/49 - Commande de l’attitude, c.-à-d. commande du roulis, du tangage ou des embardées
G05D 1/667 - Livraison ou récupération de charges utiles
G05D 105/28 - Applications spécifiques des véhicules commandés pour le transport de marchandises
G05D 107/00 - Environnements spécifiques des véhicules commandés
12 - Véhicules; appareils de locomotion par terre, par air ou par eau; parties de véhicules
Produits et services
Automatic guided vehicles; Electric vehicles; Self-loading vehicles; Self-propelled electric vehicle; Vehicles; Self-driving robots for delivery; autonomous forklift trucks for unloading and loading of truck trailers.
9.
AI-POWERED LOAD STABILITY ESTIMATION FOR PALLET HANDLING
An autonomous mobile robot receives sensor data from one or more sensors. The sensor data includes image data depicting a load coupled to a pallet and depth data indicating distance of surfaces of the load or the pallet from the one or more sensors. A first machine-learning model is applied to the image data to generate a first mask and second mask. The first mask represents the load, and the second mask represents the pallet. The first mask, the second mask, and/or the depth data are then used to determine a load orientation and load size. Based on the load orientation and load size, the robot evaluates the load's stability. If the stability is deemed safe, the robot is caused to lift the pallet.
B65G 43/02 - Dispositifs de commande, p. ex. de sécurité, d'alarme ou de correction des erreurs détectant une condition physique dangereuse des porte-charges, p. ex. pour stopper l'entraînement en cas d'échauffement
A system and method are described that provide for mapping features of a warehouse environment having improved workflow. In one example of the system/method of the present invention, a mapping robot is navigated through a warehouse environment, and sensors of the mapping robot collect geospatial data as part of a mapping mode. A Frontend N block of a map framework may be responsible for reading and processing the geospatial data from the sensors of the mapping robot, as well as various other functions. The data may be stored in a keyframe object at a keyframe database. A Backend block of the map framework may be useful for detecting loop constraints, building submaps, optimizing a pose graph using keyframe data from one or more trajectory blocks, and/or various other functions.
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G05D 1/646 - Suivi d’une trajectoire prédéfinie, p. ex. d’une ligne marquée sur le sol ou d’une trajectoire de vol
G05D 1/69 - Commande coordonnée de la position ou du cap de plusieurs véhicules
G05D 105/80 - Applications spécifiques des véhicules commandés pour la collecte d’informations, p. ex. recherche universitaire
G05D 107/70 - Sites industriels, p. ex. entrepôts ou usines
G05D 111/63 - Combinaison de plusieurs signaux du même type, p. ex. stéréovision ou flux optique
G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
11.
System and method for queueing robot operations in a warehouse environment based on workflow optimization instructions
A system and method are described that provide for queueing robot operations in a warehouse environment based on workflow optimization instructions. In one example of the system/method of the present invention, a control system causes certain robots to queue proximate to one another to permit resources to be obtained, transported, deposited, etc. without the robots crashing into one another (or into other objects), or forming traffic jams. A robot may remain at an assigned queue position at least until another position assigned to the robot becomes available.
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G05D 1/646 - Suivi d’une trajectoire prédéfinie, p. ex. d’une ligne marquée sur le sol ou d’une trajectoire de vol
G05D 1/69 - Commande coordonnée de la position ou du cap de plusieurs véhicules
G05D 105/80 - Applications spécifiques des véhicules commandés pour la collecte d’informations, p. ex. recherche universitaire
G05D 107/70 - Sites industriels, p. ex. entrepôts ou usines
G05D 111/63 - Combinaison de plusieurs signaux du même type, p. ex. stéréovision ou flux optique
G06V 10/82 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant les réseaux neuronaux
In a method for subpixel disparity calculation, image data for various images each representing a field of view of an input device is received by a processor, and the image data is applied to a machine learning model. The machine learning module uses the image data to compute an output representing calculated subpixel disparity between the various images. In an example of the method, the machine learning model is a neural network that produces accurate and reliable subpixel disparity estimation in real-time using synthetically generated data.
To load and unload a trailer, an autonomous mobile robot determines its location and the location of objects within the trailer relative to the trailer itself, rather than relative to a warehouse. The autonomous mobile robot determines its location the location of objects within the trailer relative to the trailer. The autonomous mobile robot navigates within the trailer and manipulates objects within the trailer from the trailer's reference frame. Additionally, the autonomous mobile robot uses a centerline heuristic to compute a path for itself within the trailer. A centerline heuristic evaluates nodes within the trailer based on how far away those nodes are from the centerline. If the nodes are further away from the centerline, they are assigned a higher cost. Thus, when the autonomous mobile robot computes a path, the path is more likely to stay near the centerline of the trailer rather than get closer to the sides.
B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
B65G 67/02 - Chargement ou déchargement des véhicules terrestres
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
14.
PATHFINDING USING CENTERLINE HEURISTICS FOR AN AUTONOMOUS MOBILE ROBOT
To load and unload a trailer, an autonomous mobile robot determines its location and the location of objects within the trailer relative to the trailer itself, rather than relative to a warehouse. The autonomous mobile robot determines its location the location of objects within the trailer relative to the trailer. The autonomous mobile robot navigates within the trailer and manipulates objects within the trailer from the trailer's reference frame. Additionally, the autonomous mobile robot uses a centerline heuristic to compute a path for itself within the trailer. A centerline heuristic evaluates nodes within the trailer based on how far away those nodes are from the centerline. If the nodes are further away from the centerline, they are assigned a higher cost. Thus, when the autonomous mobile robot computes a path, the path is more likely to stay near the centerline of the trailer rather than get closer to the sides.
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
B65G 67/02 - Chargement ou déchargement des véhicules terrestres
G05D 1/02 - Commande de la position ou du cap par référence à un système à deux dimensions
15.
Capability-aware pathfinding for autonomous mobile robots
An autonomous mobile robot uses a capability-aware pathfinding algorithm to traverse from a start pose to an end pose efficiently and effectively. The robot receives a start pose and an end pose, and determines a primary path from the start pose to the end pose based on a primary pathfinding algorithm. The robot may smooth the primary path using Bezier curves. The robot may identify a conflict point on the primary path where the robot cannot traverse, and may determine a secondary path from a first point before the conflict point to a second point after the conflict point. The secondary path may use a secondary pathfinding algorithm that uses motion primitives of the robot to generate the secondary path based on the motion capabilities of the robot. The robot may then traverse from the start pose to the end pose based on the primary path and the secondary path.
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
An autonomous mobile robot may use an improved steering system. The improved steering system may include a steering motor that is operably coupled to a motor shaft. The motor shaft may be aligned at an offset position relative to a center axis of the autonomous mobile robot. The motor shaft may be operably coupled to a front and rear steering linkage. Each steering linkage may include a pitman arm that is coupled to the motor shaft and a drag link. The drag link may be coupled to a first steering arm and a tie rod. The tie rod may also be coupled to a second steering arm. The first steering arm may be coupled to a first wheel and the second steering arm may be coupled to a second wheel.
B62D 7/14 - Timonerie de directionFusées ou leur montage pour roues pivotant individuellement, p. ex. sur pivot de fusée les axes de pivotement étant situés dans plus d'un plan perpendiculaire à l'axe longitudinal du véhicule, p. ex. toutes les roues étant directrices
B62D 5/04 - Direction assistée ou à relais de puissance électrique, p. ex. au moyen d'un servomoteur relié au boîtier de direction ou faisant partie de celui-ci
17.
AREA-BASED OPERATION BY AUTONOMOUS ROBOTS IN A FACILITY CONTEXT
A system and a method are disclosed that identifies a source area within a facility comprising a plurality of objects, and determines a destination area within the facility to which the plurality of objects are to be transported and unloaded. The system selects robots within the facility based a capability of the robots and/or a location of the robots within the facility. The system provides an instruction to the robots to transport the plurality of objects from the source area to the destination area. The robots are configured to autonomously select an object based on a position and location of the object within the source area, transport the selected object to a destination area along a route selected by the robot, and unload the selected object at a location within the destination area selected based on a number of objects yet to be unloaded within the destination area.
G06Q 10/06 - Ressources, gestion de tâches, des ressources humaines ou de projetsPlanification d’entreprise ou d’organisationModélisation d’entreprise ou d’organisation
G06Q 50/28 - Logistique, p.ex. stockage, chargement, distribution ou expédition
A system and a method are disclosed that identifies a source area within a facility comprising a plurality of objects, and determines a destination area within the facility to which the plurality of objects are to be transported and unloaded. The system selects robots within the facility based a capability of the robots and/or a location of the robots within the facility. The system provides an instruction to the robots to transport the plurality of objects from the source area to the destination area. The robots are configured to autonomously select an object based on a position and location of the object within the source area, transport the selected object to a destination area along a route selected by the robot, and unload the selected object at a location within the destination area selected based on a number of objects yet to be unloaded within the destination area.
B65G 1/06 - Dispositifs d'emmagasinage mécaniques avec des moyens pour que les objets se présentent à l'enlèvement dans des positions ou à des niveaux prédéterminés
B65G 1/137 - Dispositifs d'emmagasinage mécaniques avec des aménagements ou des moyens de commande automatique pour choisir les objets qui doivent être enlevés
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
G05B 19/418 - Commande totale d'usine, c.-à-d. commande centralisée de plusieurs machines, p. ex. commande numérique directe ou distribuée [DNC], systèmes d'ateliers flexibles [FMS], systèmes de fabrication intégrés [IMS], productique [CIM]
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
G05D 1/02 - Commande de la position ou du cap par référence à un système à deux dimensions
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
A system and a method are disclosed where an autonomous robot captures an image of an object to be transported from a source to a destination. The robot generates a bounding box within the image surrounding the object. The robot applies a machine-learned model to the image with the bounding box, the machine-learned model configured to identify an object type of the object, and to identify features of the object based on the identified object type and the image. The robot determines which of the identified features of the object are visible to the autonomous robot, and determines a three-dimensional pose of the object based on the features determined to be visible to the autonomous robot.
B65G 1/06 - Dispositifs d'emmagasinage mécaniques avec des moyens pour que les objets se présentent à l'enlèvement dans des positions ou à des niveaux prédéterminés
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
G05D 1/02 - Commande de la position ou du cap par référence à un système à deux dimensions
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
B65G 1/137 - Dispositifs d'emmagasinage mécaniques avec des aménagements ou des moyens de commande automatique pour choisir les objets qui doivent être enlevés
A system and a method are disclosed that generate for display to a remote operator a user interface comprising a map, the map comprising visual representations of a source area, a plurality of candidate robots, and a plurality of candidate destination areas. The system receives, via the user interface, a selection of a visual representation of a candidate robot of the plurality of candidate robots, and detects a drag-and-drop gesture within the user interface of the visual representation of the candidate robot being dragged-and-dropped to a visual representation of a candidate destination area of the plurality of candidate destination areas. Responsive to detecting the drag-and-drop gesture, the system generates a mission, where the mission causes the candidate robot to autonomously transport an object from the source area to the candidate destination area.
B65G 1/06 - Dispositifs d'emmagasinage mécaniques avec des moyens pour que les objets se présentent à l'enlèvement dans des positions ou à des niveaux prédéterminés
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
G05D 1/02 - Commande de la position ou du cap par référence à un système à deux dimensions
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
B65G 1/137 - Dispositifs d'emmagasinage mécaniques avec des aménagements ou des moyens de commande automatique pour choisir les objets qui doivent être enlevés
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
G05B 19/418 - Commande totale d'usine, c.-à-d. commande centralisée de plusieurs machines, p. ex. commande numérique directe ou distribuée [DNC], systèmes d'ateliers flexibles [FMS], systèmes de fabrication intégrés [IMS], productique [CIM]
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
21.
Safety mode toggling by autonomous robots in a facility context
A system and a method are disclosed that cause a robot to traverse along a route based on a minimum distance to be maintained between the autonomous mobile robot and an obstacle corresponding to a first mode. The robot determines that the route cannot be continued without a distance between the robot and a detected obstacle becoming less than the minimum distance, and responsively determines whether the route can be continued without the distance between the robot and the detected obstacle becoming less than a second minimum distance less than the initial minimum distance, the second minimum distance corresponding to a second mode. Responsive to determining that the route can be continued without the distance between the autonomous mobile robot and the detected obstacle becoming less than the second minimum distance, the robot is configured to operate in second mode and continues traversal of the route.
B65G 1/137 - Dispositifs d'emmagasinage mécaniques avec des aménagements ou des moyens de commande automatique pour choisir les objets qui doivent être enlevés
B65G 1/06 - Dispositifs d'emmagasinage mécaniques avec des moyens pour que les objets se présentent à l'enlèvement dans des positions ou à des niveaux prédéterminés
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
G05D 1/02 - Commande de la position ou du cap par référence à un système à deux dimensions
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources
G05B 19/418 - Commande totale d'usine, c.-à-d. commande centralisée de plusieurs machines, p. ex. commande numérique directe ou distribuée [DNC], systèmes d'ateliers flexibles [FMS], systèmes de fabrication intégrés [IMS], productique [CIM]
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
22.
Dynamic traversal protocol selection by autonomous robots in a facility context
A system and a method are disclosed where a robot operating using a first traversal protocol traverses autonomously along a first route that is defined by markers that are detectable by the robot, wherein the robot is configured to move only based on a presence and type of each marker when the robot is configured to operate based on the first traversal protocol. The robot detects, while traversing along the route, a triggering condition corresponding to a change in operation by the robot from the first traversal protocol to a second traversal protocol. Responsive to detecting the triggering condition, the robot is configured to operate in the second traversal protocol, wherein the robot, when configured to operate based on the second traversal protocol, determines a second route autonomously without regard to a presence of any of the markers.
B65G 1/06 - Dispositifs d'emmagasinage mécaniques avec des moyens pour que les objets se présentent à l'enlèvement dans des positions ou à des niveaux prédéterminés
B65G 1/137 - Dispositifs d'emmagasinage mécaniques avec des aménagements ou des moyens de commande automatique pour choisir les objets qui doivent être enlevés
B66F 9/06 - Dispositifs pour lever ou descendre des marchandises volumineuses ou lourdes aux fins de chargement ou de déchargement se déplaçant, avec leurs charges, sur des roues ou sur un dispositif analogue, p. ex. chariots élévateurs à fourche
G05B 19/418 - Commande totale d'usine, c.-à-d. commande centralisée de plusieurs machines, p. ex. commande numérique directe ou distribuée [DNC], systèmes d'ateliers flexibles [FMS], systèmes de fabrication intégrés [IMS], productique [CIM]
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
G05D 1/222 - Dispositions de commande à distance actionnées par des humains
G05D 1/223 - Dispositions d’entrée de commande sur les dispositifs de commande à distance, p. ex. manches à balai ou écrans tactiles
G05D 1/224 - Dispositions de sortie sur les dispositifs de commande à distance, p. ex. écrans, dispositifs haptiques ou haut-parleurs
G05D 1/225 - Dispositions de commande à distance actionnées par des ordinateurs externes
G05D 1/226 - Liaisons de communication avec les dispositions de commande à distance
G05D 1/227 - Transfert de la commande entre la commande à distance et la commande embarquéeTransfert de la commande entre plusieurs dispositions de commande à distance
G05D 1/247 - Dispositions pour déterminer la position ou l’orientation utilisant des signaux fournis par des sources artificielles extérieures au véhicule, p. ex. balises de navigation
G05D 1/617 - Sécurité ou protection, p. ex. définition de zones de protection autour d’obstacles ou évitement de zones dangereuses
G05D 1/646 - Suivi d’une trajectoire prédéfinie, p. ex. d’une ligne marquée sur le sol ou d’une trajectoire de vol
G05D 1/69 - Commande coordonnée de la position ou du cap de plusieurs véhicules
G06F 18/21 - Conception ou mise en place de systèmes ou de techniquesExtraction de caractéristiques dans l'espace des caractéristiquesSéparation aveugle de sources