Methods and apparatus for navigating a robot along a route through an environment, the route being associated with a mission, are provided. The method comprises identifying, based on sensor data received by one or more sensors of the robot, a set of potential obstacles in the environment, determining, based at least in part on stored data indicating a set of footfall locations of the robot during a previous execution of the mission, that at least one of the potential obstacles in the set is an obstacle, and navigating the robot to avoid stepping on the obstacle.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G05D 1/43 - Commande de la position ou du cap par référence à un système à deux dimensions
G05D 1/617 - Sécurité ou protection, p. ex. définition de zones de protection autour d’obstacles ou évitement de zones dangereuses
G05D 1/628 - Évitement d’obstacles suivant le profil de l’obstacle, p. ex. un mur ou un terrain vallonné
A method for generating intermediate waypoints for a navigation system of a robot includes receiving a navigation route. The navigation route includes a series of high-level waypoints that begin at a starting location and end at a destination location and is based on high-level navigation data. The high-level navigation data is representative of locations of static obstacles in an area the robot is to navigate. The method also includes receiving image data of an environment about the robot from an image sensor and generating at least one intermediate waypoint based on the image data. The method also includes adding the at least one intermediate waypoint to the series of high-level waypoints of the navigation route and navigating the robot from the starting location along the series of high-level waypoints and the at least one intermediate waypoint toward the destination location.
Methods and apparatus for controlling a mobile robot to perform an action are provided. The method includes receiving, by at least one computing device associated with a mobile robot, first sensor data and second sensor data, providing as input to at least one machine learning model, the first sensor data, the second sensor data, and camera intrinsics associated with at least one camera configured to sense the first sensor data and/or the second sensor data, wherein the at least one machine learning model is trained to output polyhedron information representing a set of objects in an environment of the mobile robot, and controlling the mobile robot to perform an action based, at least in part, on the polyhedron information output from the at least one machine learning model.
A robot configured to operate safely in response to detecting an abnormal operating condition is provided. The robot includes an actuator coupled to a robot member and a motor controller configured to control the actuator to move the robot member about a robot joint. The motor controller includes a first set of components and a second set of components, and each of the first set of components and the second set of components is independently operable by the motor controller to control the actuator to move the robot member about the robot joint.
B25J 19/00 - Accessoires adaptés aux manipulateurs, p. ex. pour contrôler, pour observerDispositifs de sécurité combinés avec les manipulateurs ou spécialement conçus pour être utilisés en association avec ces manipulateurs
Methods and apparatus for assigning a quality metric to an object to be grasped by a mobile robot are provided. The method includes receiving at least one image including a set of objects, processing the at least one image using a trained machine learning model to assign a quality metric to a first object of the set of objects in the at least one image, and controlling the mobile robot to perform an action based, at least in part, on the quality metric assigned to the first object.
G05D 101/15 - Détails des architectures logicielles ou matérielles utilisées pour la commande de la position utilisant des techniques d’intelligence artificielle [IA] utilisant l’apprentissage automatique, p. ex. les réseaux neuronaux
G05D 107/70 - Sites industriels, p. ex. entrepôts ou usines
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 10/98 - Détection ou correction d’erreurs, p. ex. en effectuant une deuxième exploration du motif ou par intervention humaineÉvaluation de la qualité des motifs acquis
G06V 20/56 - Contexte ou environnement de l’image à l’extérieur d’un véhicule à partir de capteurs embarqués
7.
SLIP HANDLING AND GROUND FRICTION ESTIMATION FOR ROBOTS
Apparatus and methods for mitigating slip conditions and estimating ground friction for a robot having a plurality of feet are provided. In one aspect, a method includes estimating a coefficient of friction for a ground surface supporting the legged robot based on sensor data, odometry data, and a terrain map of an environment. The sensor data includes a set of joint angles and a set of joint torques for a set of joints of the legged robot, and the odometry data indicates a location of the legged robot in the environment. One of the plurality of feet of the robot applies a force on the ground surface based on the estimated coefficient of friction.
Methods and apparatus for determining a velocity of a conveyor associated with a mobile robot are provided. The method includes receiving first image data, the first image data including a first representation of a first object and a conveyor, the first image data captured at a first time, and determining by at least one hardware processor, a velocity of the conveyor based, at least in part, on the first representation of the first object in the first image data and a difference between the first time and a second time different from the first time.
Methods and apparatus for assigning a quality metric to an object to be grasped by a mobile robot are provided. The method includes receiving at least one image including a set of objects, processing the at least one image using a trained machine learning model to assign a quality metric to a first object of the set of objects in the at least one image, and controlling the mobile robot to perform an action based, at least in part, on the quality metric assigned to the first object.
The invention includes systems and methods for determining movement of a robot. A computing system of the robot receives information comprising a reference behavior specification, a current state of the robot, and a characteristic of a massive body coupled to or expected to be coupled to the robot. The computing system determines, based on the information, a set of movement parameters for the robot, the set of movement parameters reflecting a goal trajectory for the robot. The computing system instructs the robot to move consistent with the set of movement parameters.
Embodiments are provided for receiving a request to output audio at a first speaker and a second speaker of an electronic device, determining that the electronic device is oriented in a portrait orientation or a landscape orientation, identifying, based on the determined orientation, a first equalization setting for the first speaker and a second equalization setting for the second speaker, providing, for output at the first speaker, a first audio signal with the first equalization setting, and providing, for output at the second speaker, a second audio signal with the second equalization setting.
H04R 29/00 - Dispositifs de contrôleDispositifs de tests
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
A method of constrained mobility mapping includes receiving from at least one sensor of a robot at least one original set of sensor data and a current set of sensor data. Here, each of the at least one original set of sensor data and the current set of sensor data corresponds to an environment about the robot. The method further includes generating a voxel map including a plurality of voxels based on the at least one original set of sensor data. The method also includes generating a spherical depth map based on the current set of sensor data and determining that a change has occurred to an obstacle represented by the voxel map based on a comparison between the voxel map and the spherical depth map. The method additional includes updating the voxel map to reflect the change to the obstacle.
B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G05D 1/243 - Moyens de capture de signaux provenant naturellement de l’environnement, p. ex. signaux optiques, acoustiques, gravitationnels ou magnétiques ambiants
A computer-implemented method executed by data processing hardware of a robot causes the data processing hardware to perform operations including obtaining a topological map including waypoints and edges. Each edge connects adjacent waypoints. The waypoints and edges represent a navigation route for the robot to follow. Operations include determining, that an edge that connects first and second waypoints is blocked by an obstacle. Operations include generating, using image data and the topological map, one or more alternate waypoints offset from one of the waypoints. For each alternate waypoint, operations include generating an alternate edge connecting the alternate waypoint to a waypoint. Operations include adjusting the navigation route to include at least one alternate waypoint and alternate edge that bypass the obstacle. Operations include navigating the robot from the first waypoint to an alternate waypoint along the alternate edge connecting the alternate waypoint to the first waypoint.
An example implementation for determining mechanically-timed footsteps may involve a robot having a first foot in contact with a ground surface and a second foot not in contact with the ground surface. The robot may determine a position of its center of mass and center of mass velocity, and based on these, determine a capture point for the robot. The robot may also determine a threshold position for the capture point, where the threshold position is based on a target trajectory for the capture point after the second foot contacts the ground surface. The robot may determine that the capture point has reached this threshold position and based on this determination, and cause the second foot to contact the ground surface.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
Methods and apparatus for controlling a robot (e.g., having a set of continuous rotation joints) to perform extra human behaviors are provided. The method includes receiving task information to perform a task, determining, using a control system of the robot, a motion plan for the robot to perform the task, wherein the motion plan includes rotation about one or more joints of the robot (e.g., about at least one of the continuous rotation joints in the set of continuous rotation joints) to efficiently perform the task using extra human behaviors.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
Methods and apparatus for controlling a robot (e.g., having a set of continuous rotation joints) to perform extra human behaviors are provided. The method includes receiving task information to perform a task, determining, using a control system of the robot, a motion plan for the robot to perform the task, wherein the motion plan includes rotation about one or more joints of the robot (e.g., about at least one of the continuous rotation joints in the set of continuous rotation joints) to efficiently perform the task using extra human behaviors.
A sensor module for an end effector of a robot is described. The sensor module includes a substrate having formed thereon, a set of proximity sensors and a set of pressure sensors, the set of proximity sensors and the set of pressure sensors configured to have overlapping sensing regions, and a cover coupled to the substrate, the cover comprising a material that permits transmission of signals from the set of proximity sensors through the material.
A method for online authoring of robot autonomy applications includes receiving sensor data of an environment about a robot while the robot traverses through the environment. The method also includes generating an environmental map representative of the environment about the robot based on the received sensor data. While generating the environmental map, the method includes localizing a current position of the robot within the environmental map and, at each corresponding target location of one or more target locations within the environment, recording a respective action for the robot to perform. The method also includes generating a behavior tree for navigating the robot to each corresponding target location and controlling the robot to perform the respective action at each corresponding target location within the environment during a future mission when the current position of the robot within the environmental map reaches the corresponding target location.
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
20.
NETWORK COMMUNICATION DEVICES AND METHODS FOR ROBOTIC OPERATIONS
Methods and apparatus for implementing signaling in access point devices is described. An access point device may include a network interface configured to be coupled to a wired network, a radio configured to emit radio waves that enable a plurality of wireless devices in an environment of the access point device to wirelessly access the wired network, and at least one signaling component, wherein the at least one signaling component is configured to transmit and/or receive signals, wherein the signals are different from the radio waves emitted from the radio.
H04W 4/38 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour la collecte d’informations de capteurs
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
Methods and apparatus for implementing signaling in access point devices is described. An access point device may include a network interface configured to be coupled to a wired network, a radio configured to emit radio waves that enable a plurality of wireless devices in an environment of the access point device to wirelessly access the wired network, and at least one signaling component, wherein the at least one signaling component is configured to transmit and/or receive signals, wherein the signals are different from the radio waves emitted from the radio.
G05D 1/69 - Commande coordonnée de la position ou du cap de plusieurs véhicules
G05D 105/28 - Applications spécifiques des véhicules commandés pour le transport de marchandises
G05D 107/70 - Sites industriels, p. ex. entrepôts ou usines
H04L 67/12 - Protocoles spécialement adaptés aux environnements propriétaires ou de mise en réseau pour un usage spécial, p. ex. les réseaux médicaux, les réseaux de capteurs, les réseaux dans les véhicules ou les réseaux de mesure à distance
H04W 4/33 - Services spécialement adaptés à des environnements, à des situations ou à des fins spécifiques pour les environnements intérieurs, p. ex. les bâtiments
H04W 76/15 - Établissement de connexions à liens multiples sans fil
H04W 84/12 - Réseaux locaux sans fil [WLAN Wireless Local Area Network]
A computer-implemented method executed by data processing hardware of a robot causes the data processing hardware to perform operations. The robot includes an articulated arm having an end effector configured to engage with an object. The operations include receiving a measured task parameter set for the end effector. The measured task parameter set representing positions of the end effector while manipulating the object. The operations also include generating a task space model for the object based on the measured task parameter set. The task space model modelling the at least one constrained axis of the object. The operations further include limiting movement of the end effector along the at least one constrained axis of the object based on the task space model.
B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
G05B 19/4155 - Commande numérique [CN], c.-à-d. machines fonctionnant automatiquement, en particulier machines-outils, p. ex. dans un milieu de fabrication industriel, afin d'effectuer un positionnement, un mouvement ou des actions coordonnées au moyen de données d'un programme sous forme numérique caractérisée par le déroulement du programme, c.-à-d. le déroulement d'un programme de pièce ou le déroulement d'une fonction machine, p. ex. choix d'un programme
23.
DIRECTED EXPLORATION FOR NAVIGATION IN DYNAMIC ENVIRONMENTS
A computer-implemented method when executed by data processing hardware causes the data processing hardware to perform operations. The operations include receiving a navigation route for a mobile robot. The navigation route includes a sequence of waypoints connected by edges. Each edge corresponds to movement instructions that navigate the mobile robot between waypoints of the sequence of waypoints. While the mobile robot is traveling along the navigation route, the operations include determining that the mobile robot is unable to execute a respective movement instruction for a respective edge of the navigation route due to an obstacle obstructing the respective edge, generating an alternative path to navigate the mobile robot to an untraveled waypoint in the sequence of waypoints, and resuming travel by the mobile robot along the navigation route. The alternative path avoids the obstacle.
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
G01C 21/00 - NavigationInstruments de navigation non prévus dans les groupes
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G05D 1/617 - Sécurité ou protection, p. ex. définition de zones de protection autour d’obstacles ou évitement de zones dangereuses
A method of footstep contact detection includes receiving joint dynamics data for a swing phase of a swing leg of the robot, receiving odometry data indicative of a pose of the robot, determining whether an impact on the swing leg is indicative of a touchdown of the swing leg based on the joint dynamics data and an amount of completion of the swing phase, and determining when the impact on the swing leg is not indicative of the touchdown of the swing leg, a cause of the impact based on the joint dynamics data and the odometry data.
B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
B62D 57/024 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques spécialement adaptés pour se déplacer sur des surfaces inclinées ou verticales
B62D 57/028 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques ayant des roues et des jambes mécaniques
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
A computing system of a robot receives robot data reflecting at least a portion of the robot, and object data reflecting at least a portion of an object, the object data determined based on information from at least two sources. The computing system determines, based on the robot data and the object data, a set of states of the object, each state in the set of states associated with a distinct time at which the object is at least partially supported by the robot. The set of states includes at least three states associated with three distinct times. The computing system instructs the robot to perform a manipulation of the object based, at least in part, on at least one state in the set of states.
Systems and methods are described for instructing performance of a localization and an action by a mobile robot based on composite data. A system may obtain satellite-based position data and one or more of odometry data or point cloud data. The system may generate composite data by merging the satellite-based position data and the one or more of the odometry data or the point cloud data. The system may instruct performance of a localization by the mobile robot based on the composite data. Based on the localization by the mobile robot, the system may identify an action and instruct performance of the action by a mobile robot.
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G01S 19/45 - Détermination de position en combinant les mesures des signaux provenant du système de positionnement satellitaire à radiophares avec une mesure supplémentaire
G05D 1/222 - Dispositions de commande à distance actionnées par des humains
G05D 1/648 - Exécution d’une tâche au sein d’une zone ou d’un espace de travail, p. ex. nettoyage
G05D 111/50 - Signaux internes, c.-à-d. provenant de capteurs situés à l’intérieur du véhicule, p. ex. boussoles ou capteurs angulaires
Techniques for automated constrained manipulation are provided. In one aspect, a method includes receiving a request for manipulating a target constrained object and receiving perception data from at least one sensor of a robot. The perception data indicative of the target constrained object. The method also includes receiving a semantic model of the target constrained object generated based on the perception data and determining a location for a robotic arm of the robot to interact with the target constrained object based on the semantic model and the request. The method further includes controlling the robotic arm to manipulate the target constrained object based on the location for the robotic arm to interact with the target constrained object.
Techniques for automated constrained manipulation are provided. In one aspect, a method includes receiving a request for manipulating a target constrained object and receiving perception data from at least one sensor of a robot. The perception data indicative of the target constrained object. The method also includes receiving a semantic model of the target constrained object generated based on the perception data and determining a location for a robotic arm of the robot to interact with the target constrained object based on the semantic model and the request. The method further includes controlling the robotic arm to manipulate the target constrained object based on the location for the robotic arm to interact with the target constrained object.
Systems and methods are described for dynamic and variable definition of robot missions and performance of the robot missions. A system can obtain first robot mission data associated with a first robot mission and second robot mission data. The second robot mission data may be associated with a second robot mission or a user-defined route edge. The system can generate composite mission data based on the first robot mission data and the second robot mission data. The system can instruct navigation of a robot through an environment according to the composite mission data.
Methods and apparatus for determining a control strategy for controlling a robot based on power limits of the robot are provided. The method includes determining, by a computing device, motor control information for a plurality of motors associated with a plurality of joints of the robot, the motor control information being determined based, at least in part, on a robot trajectory to achieve a desired behavior and power limit information associated with a power system of the robot, and controlling the plurality of motors associated with the plurality of joints of the robot based, at least in part, on the motor control information.
G05D 1/646 - Suivi d’une trajectoire prédéfinie, p. ex. d’une ligne marquée sur le sol ou d’une trajectoire de vol
B60L 15/20 - Procédés, circuits ou dispositifs pour commander la propulsion des véhicules à traction électrique, p. ex. commande de la vitesse des moteurs de traction en vue de réaliser des performances désiréesAdaptation sur les véhicules à traction électrique de l'installation de commande à distance à partir d'un endroit fixe, de différents endroits du véhicule ou de différents véhicules d'un même train pour la commande du véhicule ou de son moteur en vue de réaliser des performances désirées, p. ex. vitesse, couple, variation programmée de la vitesse
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
The invention includes systems and methods for relating to improved body structures for robots. A robot assembly includes a base member (e.g., a pelvis base). The robot assembly includes a first hip member rotatably connected to the pelvis base. The first hip member is connected to a first electric actuator configured to rotate the first hip member about a first hip axis relative to the pelvis base. A first intermediate member is rotatably connected to the first hip member. The first intermediate member is connected to a second electric actuator configured to rotate the first intermediate member about a second hip axis relative to the first hip member. A first leg member is rotatably connected to the first intermediate member. The first leg member is connected to a third electric actuator configured to rotate the first leg member about a third hip axis relative to the first intermediate member.
Computer-implemented methods and apparatus for manipulating an object using a robotic device are provided. The method includes associating a first grasp region of an object with an end effector of a robotic device, wherein the first grasp region includes a set of potential grasps achievable by the end effector of the robotic device. The method further includes determining, within the first grasp region, a grasp from among the set of potential grasps, wherein the grasp is determined based, at least in part, on information associated with a capability of the robotic device to perform the grasp, and instructing the robotic device to manipulate the object based on the grasp.
The invention includes a screw actuator. The screw actuator includes a screw having a screw shaft and a screw nut. The screw shaft defines a first longitudinal axis along its length. The screw nut at least partially surrounds the screw shaft. The screw actuator includes a motor having a stator and a rotor. The rotor is mechanically coupled to the screw shaft. The stator at least partially surrounds the rotor. The screw actuator includes a first rigid member having a length dimension oriented along the first longitudinal axis. The screw actuator includes a second rigid member mechanically constrained relative to the first rigid member. The second rigid member is configured to move along a direction of the first longitudinal axis.
Systems and methods are disclosed for altering operation of a machine (e.g., bringing about an emergency stop). A device comprises an emitter configured to produce a first acoustic signal having a first tone and a second tone, wherein the first tone is different from the second tone. The device also includes an activation mechanism in communication with the emitter. The activation mechanism is configured to activate the emitter.
Systems and methods are disclosed for altering operation of a machine (e.g., bringing about an emergency stop). A device comprises an emitter configured to produce a first acoustic signal having a first tone and a second tone, wherein the first tone is different from the second tone. The device also includes an activation mechanism in communication with the emitter. The activation mechanism is configured to activate the emitter.
G05B 19/406 - Commande numérique [CN], c.-à-d. machines fonctionnant automatiquement, en particulier machines-outils, p. ex. dans un milieu de fabrication industriel, afin d'effectuer un positionnement, un mouvement ou des actions coordonnées au moyen de données d'un programme sous forme numérique caractérisée par le contrôle ou la sécurité
F16P 3/14 - Dispositifs de sécurité agissant en conjonction avec la commande ou le fonctionnement d'une machineCommandes exigeant l'emploi simultané de plusieurs parties du corps humain avec dispositifs, p. ex. des éléments sensibles, qui agissent sur la commande ou le fonctionnement de la machine lorsqu'une partie du corps humain se trouve dans ou près de la zone de danger les dispositifs étant des cellules photo-électriques ou d'autres dispositifs sensibles sans contact mécanique
37.
ROBOT LOCALIZATION USING DATA WITH VARIABLE DATA TYPES
Systems and methods are described for instructing performance of a localization and an action by a mobile robot based on composite data. A system may obtain satellite-based position data and one or more of odometry data or point cloud data. The system may generate composite data by merging the satellite-based position data and the one or more of the odometry data or the point cloud data. The system may instruct performance of a localization by the mobile robot based on the composite data. Based on the localization by the mobile robot, the system may identify an action and instruct performance of the action by a mobile robot.
G05D 1/229 - Données d’entrée de commande, p. ex. points de passage
G01C 21/00 - NavigationInstruments de navigation non prévus dans les groupes
G05D 1/245 - Dispositions pour déterminer la position ou l’orientation utilisant la navigation à l’estime
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G05D 1/248 - Dispositions pour déterminer la position ou l’orientation utilisant des signaux fournis par des sources artificielles extérieures au véhicule, p. ex. balises de navigation générés par des satellites, p. ex. GPS
G05D 107/17 - Espaces prioritaires pour les êtres humains, p. ex. zones peuplées, voies piétonnes, parcs ou plages
G05D 107/60 - Bâtiments ouverts, p. ex. bureaux, hôpitaux, zones commerciales ou universités
G05D 109/12 - Véhicules terrestres dotés de jambes
G05D 111/50 - Signaux internes, c.-à-d. provenant de capteurs situés à l’intérieur du véhicule, p. ex. boussoles ou capteurs angulaires
38.
SCREW ACTUATOR, A ROBOR COMPRISING THE SCREW ACTUATOR AND A METHOD
The invention includes a screw actuator. The screw actuator includes a screw having a screw shaft and a screw nut. The screw shaft defines a first longitudinal axis along its length. The screw nut at least partially surrounds the screw shaft. The screw actuator includes a motor having a stator and a rotor. The rotor is mechanically coupled to the screw shaft. The stator at least partially surrounds the rotor. The screw actuator includes a first rigid member having a length dimension oriented along the first longitudinal axis. The screw actuator includes a second rigid member mechanically constrained relative to the first rigid member. The second rigid member is configured to move along a direction of the first longitudinal axis.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
H02K 7/06 - Moyens de transformation d'un mouvement alternatif en un mouvement circulaire ou vice versa
F16H 25/22 - Mécanismes à vis avec billes, rouleaux ou organes similaires entre pièces travaillant en conjugaisonÉléments essentiels pour l'utilisation de ces organes
Systems and methods related to intelligent grippers with individual cup control are disclosed. One aspect of the disclosure provides a method of determining grip quality between a robotic gripper and an object. The method comprises applying a vacuum to two or more cup assemblies of the robotic gripper in contact with the object, moving the object with the robotic gripper after applying the vacuum to the two or more cup assemblies, and determining, using at least one pressure sensor associated with each of the two or more cup assemblies, a grip quality between the robotic gripper and the object.
A robot includes a mobile base, a turntable rotatably coupled to the mobile base, a robotic arm operatively coupled to the turntable, and at least one directional sensor. An orientation of the at least one directional sensor is independently controllable. A method of controlling a robotic arm includes controlling a state of a mobile base and controlling a state of a robotic arm coupled to the mobile base, based, at least in part, on the state of the mobile base.
Systems and methods for determining movement of a robot about an environment are provided. A computing system of the robot (i) receives information including a navigation target for the robot and a kinematic state of the robot; (ii) determines, based on the information and a trajectory target for the robot, a retargeted trajectory for the robot; (iii) determines, based on the retargeted trajectory, a centroidal trajectory for the robot and a kinematic trajectory for the robot consistent with the centroidal trajectory; and (iv) determines, based on the centroidal trajectory and the kinematic trajectory, a set of vectors having a vector for each of one or more joints of the robot.
B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
G05D 1/249 - Dispositions pour déterminer la position ou l’orientation utilisant des signaux fournis par des sources artificielles extérieures au véhicule, p. ex. balises de navigation provenant de capteurs de positionnement situés à l’extérieur du véhicule, p. ex. caméras
G05D 1/646 - Suivi d’une trajectoire prédéfinie, p. ex. d’une ligne marquée sur le sol ou d’une trajectoire de vol
42.
DYNAMIC MASS ESTIMATION METHODS FOR AN INTEGRATED MOBILE MANIPULATOR ROBOT
A method of estimating one or more mass characteristics of a payload manipulated by a robot includes moving the payload using the robot, determining one or more accelerations of the payload while the payload is in motion, sensing, using one or more sensors of the robot, a wrench applied to the payload while the payload is in motion, and estimating the one or more mass characteristics of the payload based, at least in part, on the determined accelerations and the sensed wrench.
Embodiments are provided for receiving a request to output audio at a first speaker and a second speaker of an electronic device, determining that the electronic device is oriented in a portrait orientation or a landscape orientation, identifying, based on the determined orientation, a first equalization setting for the first speaker and a second equalization setting for the second speaker, providing, for output at the first speaker, a first audio signal with the first equalization setting, and providing, for output at the second speaker, a second audio signal with the second equalization setting.
H04R 29/00 - Dispositifs de contrôleDispositifs de tests
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/03 - Dispositions pour convertir sous forme codée la position ou le déplacement d'un élément
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
An example implementation includes (i) receiving sensor data that indicates topographical features of an environment in which a robotic device is operating, (ii) processing the sensor data into a topographical map that includes a two-dimensional matrix of discrete cells, the discrete cells indicating sample heights of respective portions of the environment, (iii) determining, for a first foot of the robotic device, a first step path extending from a first lift-off location to a first touch-down location, (iv) identifying, within the topographical map, a first scan patch of cells that encompass the first step path, (v) determining a first high point among the first scan patch of cells; and (vi) during the first step, directing the robotic device to lift the first foot to a first swing height that is higher than the determined first high point.
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G05D 1/43 - Commande de la position ou du cap par référence à un système à deux dimensions
G05D 1/646 - Suivi d’une trajectoire prédéfinie, p. ex. d’une ligne marquée sur le sol ou d’une trajectoire de vol
A method for terrain and constraint planning a step plan includes receiving, at data processing hardware of a robot, image data of an environment about the robot from at least one image sensor. The robot includes a body and legs. The method also includes generating, by the data processing hardware, a body-obstacle map, a ground height map, and a step-obstacle map based on the image data and generating, by the data processing hardware, a body path for movement of the body of the robot while maneuvering in the environment based on the body-obstacle map. The method also includes generating, by the data processing hardware, a step path for the legs of the robot while maneuvering in the environment based on the body path, the body-obstacle map, the ground height map, and the step-obstacle map.
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
G06T 7/593 - Récupération de la profondeur ou de la forme à partir de plusieurs images à partir d’images stéréo
46.
HANDLING GAIT DISTURBANCES WITH ASYNCHRONOUS TIMING
An example method may include i) detecting a disturbance to a gait of a robot, where the gait includes a swing state and a step down state, the swing state including a target swing trajectory for a foot of the robot, and where the target swing trajectory includes a beginning and an end; and ii) based on the detected disturbance, causing the foot of the robot to enter the step down state before the foot reaches the end of the target swing trajectory.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
47.
ROBOTIC STEP TIMING AND SEQUENCING USING REINFORCEMENT LEARNING
Techniques for determining robotic step timing and sequencing using reinforcement learning are provided. In one aspect, a method includes receiving a target trajectory for a robot and receiving a state of the robot. The method further includes generating, using a neural network, a set of gait timing parameters for the robot based, at least in part, on the state of the robot and the target trajectory and controlling movement of the robot based on the set of gait timing parameters.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G05D 101/15 - Détails des architectures logicielles ou matérielles utilisées pour la commande de la position utilisant des techniques d’intelligence artificielle [IA] utilisant l’apprentissage automatique, p. ex. les réseaux neuronaux
G05D 109/12 - Véhicules terrestres dotés de jambes
Techniques for determining robotic step timing and sequencing using reinforcement learning are provided. In one aspect, a method includes receiving a target trajectory for a robot and receiving a state of the robot. The method further includes generating, using a neural network, a set of gait timing parameters for the robot based, at least in part, on the state of the robot and the target trajectory and controlling movement of the robot based on the set of gait timing parameters.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
Using the techniques discussed herein, a set of images is captured by one or more array imagers (106). Each array imager includes multiple imagers configured in various manners. Each array imager captures multiple images of substantially a same scene at substantially a same time. The images captured by each array image are encoded by multiple processors (112, 114). Each processor can encode sets of images captured by a different array imager, or each processor can encode different sets of images captured by the same array imager. The encoding of the images is performed using various image-compression techniques so that the information that results from the encoding is smaller, in terms of storage size, than the uncompressed images.
H04N 13/282 - Générateurs de signaux d’images pour la génération de signaux d’images correspondant à au moins trois points de vue géométriques, p. ex. systèmes multi-vues
G06T 1/20 - Architectures de processeursConfiguration de processeurs p. ex. configuration en pipeline
H04N 13/161 - Encodage, multiplexage ou démultiplexage de différentes composantes des signaux d’images
H04N 19/107 - Sélection du mode de codage ou du mode de prédiction entre codage prédictif spatial et temporel, p. ex. rafraîchissement d’image
H04N 19/42 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par les détails de mise en œuvre ou le matériel spécialement adapté à la compression ou à la décompression vidéo, p. ex. la mise en œuvre de logiciels spécialisés
H04N 19/436 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques caractérisés par les détails de mise en œuvre ou le matériel spécialement adapté à la compression ou à la décompression vidéo, p. ex. la mise en œuvre de logiciels spécialisés utilisant des dispositions de calcul parallélisées
H04N 19/503 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre la prédiction temporelle
H04N 19/593 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif mettant en œuvre des techniques de prédiction spatiale
H04N 19/597 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant le codage prédictif spécialement adapté pour l’encodage de séquences vidéo multi-vues
H04N 19/62 - Procédés ou dispositions pour le codage, le décodage, la compression ou la décompression de signaux vidéo numériques utilisant un codage par transformée par transformation en fréquence en trois dimensions
H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
H04N 23/75 - Circuits de compensation de la variation de luminosité dans la scène en agissant sur la partie optique de la caméra
H04N 23/80 - Chaînes de traitement de la caméraLeurs composants
H04N 23/957 - Caméras ou modules de caméras à champ lumineux ou plénoptiques
50.
SYSTEMS AND METHODS FOR GRASPING OBJECTS WITH UNKNOWN OR UNCERTAIN EXTENTS USING A ROBOTIC MANIPULATOR
Methods and apparatus for grasping an object by a suction-based gripper of a mobile robot are provided. The method comprises receiving, by a computing device, from a perception system of the mobile robot, perception information reflecting an object to be grasped by the suction-based gripper, determining, by the computing device, uncertainty information reflecting an unknown or uncertain extent and/or pose of the object, determining, by the computing device, a grasp strategy to grasp the object based, at least in part, on the uncertainty information, and controlling, by the computing device, the mobile robot to grasp the object using the grasp strategy.
Systems and methods for determining movement of a robot are provided. A computing system of the robot receives information including an initial state of the robot and a goal state of the robot. The computing system determines, using nonlinear optimization, a candidate trajectory for the robot to move from the initial state to the goal state. The computing system determines whether the candidate trajectory is feasible. If the candidate trajectory is feasible, the computing system provides the candidate trajectory to a motion control module of the robot. If the candidate trajectory is not feasible, the computing system determines, using nonlinear optimization, a different candidate trajectory for the robot to move from the initial state to the goal state, the nonlinear optimization using one or more changed parameters.
A method for negotiating stairs includes receiving image data about a robot maneuvering in an environment with stairs. Here, the robot includes two or more legs. Prior to the robot traversing the stairs, for each stair, the method further includes determining a corresponding step region based on the received image data. The step region identifies a safe placement area on a corresponding stair for a distal end of a corresponding swing leg of the robot. Also prior to the robot traversing the stairs, the method includes shifting a weight distribution of the robot towards a front portion of the robot. When the robot traverses the stairs, the method further includes, for each stair, moving the distal end of the corresponding swing leg of the robot to a target step location where the target step location is within the corresponding step region of the stair.
B62D 57/024 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques spécialement adaptés pour se déplacer sur des surfaces inclinées ou verticales
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
53.
WHOLE BODY MANIPULATION ON A LEGGED ROBOT USING DYNAMIC BALANCE
A robot system includes: an upper body section including one or more end-effectors; a lower body section including one or more legs; and an intermediate body section coupling the upper and lower body sections. An upper body control system operates at least one of the end-effectors. The intermediate body section experiences a first intermediate body linear force and/or moment based on an end-effector force acting on the at least one end-effector. A lower body control system operates the one or more legs. The one or more legs experience respective surface reaction forces. The intermediate body section experiences a second intermediate body linear force and/or moment based on the surface reaction forces. The lower body control system operates the one or more legs so that the second intermediate body linear force balances the first intermediate linear force and the second intermediate body moment balances the first intermediate body moment.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
B62D 57/024 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques spécialement adaptés pour se déplacer sur des surfaces inclinées ou verticales
54.
DYNAMIC PERFORMANCE OF ACTIONS BY A MOBILE ROBOT BASED ON SENSOR DATA AND A SITE MODEL
Systems and methods are described for instructing performance of an action by a mobile robot based on transformed data. A system may obtain a site model in a first data format and sensor data in a second data format. The site model and/or the sensor data may be annotated. The system may transform the site model and the sensor data to generate transformed data in a third data format. The system may provide the transformed data to a computing system. For example, the system may provide the transformed data to a machine learning model. Based on the output of the computing system, the system may identify an action and instruct performance of the action by a mobile robot.
Systems and methods are described for instructing performance of an action by a mobile robot based on transformed data. A system may obtain a site model in a first data format and sensor data in a second data format. The site model and/or the sensor data may be annotated. The system may transform the site model and the sensor data to generate transformed data in a third data format. The system may provide the transformed data to a computing system. For example, the system may provide the transformed data to a machine learning model. Based on the output of the computing system, the system may identify an action and instruct performance of the action by a mobile robot.
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G05D 109/12 - Véhicules terrestres dotés de jambes
A gripper mechanism includes a pair of gripper jaws, a linear actuator, and a rocker bogey. The linear actuator drives a first gripper jaw to move relative to a second gripper jaw. Here, the linear actuator includes a screw shaft and a drive nut where the drive nut includes a protrusion having protrusion axis expending along a length of the protrusion. The protrusion axis is perpendicular to an actuation axis of the linear actuator along a length of the screw shaft. The rocker bogey is coupled to the drive nut at the protrusion to form a pivot point for the rocker bogey and to enable the rocker bogey to pivot about the protrusion axis when the linear actuator drives the first gripper jaw to move relative to the second gripper jaw.
The invention includes systems and methods for routing data packets in a robot. The method comprises routing, using a first switching device, data packets between a first host processor and a first electronic device of the robot, and routing, using the first switching device, data packets between a second host processor and a second electronic device of the robot.
A perception mast for mobile robot is provided. The mobile robot comprises a mobile base, a turntable operatively coupled to the mobile base, the turntable configured to rotate about a first axis, an arm operatively coupled to a first location on the turntable, and the perception mast operatively coupled to a second location on the turntable, the perception mast configured to rotate about a second axis parallel to the first axis, wherein the perception mast includes disposed thereon, a first perception module and a second perception module arranged between the first imaging module and the turntable.
A computer-implemented method when executed by data processing hardware of a legged robot causes the data processing hardware to perform operations including receiving sensor data corresponding to an area including at least a portion of a docking station. The operations include determining an estimated pose for the docking station based on an initial pose of the legged robot relative to the docking station. The operations include identifying one or more docking station features from the received sensor data. The operations include matching the one or more identified docking station features to one or more known docking station features. The operations include adjusting the estimated pose for the docking station to a corrected pose for the docking station based on an orientation of the one or more identified docking station features that match the one or more known docking station features.
B60L 53/36 - Moyens pour l’ajustement automatique ou assisté de la position relative des dispositifs de charge et des véhicules par le positionnement du véhicule
B60L 53/16 - Connecteurs, p. ex. fiches ou prises, spécialement adaptés pour recharger des véhicules électriques
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
The disclosure provides systems and methods for mitigating slip of a robot appendage. In one aspect, a method for mitigating slip of a robot appendage includes (i) receiving an input from one or more sensors, (ii) determining, based on the received input, an appendage position of the robot appendage, (iii) determining a filter position for the robot appendage, (iv) determining a distance between the appendage position and the filter position, (v) determining, based on the distance, a force to apply to the robot appendage, (vi) causing one or more actuators to apply the force to the robot appendage, (vii) determining whether the distance is greater than a threshold distance, and (viii) responsive to determining that the distance is greater than the threshold distance, the control system adjusting the filter position to a position, which is the threshold distance from the appendage position, for use in a next iteration.
B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
B25J 19/00 - Accessoires adaptés aux manipulateurs, p. ex. pour contrôler, pour observerDispositifs de sécurité combinés avec les manipulateurs ou spécialement conçus pour être utilisés en association avec ces manipulateurs
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
61.
SYSTEMS AND METHODS FOR PROVIDING MODULAR ARCHITECTURES FOR ROBOTIC END EFFECTORS
A robotic gripper includes a first modular component comprising a set of deformable members, such as a set of vacuum cups or foam members. The robotic gripper also includes a second modular component comprising a set of vacuum valves. Each vacuum valve in the set of vacuum valves is fluidly connected to at least one deformable member in the set of deformable members.
A robotic gripper includes a first modular component comprising a set of deformable members, such as a set of vacuum cups or foam members. The robotic gripper also includes a second modular component comprising a set of vacuum valves. Each vacuum valve in the set of vacuum valves is fluidly connected to at least one deformable member in the set of deformable members.
A recipient communication device and method wherein a user authenticates a message that is being received. The method includes receiving, by a messaging utility of the recipient communication device, a message transmitted from a sender communication device. The messaging utility determines that one of (a) sender authentication of the message and (b) recipient authentication to open the message is required. In response to sender authentication being required, the recipient communication device transmits a request to the sender communication device for sender authentication of the message, and receives a certification of the message based on an authentication of a user input via the sender communication device. When recipient authentication is required, the recipient is prompted to enter biometric input at the recipient device. In one embodiment, a clearinghouse service authenticates a user of a communication device in order for the recipient communication device to receive certification of the user and/or the message.
G06F 21/32 - Authentification de l’utilisateur par données biométriques, p. ex. empreintes digitales, balayages de l’iris ou empreintes vocales
G06F 21/64 - Protection de l’intégrité des données, p. ex. par sommes de contrôle, certificats ou signatures
H04L 9/32 - Dispositions pour les communications secrètes ou protégéesProtocoles réseaux de sécurité comprenant des moyens pour vérifier l'identité ou l'autorisation d'un utilisateur du système
H04W 12/069 - Authentification utilisant des certificats ou des clés pré-partagées
A method of manipulating boxes includes receiving a minimum box size for a plurality of boxes varying in size located in a walled container. The method also includes dividing a grip area of a gripper into a plurality of zones. The method further includes locating a set of candidate boxes based on an image from a visual sensor. For each zone, the method additionally includes, determining an overlap of a respective zone with one or more neighboring boxes to the set of candidate boxes. The method also includes determining a grasp pose for a target candidate box that avoids one or more walls of the walled container. The method further includes executing the grasp pose to lift the target candidate box by the gripper where the gripper activates each zone of the plurality of zones that does not overlap a respective neighboring box to the target candidate box.
Systems and methods are described for detecting changes at a location based on image data by a mobile robot. A system can instruct navigation of the mobile robot to a location. For example, the system can instruct navigation to the location as part of an inspection mission. The system can obtain input identifying a change detection. Based on the change detection and obtained image data associated with the location, the system can perform the change detection and detect a change associated with the location. For example, the system can perform the change detection based on one or more regions of interest of the obtained image data. Based on the detected change and a reference model, the system can determine presence of an anomaly condition in the obtained image data.
G05D 1/689 - Interaction avec des charges utiles ou des entités externes dirigeant des charges utiles vers des cibles fixes ou en mouvement
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
Systems and methods are described for detecting changes at a location based on image data by a mobile robot. A system can instruct navigation of the mobile robot to a location. For example, the system can instruct navigation to the location as part of an inspection mission. The system can obtain input identifying a change detection. Based on the change detection and obtained image data associated with the location, the system can perform the change detection and detect a change associated with the location. For example, the system can perform the change detection based on one or more regions of interest of the obtained image data. Based on the detected change and a reference model, the system can determine presence of an anomaly condition in the obtained image data.
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
G05D 1/225 - Dispositions de commande à distance actionnées par des ordinateurs externes
G05D 1/229 - Données d’entrée de commande, p. ex. points de passage
G05D 1/249 - Dispositions pour déterminer la position ou l’orientation utilisant des signaux fournis par des sources artificielles extérieures au véhicule, p. ex. balises de navigation provenant de capteurs de positionnement situés à l’extérieur du véhicule, p. ex. caméras
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G05D 1/689 - Interaction avec des charges utiles ou des entités externes dirigeant des charges utiles vers des cibles fixes ou en mouvement
A dynamic planning controller receives a maneuver for a robot and a current state of the robot and transforms the maneuver and the current state of the robot into a nonlinear optimization problem. The nonlinear optimization problem is configured to optimize an unknown force and an unknown position vector. At a first time instance, the controller linearizes the nonlinear optimization problem into a first linear optimization problem and determines a first solution to the first linear optimization problem using quadratic programming. At a second time instance, the controller linearizes the nonlinear optimization problem into a second linear optimization problem based on the first solution at the first time instance and determines a second solution to the second linear optimization problem based on the first solution using the quadratic programming. The controller also generates a joint command to control motion of the robot during the maneuver based on the second solution.
G05B 13/04 - Systèmes de commande adaptatifs, c.-à-d. systèmes se réglant eux-mêmes automatiquement pour obtenir un rendement optimal suivant un critère prédéterminé électriques impliquant l'usage de modèles ou de simulateurs
G06N 5/01 - Techniques de recherche dynamiqueHeuristiquesArbres dynamiquesSéparation et évaluation
Systems and methods are described for outputting light and/or audio using one or more light and/or audio sources of a robot. The light sources may be located on one or more legs of the robot, a bottom portion of the robot, and/or a top portion of the robot. The audio sources may include a speaker and/or an audio resonator. A system can obtain sensor data associated with an environment of the robot. Based on the sensor data, the system can identify an alert. For example, the system can identify an entity based on the sensor data and identify an alert for the entity. The system can instruct an output of light and/or audio indicative of the alert using the one or more light and/or audio sources. The system can adjust parameters of the output based on the sensor data.
A method includes receiving sensor data for an environment about the robot. The sensor data is captured by one or more sensors of the robot. The method includes detecting one or more objects in the environment using the received sensor data. For each detected object, the method includes authoring an interaction behavior indicating a behavior that the robot is capable of performing with respect to the corresponding detected object. The method also includes augmenting a localization map of the environment to reflect the respective interaction behavior of each detected object.
Systems and methods are described for outputting light and/or audio using one or more light and/or audio sources of a robot. The light sources may be located on one or more legs of the robot, a bottom portion of the robot, and/or a top portion of the robot. The audio sources may include a speaker and/or an audio resonator. A system can obtain sensor data associated with an environment of the robot. Based on the sensor data, the system can identify an alert. For example, the system can identify an entity based on the sensor data and identify an alert for the entity. The system can instruct an output of light and/or audio indicative of the alert using the one or more light and/or audio sources. The system can adjust parameters of the output based on the sensor data.
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
B62D 57/024 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques spécialement adaptés pour se déplacer sur des surfaces inclinées ou verticales
G05D 109/12 - Véhicules terrestres dotés de jambes
71.
Systems and methods for actuation of a robotic manipulator
Disclosed herein are systems and methods directed to an industrial robot that can perform mobile manipulation (e.g., dexterous mobile manipulation). A robotic arm may be capable of precise control when reaching into tight spaces, may be robust to impacts and collisions, and/or may limit the mass of the robotic arm to reduce the load on the battery and increase runtime. A robotic arm may include differently configured proximal joints and/or distal joints. Proximal joints may be designed to promote modularity and may include separate functional units, such as modular actuators, encoder, bearings, and/or clutches. Distal joints may be designed to promote integration and may include offset actuators to enable a through-bore for the internal routing of vacuum, power, and signal connections.
Techniques and apparatuses for recognizing accented speech are described. In some embodiments, an accent module recognizes accented speech using an accent library based on device data, uses different speech recognition correction levels based on an application field into which recognized words are set to be provided, or updates an accent library based on corrections made to incorrectly recognized speech.
G10L 15/01 - Estimation ou évaluation des systèmes de reconnaissance de la parole
G10L 15/06 - Création de gabarits de référenceEntraînement des systèmes de reconnaissance de la parole, p. ex. adaptation aux caractéristiques de la voix du locuteur
G10L 15/187 - Contexte phonémique, p. ex. règles de prononciation, contraintes phonotactiques ou n-grammes de phonèmes
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
G10L 15/30 - Reconnaissance distribuée, p. ex. dans les systèmes client-serveur, pour les applications en téléphonie mobile ou réseaux
73.
ENVIRONMENTAL FEATURE-SPECIFIC ACTIONS FOR ROBOT NAVIGATION
Systems and methods are described for reacting to a feature in an environment of a robot based on a classification of the feature. A system can detect the feature in the environment using a first sensor on the robot. For example, the system can detect the feature using a feature detection system based on sensor data from a camera. The system can detect a mover in the environment using a second sensor on the robot. For example, the system can detect the mover using a mover detection system based on sensor data from a lidar sensor. The system can fuse the data from detecting the feature and detecting the mover to produce fused data. The system can classify the feature based on the fused data and react to the feature based on classifying the feature.
Systems and methods are described for reacting to a feature in an environment of a robot based on a classification of the feature. A system can detect the feature in the environment using a first sensor on the robot. For example, the system can detect the feature using a feature detection system based on sensor data from a camera. The system can detect a mover in the environment using a second sensor on the robot. For example, the system can detect the mover using a mover detection system based on sensor data from a lidar sensor. The system can fuse the data from detecting the feature and detecting the mover to produce fused data. The system can classify the feature based on the fused data and react to the feature based on classifying the feature.
Systems and methods for a perception system for a lower body powered exoskeleton device are provided. The perception system includes a camera configured to capture one or more images of terrain in proximity to the exoskeleton device, an at least one processor. The at least one processor is programmed to perform footstep planning for the exoskeleton device based, at least in part, on the captured one or more images of terrain, and issue an instruction to perform a first action based, at least in part, on the footstep planning.
A61B 5/00 - Mesure servant à établir un diagnostic Identification des individus
A61F 5/01 - Dispositifs orthopédiques, p. ex. dispositifs pour immobiliser ou pour exercer des pressions de façon durable pour le traitement des os fracturés ou déformés, tels que éclisses, plâtres orthopédiques ou attelles
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
Methods and apparatus for operating a mobile robot in a loading dock environment are provided. The method comprises capturing, by a camera system of the mobile robot, at least one image of the loading dock environment, and processing, by at least one hardware processor of the mobile robot, the at least one image using a machine learning model trained to identify one or more features of the loading dock environment.
B25J 5/00 - Manipulateurs montés sur roues ou sur support mobile
G05D 1/243 - Moyens de capture de signaux provenant naturellement de l’environnement, p. ex. signaux optiques, acoustiques, gravitationnels ou magnétiques ambiants
G05D 107/70 - Sites industriels, p. ex. entrepôts ou usines
G06T 17/10 - Description de volumes, p. ex. de cylindres, de cubes ou utilisant la GSC [géométrie solide constructive]
G06V 10/40 - Extraction de caractéristiques d’images ou de vidéos
G06V 10/70 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique
G06V 20/56 - Contexte ou environnement de l’image à l’extérieur d’un véhicule à partir de capteurs embarqués
77.
METHODS AND APPARATUS FOR REDUCING MULTIPATH ARTIFACTS FOR A CAMERA SYSTEM OF A MOBILE ROBOT
Methods and apparatus for determining a pose of an object sensed by a camera system of a mobile robot are described. The method includes acquiring, using the camera system, a first image of the object from a first perspective and a second image of the object from a second perspective, and determining, by a processor of the camera system, a pose of the object based, at least in part, on a first set of sparse features associated with the object detected in the first image and a second set of sparse features associated with the object detected in the second image.
G06T 7/521 - Récupération de la profondeur ou de la forme à partir de la télémétrie laser, p. ex. par interférométrieRécupération de la profondeur ou de la forme à partir de la projection de lumière structurée
G06T 7/55 - Récupération de la profondeur ou de la forme à partir de plusieurs images
78.
Transmission with integrated overload protection for a legged robot
An example robot includes: a motor disposed at a joint configured to control motion of a member of the robot; a transmission including an input member coupled to and configured to rotate with the motor, an intermediate member, and an output member, where the intermediate member is fixed such that as the input member rotates, the output member rotates therewith at a different speed; a pad frictionally coupled to a side surface of the output member of the transmission and coupled to the member of the robot; and a spring configured to apply an axial preload on the pad, wherein the axial preload defines a torque limit that, when exceeded by a torque load on the member of the robot, the output member of the transmission slips relative to the pad.
A method of grasping and/or placing multiple objects by a gripper of a mobile robot. The multi-grasp method includes determining one or more candidate groups of objects to grasp by the suction-based gripper of the mobile robot, each of the one or more candidate groups of objects including a plurality of objects, determining a grasp quality score for each of the one or more candidate groups of objects, and grasping, by the suction-based gripper of the mobile robot, all objects in a candidate group of objects based, at least in part, on the grasp quality score. The multi-place method includes determining an allowed width associated with the conveyor, selecting a multi-place technique based, at least in part, on the allowed width and a dimension of the multiple grasped objects, and controlling the mobile robot to place the multiple grasped objects on the conveyor based on the selected multi-place technique.
A method of grasping and/or placing multiple objects by a gripper of a mobile robot. The multi-grasp method includes determining one or more candidate groups of objects to grasp by the suction-based gripper of the mobile robot, each of the one or more candidate groups of objects including a plurality of objects, determining a grasp quality score for each of the one or more candidate groups of objects, and grasping, by the suction-based gripper of the mobile robot, all objects in a candidate group of objects based, at least in part, on the grasp quality score. The multi-place method includes determining an allowed width associated with the conveyor, selecting a multi-place technique based, at least in part, on the allowed width and a dimension of the multiple grasped objects, and controlling the mobile robot to place the multiple grasped objects on the conveyor based on the selected multi-place technique.
A computer-implemented method includes generating a joint-torque-limit model for the articulated arm based on allowable joint torque sets corresponding to a base pose of the base. The method also include receiving a first requested joint torque set for a first arm pose of the articulated arm and determining, using the joint-torque-limit model, an optimized joint torque set corresponding to the first requested joint torque set. The method also includes receiving a second requested joint torque set for a second arm pose of the articulated arm and generating an adjusted joint torque set by adjusting the second requested joint torque set based on the optimized joint torque set. The method also includes sending the adjusted joint torque set to the articulated arm.
An example method may include i) determining a first distance between a pair of feet of a robot at a first time, where the pair of feet is in contact with a ground surface; ii) determining a second distance between the pair of feet of the robot at a second time, where the pair of feet remains in contact with the ground surface from the first time to the second time; iii) comparing a difference between the determined first and second distances to a threshold difference; iv) determining that the difference between determined first and second distances exceeds the threshold difference; and v) based on the determination that the difference between the determined first and second distances exceeds the threshold difference, causing the robot to react.
B62D 57/00 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles
B25J 13/08 - Commandes pour manipulateurs au moyens de dispositifs sensibles, p. ex. à la vue ou au toucher
B62D 57/02 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G05D 1/00 - Commande de la position, du cap, de l'altitude ou de l'attitude des véhicules terrestres, aquatiques, aériens ou spatiaux, p. ex. utilisant des pilotes automatiques
G05D 1/245 - Dispositions pour déterminer la position ou l’orientation utilisant la navigation à l’estime
G05D 1/43 - Commande de la position ou du cap par référence à un système à deux dimensions
Disclosed are techniques that provide a “best” picture taken within a few seconds of the moment when a capture command is received (e.g., when the “shutter” button is pressed). In some situations, several still images are automatically (that is, without the user's input) captured. These images are compared to find a “best” image that is presented to the photographer for consideration. Video is also captured automatically and analyzed to see if there is an action scene or other motion content around the time of the capture command. If the analysis reveals anything interesting, then the video clip is presented to the photographer. The video clip may be cropped to match the still-capture scene and to remove transitory parts. Higher-precision horizon detection may be provided based on motion analysis and on pixel-data analysis.
H04N 23/60 - Commande des caméras ou des modules de caméras
H04N 1/00 - Balayage, transmission ou reproduction de documents ou similaires, p. ex. transmission de fac-similésLeurs détails
H04N 1/21 - Enregistrement intermédiaire de l'information
H04N 23/61 - Commande des caméras ou des modules de caméras en fonction des objets reconnus
H04N 23/611 - Commande des caméras ou des modules de caméras en fonction des objets reconnus les objets reconnus comprenant des parties du corps humain
H04N 23/62 - Commande des paramètres via des interfaces utilisateur
H04N 23/63 - Commande des caméras ou des modules de caméras en utilisant des viseurs électroniques
H04N 23/667 - Changement de mode de fonctionnement de la caméra, p. ex. entre les modes photo et vidéo, sport et normal ou haute et basse résolutions
H04N 23/68 - Commande des caméras ou des modules de caméras pour une prise de vue stable de la scène, p. ex. en compensant les vibrations du boîtier de l'appareil photo
H04N 23/80 - Chaînes de traitement de la caméraLeurs composants
Embodiments are provided for communicating notifications and other textual data associated with applications installed on an electronic device. According to certain aspects, a user can interface with an input device to send a wake up trigger to the electronic device. The electronic device retrieves application notifications and converts (288) the application notifications to audio data. The electronic device also sends the audio data to an audio output device for annunciation. The user may also use the input device to send a request to the electronic device to activate the display screen. The electronic device identifies an application corresponding to an annunciated notification, and activates the display screen and initiates the application.
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
A device performs a method for using image data to aid voice recognition. The method includes the device capturing image data of a vicinity of the device and adjusting, based on the image data, a set of parameters for voice recognition performed by the device. The set of parameters for the device performing voice recognition include, but are not limited to: a trigger threshold of a trigger for voice recognition; a set of beamforming parameters; a database for voice recognition; and/or an algorithm for voice recognition. The algorithm may include using noise suppression or using acoustic beamforming.
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06V 20/59 - Contexte ou environnement de l’image à l’intérieur d’un véhicule, p. ex. concernant l’occupation des sièges, l’état du conducteur ou les conditions de l’éclairage intérieur
G06V 40/16 - Visages humains, p. ex. parties du visage, croquis ou expressions
G06V 40/18 - Caractéristiques de l’œil, p. ex. de l’iris
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
G10L 15/20 - Techniques de reconnaissance de la parole spécialement adaptées de par leur robustesse contre les perturbations environnantes, p. ex. en milieu bruyant ou reconnaissance de la parole émise dans une situation de stress
G10L 15/24 - Reconnaissance de la parole utilisant des caractéristiques non acoustiques
G10L 15/25 - Reconnaissance de la parole utilisant des caractéristiques non acoustiques utilisant la position des lèvres, le mouvement des lèvres ou l’analyse du visage
G10L 15/26 - Systèmes de synthèse de texte à partir de la parole
Methods and apparatus for controlling a robotic gripper of a robotic device are provided. The method includes activating a plurality of vacuum assemblies of the robotic gripper to grasp one or more objects, disabling one or more of the plurality of vacuum assemblies having a seal quality with the one or more objects that is less than a first threshold, assigning a score to each of the one or more disabled vacuum assemblies, reactivating the one or more disabled vacuum assemblies in an order based, at least in part, on the assigned scores, and grasping the one or more objects with the robotic gripper when a grasp quality of the robotic gripper is higher than a second threshold.
Methods and apparatus for estimating a ceiling location of a container within which a mobile robot is configured to operate are provided. The method comprises sensing distance measurement data associated with the ceiling of the container using one or more distance sensors arranged on an end effector of a mobile robot, and determining a ceiling estimate of the container based on the distance measurement data.
Methods and apparatus for controlling a robotic gripper of a robotic device are provided. The method includes activating a plurality of vacuum assemblies of the robotic gripper to grasp one or more objects, disabling one or more of the plurality of vacuum assemblies having a seal quality with the one or more objects that is less than a first threshold, assigning a score to each of the one or more disabled vacuum assemblies, reactivating the one or more disabled vacuum assemblies in an order based, at least in part, on the assigned scores, and grasping the one or more objects with the robotic gripper when a grasp quality of the robotic gripper is higher than a second threshold.
Methods and apparatus for automated calibration for a LIDAR system of a mobile robot are provided. The method comprises capturing a plurality of LIDAR measurements. The plurality of LIDAR measurements include a first set of LIDAR measurements as the mobile robot spins in a first direction at a first location, the first location being a first distance to a calibration target, and a second set of LIDAR measurements as the mobile robot spins in a second direction at a second location, the second location being a second distance to the calibration target, wherein the first direction and the second direction are different and the second distance is different than the first distance. The method further comprises processing the plurality of LIDAR measurements to determine calibration data, and generating alignment instructions for the LIDAR system based, at least in part, on the calibration data.
A computer-implemented method, when executed by data processing hardware of a robot having an articulated arm and a base, causes data processing hardware to perform operations. The operations include determining a first location of a workspace of the articulated arm associated with a current base configuration of the base of the robot. The operations also include receiving a task request defining a task for the robot to perform outside of the workspace of the articulated arm at the first location. The operations also include generating base parameters associated with the task request. The operations further include instructing, using the generated base parameters, the base of the robot to move from the current base configuration to an anticipatory base configuration.
A method of identifying stairs from footfalls includes receiving a plurality of footfall locations of a robot traversing an environment. Each respective footfall location indicates a location where a leg of the robot contacted a support surface. The method also includes determining a plurality of candidate footfall location pairs based on the plurality of footfall locations. The candidate footfall location pair includes a first and a second candidate footfall location. The method further includes clustering the first candidate footfall location into a first cluster group based on a height of the first candidate footfall location and clustering the second candidate footfall location into a second cluster group based on a height of the second candidate footfall location. The method additionally includes generating a stair model by representing each of the cluster groups as a corresponding stair and delineating each stair based on a respective midpoint between each adjacent cluster group.
B62D 57/024 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques spécialement adaptés pour se déplacer sur des surfaces inclinées ou verticales
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G06V 10/44 - Extraction de caractéristiques locales par analyse des parties du motif, p. ex. par détection d’arêtes, de contours, de boucles, d’angles, de barres ou d’intersectionsAnalyse de connectivité, p. ex. de composantes connectées
G06V 10/762 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant le regroupement, p. ex. de visages similaires sur les réseaux sociaux
95.
Systems and methods for controlling movements of robotic actuators
An electronic circuit comprises a charge storing component, a set of one or more switching components coupled to the charge storing component, and an additional switching component coupled to each of the one or more switching components in the set. The additional switching component is configured to operate in a first state or a second state based on a received current or voltage. The first state prevents current to flow from the charge storing component to each of the one or more switching components in the set and the second state allows current to flow from the charge storing component to each of the one or more switching components in the set.
B25J 5/00 - Manipulateurs montés sur roues ou sur support mobile
B25J 9/12 - Manipulateurs à commande programmée caractérisés par des moyens pour régler la position des éléments manipulateurs électriques
G05F 1/10 - Régulation de la tension ou de l'intensité
H02P 3/22 - Dispositions pour l'arrêt ou le ralentissement de moteurs, génératrices électriques ou de convertisseurs dynamo-électriques pour arrêter ou ralentir individuellement un moteur dynamo-électrique ou un convertisseur dynamo-électrique pour arrêter ou ralentir un moteur à courant alternatif par freinage sur court-circuit ou sur résistance
H03K 17/56 - Commutation ou ouverture de porte électronique, c.-à-d. par d'autres moyens que la fermeture et l'ouverture de contacts caractérisée par l'utilisation de composants spécifiés par l'utilisation, comme éléments actifs, de dispositifs à semi-conducteurs
96.
ANCHORING BASED TRANSFORMATION FOR ALIGNING SENSOR DATA OF A ROBOT WITH A SITE MODEL
Systems and methods are described for the display of a transformed virtual representation of sensor data overlaid on a site model. A system can obtain a site model identifying a site. For example, the site model can include a map, a blueprint, or a graph. The system can obtain sensor data from a sensor of a robot. The sensor data can include route data identifying route waypoints and/or route edges associated with the robot. The system can receive input identifying an association between a virtual representation of the sensor data and the site model. Based on the association, the system can transform the virtual representation of the sensor data and instruct display of the transformed data overlaid on the site model.
G05D 1/222 - Dispositions de commande à distance actionnées par des humains
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
G05D 1/229 - Données d’entrée de commande, p. ex. points de passage
G05D 1/246 - Dispositions pour déterminer la position ou l’orientation utilisant des cartes d’environnement, p. ex. localisation et cartographie simultanées [SLAM]
G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
G06T 11/20 - Traçage à partir d'éléments de base, p. ex. de lignes ou de cercles
97.
OBJECT CLIMBING BY LEGGED ROBOTS USING TRAINING OBJECTS
Systems and methods are described for climbing of objects in an environment of a robot based on sensor data. A system can obtain sensor data of the environment. For example, the system can obtain sensor data from one or more sensors of robot. The system can identify the object based on the sensor data. Further, the system can determine that the object is climbable based on determining that the object corresponds to a particular training object. The system can determine that the object corresponds to the particular training object based on a particular characteristic of the object. The system can identify a climbing operation associated with the training object and instruct the robot to climb on the object based on the climbing operation.
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
98.
Robot movement and interaction with massive bodies
The invention includes systems and methods for determining movement of a robot. A computing system of the robot receives information comprising a reference behavior specification, a current state of the robot, and a characteristic of a massive body coupled to or expected to be coupled to the robot. The computing system determines, based on the information, a set of movement parameters for the robot, the set of movement parameters reflecting a goal trajectory for the robot. The computing system instructs the robot to move consistent with the set of movement parameters.
The invention includes systems and methods for fabrication and use of an assembly for a component of a robot. The assembly includes a first member including a set of electrically conductive annular surfaces, and a second member including a set of electrically conductive components configured to contact the set of electrically conductive annular surfaces. The first member and the second member are included within the component of the robot. Each component in the set of electrically conductive components includes a first convex curvilinear portion configured to contact a corresponding annular surface in the set of electrically conductive annular surfaces.
H01R 39/10 - Bagues collectrices autres qu'avec une surface de contact externe cylindrique, p. ex. bagues collectrices plates
H01R 39/24 - Contacts feuilletésContacts à fils, p. ex. balais métalliques, fibres de carbone
H01R 39/64 - Dispositifs pour le captage ininterrompu du courant
B62D 57/032 - Véhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec une base de support et des jambes soulevées alternativement ou dans un ordre déterminéVéhicules caractérisés par des moyens de propulsion ou de prise avec le sol autres que les roues ou les chenilles, seuls ou en complément aux roues ou aux chenilles avec moyens de propulsion en prise avec le sol, p. ex. par jambes mécaniques avec des pieds ou des patins soulevés alternativement ou dans un ordre déterminé
H01R 13/24 - Contacts pour coopération par aboutage élastiquesContacts pour coopération par aboutage montés élastiquement
The invention includes systems and methods for routing data packets in a robot. The method comprises routing, using a first switching device, data packets between a first host processor and a first electronic device of the robot, and routing, using the first switching device, data packets between a second host processor and a second electronic device of the robot.