Systems, methods, and non-transitory computer readable media including instructions for performing duty cycle control operations for a wearable extended reality appliance are disclosed. Performing the duty cycle control operations includes receiving data representing virtual content in an extended reality environment associated with a wearable extended reality appliance; identifying in the extended reality environment a first display region and a second display region separated from the first display region; determining a first duty cycle configuration for the first display region; determining a second duty cycle configuration for the second display region, wherein the second duty cycle configuration differs from the first duty cycle configuration; and causing the wearable extended reality appliance to display the virtual content in accordance with the determined first duty cycle configuration for the first display region and the determined second duty cycle configuration for the second display region.
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
2.
RESTRICT PRESENTATION OF PRIVATE VIRTUAL OBJECTS IN EXTENDED REALITY BASED ON PHYSICAL LOCATIONS
Systems, methods, and non-transitory computer readable media including instructions for managing privacy in an extended reality environment are disclosed. The instructions include receiving image data of a physical environment from an image sensor associated with a wearable extended reality appliance; accessing data characterizing virtual objects in the physical environment, the data representing a first and a second virtual object; accessing privacy settings classifying a first physical location of the first virtual object as private, classifying a first appliance as approved for presenting private information, and classifying a second appliance as non-approved for presenting the private information; and based on the privacy settings, simultaneously enabling a presentation of an augmented viewing of the physical environment, such that the first appliance presents the first and the second virtual objects in the physical environment, and the second appliance presents the only second virtual object, in compliance with the privacy settings.
Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
5.
INCREMENTAL HIGHLIGHTING DURING VIRTUAL OBJECT SELECTION
Methods, systems, apparatuses, and non-transitory computer-readable media are provided for incremental convergence in an extended reality environment during virtual object selection. In one implementation, the computer-readable medium may contain instructions that when executed by at least one processor cause the at least one processor to display a plurality of dispersed virtual objects across a plurality of virtual regions, the plurality of virtual regions including at least a first virtual region and a second virtual region that differs from the first virtual region; receive an initial kinesics input tending toward the first virtual region; highlight a group of adjacent virtual objects in the first virtual region based on the initial kinesics input; receive a refined kinesics input tending toward a particular virtual object from among the highlighted group of adjacent virtual objects; and trigger a functionality associated with the particular virtual object based on the refined kinesics input.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/033 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires
G06F 3/041 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction
G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect utilisant des icônes
G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
G06F 3/04892 - Dispositions pour commander la position du curseur fondée sur des codes indiquant les pas de déplacement du curseur d’une position à une autre, p. ex. en utilisant des touches de commande du curseur associées à des directions différentes ou en utilisant le tabulateur
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for the virtual presentation in the environment; receiving with the content, a plurality of tags, each being associated with a portion of the content, wherein a particular portion of the content associated with a particular tag includes an inanimate virtual object; for each tag, selecting, based on the respective tag, a 3D placement requirement for the portion of the content associated with the respective tag; and for each portion of the content, determining, based on a layout of the environment and the selected 3D placement requirement, a location in the environment for virtual placement of the respective portion of the content.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
7.
EXTENDED REALITY FOR PRODUCTIVITY IN DYNAMIC ENVIRONMENTS
Systems, methods, and computer program products are provided for reducing echo in virtual conferences. Reducing echo in virtual conferences includes: establishing a virtual conference between a plurality of participants, including first, second, and third participants being sources of first, second, and third audio streams, respectively, wherein the first, second, and third audio streams are captured by three separated audio sensors; determining that the first and second participants are collocated in a common room and the third participant is located remote from the common room; based on the determination, controlling a conversational echo by generating an onsite audio presentation omitting the first and second audio streams and including the third audio stream; presenting to the first and second participants in the common room the onsite audio presentation; generating an offsite audio presentation including the first and second audio streams; and presenting to the third participant the offsite audio presentation.
H04M 3/56 - Dispositions pour connecter plusieurs abonnés à un circuit commun, c.-à-d. pour permettre la transmission de conférences
H04M 9/08 - Systèmes téléphoniques à haut-parleur à double sens comportant des moyens pour conditionner le signal, p. ex. pour supprimer les échos dans l'une ou les deux directions du trafic
Systems, methods, and non-transitory computer readable media configured for enabling content sharing between users of wearable extended reality appliances are provided. In one implementation, the computer readable medium may be configured to contain instructions to cause at least one processor to establish a link between a first wearable extended reality appliance and a second wearable extended reality appliance. The first wearable extended reality appliance may display first virtual content. The second wearable extended reality appliance may obtain a command to display first virtual content via the second wearable extended reality appliance, and in response, this content may be transmitted and displayed via the second extended reality appliance. Additionally, the first wearable extended reality appliance may receive second virtual content from the second wearable extended reality appliance, and display said second virtual content via the first wearable extended reality appliance.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
9.
Altering display of virtual content based on mobility status change
Systems, methods, and non-transitory computer readable media for coordinating virtual content display with mobility status are disclosed. A non-transitory computer readable medium contains instructions that cause a processor to: access rules associating user mobility statuses with display modes; receive first sensor data reflecting a mobility status of a user during a first time period; based on the first sensor data, determine that during the first time period the user is associated with a first mobility status; implement a first accessed rule to generate a first display of virtual content; receive second sensor data reflecting the mobility status of the user during a second time period; based on the second sensor data, determine that during the second time period the user is associated with a second mobility status; and implement a second accessed rule to generate a second display of the virtual content different from the first display.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
Systems, methods, and non-transitory computer readable media including instructions for enabling location-based virtual content. Enabling location-based virtual content includes receiving an initial location of a particular wearable extended reality appliance; performing a first lookup for a first rule associated with the initial location, the first rule permitting display of a first type of content and preventing display of a second type of content in the initial location; implementing the first rule; receiving a subsequent location of the particular wearable extended reality appliance; performing a second lookup for a second rule associated with the subsequent location, the second rule preventing display of the first type of content and permitting display of the second type of content in the subsequent location; and implementing the second rule.
G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p. ex. d’êtres humains, d’animaux ou d’êtres virtuels
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
G06V 10/60 - Extraction de caractéristiques d’images ou de vidéos relative aux propriétés luminescentes, p. ex. utilisant un modèle de réflectance ou d’éclairage
G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
Systems, methods, and non-transitory computer readable media including instructions for presenting information in a first display region having predefined boundaries, the information manipulatable via a user interface presentable in the first display region; presenting, via a wearable extended reality appliance, a second display region beyond the predefined boundaries of the first display region, wherein the second display region is visible via the wearable extended reality appliance; providing a control for altering a location of the user interface, wherein in a first mode, the user interface is presented in the first display region while the information is presented in the first display region and in a second mode, the user interface is presented in the second display region outside the predefined boundaries of the first display region while the information is presented in the first display region; and enabling toggling between the first mode and the second mode via the control.
Systems, methods, and non-transitory computer readable media including instructions for presenting location-based content are described. Presenting location-based content includes obtaining an indication of a current physical location of an extended reality appliance; providing the indication to a first server that maps physical locations to a plurality of content addresses; receiving from the first server, at least one specific content address associated with the current physical location; using the at least one specific content address to access a second server; receiving content, associated with the current physical location, from the second server; and presenting the content via the extended reality appliance, while the extended reality appliance is in the current physical location.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/44 - Traitement de flux élémentaires vidéo, p. ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène du flux vidéo codé
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
14.
User-customized location based content presentation
Systems, methods, and non-transitory computer readable media including instructions for customizing location-based content presentation are described. Customizing location-based content presentation includes accessing a group of content display mode rules specifying a format impacting 3D presentation; accessing stored selections unique to a wearer of a wearable extended reality appliance associating content display mode rules with physical locations; receiving a first indication that the wearable extended reality appliance is at the first physical location; based on the received first indication and the accessed stored selections, displaying first location-based content at the first physical location according to the first content display mode rule; receiving a second indication that the wearable extended reality appliance is at the second physical location; and based on the received second indication and the accessed stored selections, displaying second location-based content at the second physical location according to the second content display mode rule.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
A system and a method for content localization in moving vehicles may include receiving from within a moving vehicle first acceleration data captured using a first sensor included in an extended reality appliance mountable on a head of a wearer. The first acceleration data includes a first component associated with movement of the head of the wearer with respect to the vehicle and a second component associated with movement of the vehicle. The system also includes receiving from within the moving vehicle second acceleration data captured using a second sensor included in a personal input device. The personal input device may be a non-vehicle component configured to be paired with the extended reality appliance. The system may segregate the second component from the first component using the first acceleration data and the second acceleration data to thereby isolate the head acceleration with respect to the vehicle from the vehicle acceleration.
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
16.
ADAPTIVE EXTENDED REALITY CONTENT PRESENTATION IN MULTIPLE PHYSICAL ENVIRONMENTS
Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
18.
Protocol for facilitating presentation of extended reality content in different physical environments
Systems, methods, and computer program products are provided for facilitating presentation of content in a three dimensional (3D) environment. Facilitating presentation of content in a 3D environment includes: receiving an indication of device settings of an extended reality appliance; receiving an indication of content requested for presentation via the extended reality appliance; based on the device settings, selecting 3D placement requirements for the requested content, the 3D placement requirements including at least one of: a 3D physical background, a visual span, virtual object positioning protocols, 3D anchoring requirements, 3D content size requirements, or ambient illumination requirements; transmitting the selected 3D placement requirements and the requested content, the transmitted content including at least one tag for associating portions of the content with at least some of the 3D placement requirements to thereby enable the extended reality appliance to display the content in a 3D environment.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
19.
Managing virtual collisions between moving virtual objects
A system and method for preventing virtual collisions may include presenting, via an extended reality appliance, a first virtual object docked to a first movable physical object and a second virtual object docked to a second movable physical object. The movement of the first and second physical objects may be tracked and an impending collision between the first virtual object and the second virtual object may be determined. Priority rules establishing that the first physical object has priority over the second physical object may be accessed. And based on the priority rules, favoring the first virtual object over the second virtual object at the time of the impending collision.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement
20.
Recording the complete physical and extended reality environments of a user
A method for capturing extended reality environments includes receiving image data from at least one image sensor associated with a wearable extended reality appliance, the image data representing at least a 140 degrees field of view of a physical environment. At least two extended reality objects are virtually associated with a composite perspective of the physical environment, wherein the at least two extended reality objects are spaced apart by at least 140 degrees from a point of view of the wearable extended reality appliance. Displaying, via the wearable extended reality appliance and during a particular time period, changes in one of the at least two extended reality objects while refraining from displaying changes in another of the at least two extended reality objects. Enabling non-synchronous display of concurrent changes in the at least two extended reality objects that took place during the particular time period.
Methods, systems, apparatuses, and computer-readable media are provided for enabling collaboration between writers. In one implementation, the computer-readable medium includes instructions to cause a processor to receive, from an image sensor associated with a wearable extended reality appliance, image data representing a physical surface, the physical surface being a compilation of pages; receive, from a computing device associated with a virtual writer, annotation data representing first virtual markings associated with a first page of the compilation and second virtual markings associated with a second page of the compilation; analyze the image data to determine that the compilation is opened to the first page; and cause the wearable extended reality appliance to overlay the first virtual markings on the first page of the compilation and exclude overlaying the second virtual markings on the first page of the compilation.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
22.
Shared extended reality coordinate system generated on-the-fly
Consistent with disclosed embodiments, systems, methods, and computer readable media including instructions for wearable extended reality appliances to share virtual content. Embodiments may include a processor to generate a visual code reflecting a first physical position of a mobile device. The visual code may be presented on a display of the mobile device in order for the plurality of wearable extended reality appliances to detect the visual code. The plurality of wearable extended reality appliances may share content in a common coordinate system upon detection of the visual code. The processor may detect movement of the mobile device to a second physical position different from the first physical position. The processor may alter the presentation of the visual code upon the detected movement of the mobile device making the visual code unavailable for use in content sharing.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
23.
Moving windows between a virtual display and an extended reality environment
Systems, methods, and non-transitory computer readable media including instructions for extracting content from a virtual display are disclosed. Extracting content from a virtual display includes generating a virtual display via a wearable extended reality appliance, wherein the virtual display presents a group of virtual objects and is located at a first virtual distance from the wearable extended reality appliance; generating an extended reality environment via the wearable extended reality appliance including at least one additional virtual object at a second virtual distance from the wearable extended reality appliance; receiving input for causing a specific virtual object to move from the virtual display to the extended reality environment; and in response, generating a presentation of a version of the specific virtual object in the extended reality environment at a third virtual distance different from the first virtual distance and the second virtual distance.
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
A system and method for operating a keyboard and wearable extended reality appliance combination to control a virtual display are disclosed. The system may include a processor configured to receive, from a first hand-position sensor associated with the wearable extended reality appliance, first signals representing first hand-movements; receive, from a second hand-position sensor associated with the keyboard, second signals representing second hand-movements, wherein the second hand-movements include actions other than interactions with a feedback component; and control the virtual display based on the first signals and the second signals.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
Systems, methods, and non-transitory computer readable media including instructions for enabling user interface display mode toggling. Enabling user interface display mode toggling includes presenting information in a first display region having predefined boundaries, the information being manipulatable via a user interface in the first display region; presenting, via a wearable extended reality appliance, a second display region beyond the predefined boundaries of the first display region; providing a control for altering a location of the user interface, wherein in a first mode, the user interface is presented in the first display region while the information is presented in the first display region and in a second mode, the user interface is presented in the second display region outside the predefined boundaries of the first display region while the information is presented in the first display region; and enabling toggling between the first mode and the second mode via the control.
Methods, systems, apparatuses, and computer-readable media are provided for managing an extended reality conference. In one implementation, the computer-readable medium may include instructions to cause a processor to: facilitate a multi-participant video conference; enable, via a wearable extended reality appliance, viewing of a first environment representing a physical space and a second peripheral environment; enable a display of participants in the second peripheral environment; receive a first selection of a first participant in the second peripheral environment; move a virtual representation of the first participant to the first environment while a second participant remains in the second peripheral environment; receive a second selection of the second participant in the second peripheral environment; and move a virtual representation of the second participant to the first environment.
Methods, systems, apparatuses, and computer-readable media are provided for managing extended reality video conferences. In one implementation, the computer-readable medium may include instructions to cause a processor to: receive a request to initiate a video conference between a plurality of participants; receive image data captured by at least one image sensor associated with a wearable extended reality appliance, the image data reflecting a layout of a physical environment in which the wearable extended reality appliance is located; analyze the image data to identify at least one interference region in the physical environment; receive visual representations of the plurality of participants; and cause the wearable extended reality appliance to display the visual representations of the plurality of participants at multiple distinct locations other than in the at least one interference region.
G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p. ex. d’êtres humains, d’animaux ou d’êtres virtuels
G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
G06V 10/60 - Extraction de caractéristiques d’images ou de vidéos relative aux propriétés luminescentes, p. ex. utilisant un modèle de réflectance ou d’éclairage
G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
Systems, methods, and non-transitory computer readable media including instructions for enabling location-based virtual content. Enabling location-based virtual content includes receiving an initial location of a particular wearable extended reality appliance; performing a first lookup for a first rule associating the particular wearable extended reality appliance with the initial location, the first rule permitting display of a first type of content and preventing display of a second type of content in the initial location; implementing the first rule; receiving a subsequent location of the particular wearable extended reality appliance; performing a second lookup for a second rule associating the particular wearable extended reality appliance with the subsequent location, the second rule preventing display of the first type of content and permitting display of the second type of content in the subsequent location; and implementing the second rule.
Methods, systems, apparatuses, and computer-readable media are provided for moving a virtual cursor along two traversing virtual planes. In one implementation, the computer-readable medium includes instructions to cause a processor to generate, via a wearable extended reality appliance, a display including a virtual cursor and virtual objects located on a first virtual plane that traverses a second virtual plane overlying a physical surface; receive a first two-dimensional input reflective of an intent to select a first virtual object located on the first virtual plane; cause a first cursor movement, toward the first virtual object, along the first virtual plane; receive a second two-dimensional input reflective of an intent to select a second virtual object appearing on the physical surface; and cause a second cursor movement, toward the second virtual object, including a partial movement along the first virtual plane and a partial movement along the second virtual plane.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/033 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires
G06F 3/041 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction
G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect utilisant des icônes
G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
G06F 3/04892 - Dispositions pour commander la position du curseur fondée sur des codes indiquant les pas de déplacement du curseur d’une position à une autre, p. ex. en utilisant des touches de commande du curseur associées à des directions différentes ou en utilisant le tabulateur
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
Systems, methods, and non-transitory computer readable media including instructions for presenting information in a first display region having predefined boundaries, the information manipulatable via a user interface presentable in the first display region; presenting, via a wearable extended reality appliance, a second display region beyond the predefined boundaries of the first display region, wherein the second display region is visible via the wearable extended reality appliance; providing a control for altering a location of the user interface, wherein in a first mode, the user interface is presented in the first display region while the information is presented in the first display region and in a second mode, the user interface is presented in the second display region outside the predefined boundaries of the first display region while the information is presented in the first display region; and enabling toggling between the first mode and the second mode via the control.
G06F 9/451 - Dispositions d’exécution pour interfaces utilisateur
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
Systems, methods, and non-transitory computer readable media including instructions for extracting content from a virtual display are disclosed. Extracting content from a virtual display includes generating a virtual display via a wearable extended reality appliance, wherein the virtual display presents a group of virtual objects and is located at a first virtual distance from the wearable extended reality appliance; generating an extended reality environment via the wearable extended reality appliance including at least one additional virtual object at a second virtual distance from the wearable extended reality appliance; receiving input for causing a specific virtual object to move from the virtual display to the extended reality environment; and in response, generating a presentation of a version of the specific virtual object in the extended reality environment at a third virtual distance different from the first virtual distance and the second virtual distance.
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
09 - Appareils et instruments scientifiques et électriques
42 - Services scientifiques, technologiques et industriels, recherche et conception
Produits et services
Augmented reality headsets; virtual reality headsets; augmented reality glasses; augmented reality computer hardware; smart glasses; virtual reality glasses; computer keyboards; computer mice; computer mouse in the nature of a trackpad; webcams; computer cables; laptop computers; tablet computers; downloadable operating system programs; computer programs, namely, downloadable operating system programs for an operating environment; downloadable augmented reality software for creating a customized, expanded personal workspace; downloadable augmented reality software for creating maps to navigate an augmented reality environment; downloadable augmented reality computer software for creating multi-monitor display systems; downloadable computer software for providing access to digital electronic content and experiences on the Internet and in native applications in a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; downloadable computer software for spatial computing, namely, for creating a customized, expanded personal workspace; downloadable virtual reality computer software containing virtual reality and augmented reality technology for business management and for assisting in the development of advanced augmented reality and virtual reality business software applications; mixed reality headsets; downloadable virtual reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality business software applications; downloadable augmented reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality business software applications Developing of driver and operating system software; computer graphics design services, namely, creating of 3D computer models; providing online websites that give mobile device users the ability to upload, modify and share augmented reality content, information, experiences and data; providing temporary use of online non-downloadable software for creating maps to navigate an augmented reality environment; providing online non-downloadable computer software for providing access to digital electronic content and experiences on the Internet and in native applications in a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; providing online non-downloadable software for metaverse experience, augmented reality experience, virtual reality experience, extended reality experience in the nature of software for displaying and creating digital content; providing temporary use of online non- downloadable software for use in computer applications in spatial computing in virtual, augmented and mixed reality environments; augmented reality non-downloadable computer software for creating multi-monitor display systems; providing online non-downloadable software for creating maps to navigate an augmented reality environment; computer services in the nature of developing customized web pages featuring user-defined information, personal profiles, virtual reality, and augmented reality content and data; providing temporary use of online nondownloadable cloud computing software for displaying and creating digital content for virtual and augmented reality applications and environments for use in virtual and augmented reality environments; providing temporary use of online non-downloadable augmented reality computer software for business management and for assisting in the development of advanced AR/VR business software applications
A method for augmenting a physical display with an extended reality display. A processor receives first signals representative of a first object fully presented on a physical display, second signals representative of a second object having a first portion presented on the physical display and a second portion extending beyond a border of the physical display, and third signals representative of a third object initially presented on the physical display and subsequently wholly moved beyond the border of the physical display. In response to receiving the second signals, the second portion is presented via a wearable extended reality appliance in a virtual space while the first portion is presented on the physical display. In response to receiving the third signals, the third object is wholly presented via the wearable extended reality appliance in the virtual space following the third object having been wholly presented on the physical display.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
Disclosed are systems, methods, and non-transitory computer readable media for making virtual colored markings on objects. Instructions may include receiving an indication of an object; receiving from an image sensor an image of a hand of an individual holding a physical marking implement; detecting in the image a color associated with the marking implement; receiving from the image sensor image data indicative of movement of a tip of the marking implement and locations of the tip; determining from the image data when the locations of the tip correspond to locations on the object; and generating, in the detected color, virtual markings on the object at the corresponding locations, wherein the object is a three-dimensional virtual object, and wherein the virtual markings include markings in the detected color on two traversed surfaces of the virtual representation of the physical object.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
H04W 4/02 - Services utilisant des informations de localisation
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
An integrated computational interface device may include a portable housing having a key region and a non-key region; a keyboard associated with the key region of the housing; and a holder associated with the non-key region of the housing. The holder may be configured for selective engagement with and disengagement from the wearable extended reality appliance, such that when the wearable extended reality appliance is selectively engaged with the housing via the holder, the wearable extended reality appliance is transportable with the housing.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
Systems, methods, and non-transitory computer-readable media for providing situational awareness to users of wearable extended reality appliances are disclosed. In one implementation, a non-transitory computer-readable medium contains instructions that when executed by at least one processor cause the at least one processor to: cause virtual content to be displayed through a first wearable extended reality appliance; detect a second wearable extended reality appliance in proximity to the first wearable extended reality appliance; establish a link between the first wearable extended reality appliance and the second wearable extended reality appliance; and transmit data representing at least a portion of the virtual content in an obscured form to the second wearable extended reality appliance, wherein the obscured form provides an indication of a position of the at least a portion of the virtual content in a three-dimensional space without revealing substance of the virtual content in obscured form.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
H04W 4/02 - Services utilisant des informations de localisation
H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
Methods, systems, apparatuses, and computer-readable media are provided for enabling collaboration between physical writers and virtual writers. In one implementation, the computer-readable medium includes instructions to cause a processor to receive, from an image sensor, image data representing a hand of a first physical writer holding a physical marking implement and engaging with a physical surface to create tangible markings. Information based on the image data is transmitted to a computing device associated with a second virtual writer, to thereby enable the second virtual writer to view the tangible markings created by the first physical writer. Annotation data are received from the computing device, and represent additional markings in relative locations with respect to the tangible markings created by the first physical writer. In response to receiving the annotation data, a wearable extended reality appliance overlays the physical surface with virtual markings in the relative locations.
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
Systems, methods, and non-transitory computer readable media including instructions for performing duty cycle control operations for a wearable extended reality appliance are disclosed. Performing the duty cycle control operations includes receiving data representing virtual content in an extended reality environment associated with a wearable extended reality appliance; identifying in the extended reality environment a first display region and a second display region separated from the first display region; determining a first duty cycle configuration for the first display region; determining a second duty cycle configuration for the second display region, wherein the second duty cycle configuration differs from the first duty cycle configuration; and causing the wearable extended reality appliance to display the virtual content in accordance with the determined first duty cycle configuration for the first display region and the determined second duty cycle configuration for the second display region.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
39.
Interpreting commands in extended reality environments based on distances from physical input devices
Systems, methods, and non-transitory computer readable media including instructions for selectively operating a wearable extended reality appliance are disclosed. Selectively operating the wearable extended reality appliance includes establishing a link between a wearable extended reality appliance and a keyboard device; receiving sensor data from at least one sensor associated with the wearable extended reality appliance, the sensor data being reflective of a relative orientation of the wearable extended reality appliance with respect to the keyboard device; based on the relative orientation, selecting from a plurality of operation modes a specific operation mode for the wearable extended reality appliance; identifying a user command based on at least one signal detected by the wearable extended reality appliance; and executing an action responding to the identified user command in a manner consistent with the selected operation mode.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
A method for tying a virtual speaker to a physical space. A first user with a first wearable extended reality appliance enters an area associated with a virtual speaker. First sounds are transmitted from the virtual speaker to the first wearable extended reality appliance. The first user hears the first sounds at first settings of the virtual speaker. The first user changes the settings of the virtual speaker to second settings. Second sounds are transmitted from the virtual speaker to the first wearable extended reality appliance, such that the first user hears the second sounds at the second settings. After the first user leaves the area, a second user with a second wearable extended reality appliance enters the area. Third sounds are transmitted from the virtual speaker to the second wearable extended reality appliance, such that the second user hears the third sounds at the second settings.
Methods, systems, apparatuses, and non-transitory computer-readable media are provided for tying virtual whiteboards to physical spaces. In one implementation, the computer-readable medium includes instructions to cause a processor to receive wirelessly, an indication of a location of a first wearable extended reality appliance; perform a lookup to determine that the location of the first wearable extended reality appliance corresponds to a location of a particular virtual whiteboard; transmit to the first wearable extended reality appliance, data corresponding to content of the particular virtual whiteboard; receive, during a first time period, virtual content added by a first user; receive wirelessly at a second time period an indication that a second wearable extended reality appliance is in the location of the particular virtual whiteboard; and transmit to the second wearable extended reality appliance, data corresponding to the content and the added content of the particular virtual whiteboard.
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
H04W 4/02 - Services utilisant des informations de localisation
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
Systems, methods, and non-transitory computer readable media configured for enabling content sharing between users of wearable extended reality appliances are provided. In one implementation, the computer readable medium may be configured to contain instructions to cause at least one processor to establish a link between a first wearable extended reality appliance and a second wearable extended reality appliance. The first wearable extended reality appliance may display first virtual content. The second wearable extended reality appliance may obtain a command to display first virtual content via the second wearable extended reality appliance, and in response, this content may be transmitted and displayed via the second extended reality appliance. Additionally, the first wearable extended reality appliance may receive second virtual content from the second wearable extended reality appliance, and display said second virtual content via the first wearable extended reality appliance.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
H04W 4/02 - Services utilisant des informations de localisation
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
Systems, methods, and non-transitory computer readable media configured for enabling content sharing between users of wearable extended reality appliances are provided. In one implementation, the computer readable medium may be configured to contain instructions to cause at least one processor to establish a link between a first wearable extended reality appliance and a second wearable extended reality appliance. The first wearable extended reality appliance may display first virtual content. The second wearable extended reality appliance may obtain a command to display first virtual content via the second wearable extended reality appliance, and in response, this content may be transmitted and displayed via the second extended reality appliance. Additionally, the first wearable extended reality appliance may receive second virtual content from the second wearable extended reality appliance, and display said second virtual content via the first wearable extended reality appliance.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
H04W 4/02 - Services utilisant des informations de localisation
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
44.
Keyboard with touch sensors dedicated for virtual keys
Consistent with disclosed embodiments, systems, methods, and computer readable media including instructions for implementing hybrid virtual keys in an extended reality environment are disclosed. Embodiments may include a processor to receive signals from a touch-sensitive surface, wherein a wearable extended reality appliance may virtually project a plurality of virtual activatable elements on the touch-sensitive surface. The plurality of virtual activatable elements virtually projected on the touch-sensitive surface may be a proper sub-set of a group of virtual activatable elements, based on the action of a user. The processor may receive touch inputs from the user via the touch-sensitive surface and identify one of the plurality of virtual activatable elements. The processor may cause a change in virtual content based on the identified virtual activatable element.
G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
45.
Integrated computational interface device with holder for wearable extended reality appliance
An integrated computational interface device may include a portable housing having a key region and a non-key region; a keyboard associated with the key region of the housing; and a holder associated with the non-key region of the housing. The holder may be configured for selective engagement with and disengagement from the wearable extended reality appliance, such that when the wearable extended reality appliance is selectively engaged with the housing via the holder, the wearable extended reality appliance is transportable with the housing.
H04M 1/00 - Équipement de sous-station, p. ex. pour utilisation par l'abonné
G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06Q 10/06 - Ressources, gestion de tâches, des ressources humaines ou de projetsPlanification d’entreprise ou d’organisationModélisation d’entreprise ou d’organisation
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
46.
Keyboard sensor for augmenting smart glasses sensor
A system and method for operating a keyboard and wearable extended reality appliance combination to control a virtual display are disclosed. The system may include a processor configured to receive, from a first hand-position sensor associated with the wearable extended reality appliance, first signals representing first hand-movements; receive, from a second hand-position sensor associated with the keyboard, second signals representing second hand-movements, wherein the second hand-movements include actions other than interactions with a feedback component; and control the virtual display based on the first signals and the second signals.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
H04N 23/57 - Détails mécaniques ou électriques de caméras ou de modules de caméras spécialement adaptés pour être intégrés dans d'autres dispositifs
H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
47.
Systems and methods for extending a keyboard to a surrounding surface using a wearable extended reality appliance
Systems, methods, and non-transitory computer readable media for virtually extending a physical keyboard are disclosed. In one implementation, a non-transitory computer readable medium contains instructions that cause a processor to: receive image data representing a keyboard placed on a surface from an image sensor associated with a wearable extended reality appliance; determine that the keyboard is paired with the wearable extended reality appliance; receive an input for causing a display of a virtual controller with the keyboard; display, via the wearable extended reality appliance, the virtual controller in a first location on the surface, with original spatial orientation relative to the keyboard; detect a movement of the keyboard to a different location on the surface; and in response to the detected movement, present the virtual controller in a second location on the surface, with a subsequent spatial orientation relative to the keyboard that corresponds to the original spatial orientation.
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
Methods, systems, apparatuses, and non-transitory computer-readable media are provided for tying virtual whiteboards to physical spaces. In one implementation, the computer-readable medium includes instructions to cause a processor to receive wirelessly, an indication of a location of a first wearable extended reality appliance; perform a lookup to determine that the location of the first wearable extended reality appliance corresponds to a location of a particular virtual whiteboard; transmit to the first wearable extended reality appliance, data corresponding to content of the particular virtual whiteboard; receive, during a first time period, virtual content added by a first user; receive wirelessly at a second time period an indication that a second wearable extended reality appliance is in the location of the particular virtual whiteboard; and transmit to the second wearable extended reality appliance, data corresponding to the content and the added content of the particular virtual whiteboard.
H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
An integrated computational interface device includes a housing, at least one image sensor, and a foldable protective cover. The housing has a key region and a non-key region, and a keyboard associated with the key region. The foldable protective cover incorporates the at least one image sensor. The protective cover is configured to be manipulated into a plurality of folding configurations, including a first folding configuration, wherein the protective cover is configured to encase the key region and at least a portion of the non-key region, and a second folding configuration, wherein the protective cover is configured to stand in a manner that causes an optical axis of the at least one image sensor to generally face a user of the integrated computational interface device while the user types on the keyboard.
Systems, methods, and non-transitory computer readable media configured for modifying the display of virtual objects docked to a movable input device are provided. In one implementation, the computer readable medium may be configured to receive image data from an image sensor, the image data representing an input device placed at a first location on a supporting surface. At least one processor may generate a presentation of at least one virtual object in proximity to the first location. Operations may include docking the at least one virtual object to the input device. The processor may determine that the input device is in a second location on the support surface. The virtual object presentation may be modified based on the second location. Operations may further include determining that the input device is in a third location removed from the support surface and modifying the virtual object presentation accordingly.
G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
51.
Gesture interaction with invisible virtual objects
Methods, systems, apparatuses, and non-transitory computer-readable media are provided for enabling gesture interaction with invisible virtual objects. In one implementation, the computer-readable medium includes instructions to cause a processor to receive image data captured by at least one image sensor of a wearable extended reality appliance in a field of view; display a plurality of virtual objects in a portion of the field of view; receive a selection of a specific physical object; receive a selection of a specific virtual object; dock the specific virtual object with the specific physical object; when the specific physical object and the specific virtual object are outside the portion of the field of view such that the specific virtual object is invisible to a user of the wearable extended reality appliance, receive a gesture input indicating interaction with the specific virtual object; and cause an output associated with the specific virtual object.
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
G06F 3/033 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires
G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
G06F 3/04892 - Dispositions pour commander la position du curseur fondée sur des codes indiquant les pas de déplacement du curseur d’une position à une autre, p. ex. en utilisant des touches de commande du curseur associées à des directions différentes ou en utilisant le tabulateur
G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect utilisant des icônes
G06F 3/14 - Sortie numérique vers un dispositif de visualisation
09 - Appareils et instruments scientifiques et électriques
42 - Services scientifiques, technologiques et industriels, recherche et conception
Produits et services
Augmented reality headsets; virtual reality headsets; augmented reality glasses; augmented reality computer hardware; smart glasses; virtual reality glasses; computer keyboards; computer mice; computer mouse in the nature of a trackpad; webcams; computer cables; laptop computers; tablet computers; downloadable operating system programs; computer programs, namely, downloadable operating system programs including an operating environment; downloadable augmented reality software for creating a customized, expanded personal workspace; downloadable augmented reality software for navigating an augmented reality environment; downloadable augmented reality computer software for creating multi-monitor display systems; downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; downloadable computer software for spatial computing, namely, for creating a customized, expanded personal workspace; downloadable virtual reality computer software containing virtual reality and augmented reality technology for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; mixed reality headsets; downloadable virtual reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; downloadable augmented reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications Developing of driver and operating system software; computer graphics design services, namely, creating of 3D computer models; providing online websites that give users the ability to upload, modify and share augmented reality content, information, experiences and data; providing temporary use of online non-downloadable software for navigating an augmented reality environment; providing online non-downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; providing online non-downloadable software for metaverse experience, augmented reality experience, virtual reality experience, extended reality (XR) experience; providing temporary use of online non- downloadable software for use in computer applications in spatial computing in virtual, augmented and mixed reality environments; augmented reality non-downloadable computer software for creating multi-monitor display systems; providing online non-downloadable software for navigating an augmented reality environment; computer services in the nature of customized web pages featuring user-defined or specified information, personal profiles, virtual reality, and augmented reality content and data; providing temporary use of online non-downloadable cloud computing software for virtual and augmented reality applications and environments for use in virtual and augmented reality environments; providing temporary use of online non-downloadable augmented reality computer software for business management and for assisting in the development of advanced AR/VR business software applications
09 - Appareils et instruments scientifiques et électriques
42 - Services scientifiques, technologiques et industriels, recherche et conception
Produits et services
Augmented reality headsets; virtual reality headsets; augmented reality glasses; augmented reality computer hardware; smart glasses; virtual reality glasses; computer keyboards; computer mice; computer mouse in the nature of a trackpad; webcams; computer cables; laptop computers; tablet computers; downloadable operating system programs; computer programs, namely, downloadable operating system programs including an operating environment; downloadable augmented reality software for creating a customized, expanded personal workspace; downloadable augmented reality software for navigating an augmented reality environment; downloadable augmented reality computer software for creating multi-monitor display systems; downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; downloadable computer software for spatial computing, namely, for creating a customized, expanded personal workspace; downloadable virtual reality computer software containing virtual reality and augmented reality technology for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; mixed reality headsets; downloadable virtual reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; downloadable augmented reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications Developing of driver and operating system software; computer graphics design services, namely, creating of 3D computer models; providing online websites that give users the ability to upload, modify and share augmented reality content, information, experiences and data; providing temporary use of online non-downloadable software for navigating an augmented reality environment; providing online non-downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; providing online non-downloadable software for metaverse experience, augmented reality experience, virtual reality experience, extended reality (XR) experience; providing temporary use of online non- downloadable software for use in computer applications for spatial computing in virtual, augmented and mixed reality environments; augmented reality non-downloadable computer software for creating multi-monitor display systems; providing online non-downloadable software for navigating an augmented reality environment; computer services in the nature of customized web pages featuring user-defined or specified information, personal profiles, virtual reality, and augmented reality content and data; providing temporary use of online non-downloadable cloud computing software for virtual and augmented reality applications and environments for use in virtual and augmented reality environments; providing temporary use of online non-downloadable augmented reality computer software for business management and for assisting in the development of advanced AR/VR business software applications