Sightful Computers Ltd

Israël

Retour au propriétaire

1-53 de 53 pour Sightful Computers Ltd Trier par
Recheche Texte
Affiner par
Type PI
        Brevet 49
        Marque 4
Juridiction
        États-Unis 50
        International 3
Date
2025 juin 1
2025 (AACJ) 3
2024 21
2023 19
2022 10
Classe IPC
G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie 45
G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur 40
G02B 27/01 - Dispositifs d'affichage "tête haute" 38
G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet 29
G06F 3/14 - Sortie numérique vers un dispositif de visualisation 26
Voir plus
Classe NICE
09 - Appareils et instruments scientifiques et électriques 4
42 - Services scientifiques, technologiques et industriels, recherche et conception 3
Statut
En Instance 10
Enregistré / En vigueur 43

1.

MOVING WINDOWS BETWEEN A VIRTUAL DISPLAY AND AN EXTENDED REALITY ENVIRONMENT

      
Numéro d'application 19055919
Statut En instance
Date de dépôt 2025-02-18
Date de la première publication 2025-06-12
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Elhadad, Eli
  • Knaani, Amit
  • Kahan, Tomer
  • Berliner, Tamir
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for performing duty cycle control operations for a wearable extended reality appliance are disclosed. Performing the duty cycle control operations includes receiving data representing virtual content in an extended reality environment associated with a wearable extended reality appliance; identifying in the extended reality environment a first display region and a second display region separated from the first display region; determining a first duty cycle configuration for the first display region; determining a second duty cycle configuration for the second display region, wherein the second duty cycle configuration differs from the first duty cycle configuration; and causing the wearable extended reality appliance to display the virtual content in accordance with the determined first duty cycle configuration for the first display region and the determined second duty cycle configuration for the second display region.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine

2.

RESTRICT PRESENTATION OF PRIVATE VIRTUAL OBJECTS IN EXTENDED REALITY BASED ON PHYSICAL LOCATIONS

      
Numéro d'application 18931439
Statut En instance
Date de dépôt 2024-10-30
Date de la première publication 2025-02-13
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Kahan, Tomer
  • Berliner, Tamir

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for managing privacy in an extended reality environment are disclosed. The instructions include receiving image data of a physical environment from an image sensor associated with a wearable extended reality appliance; accessing data characterizing virtual objects in the physical environment, the data representing a first and a second virtual object; accessing privacy settings classifying a first physical location of the first virtual object as private, classifying a first appliance as approved for presenting private information, and classifying a second appliance as non-approved for presenting the private information; and based on the privacy settings, simultaneously enabling a presentation of an augmented viewing of the physical environment, such that the first appliance presents the first and the second virtual objects in the physical environment, and the second appliance presents the only second virtual object, in compliance with the privacy settings.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]

3.

PROTOCOL FOR FACILITATING PRESENTATION OF EXTENDED REALITY CONTENT IN DIFFERENT PHYSICAL ENVIRONMENTS

      
Numéro d'application 18902730
Statut En instance
Date de dépôt 2024-09-30
Date de la première publication 2025-01-16
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Terre, Doron Assayas
  • Kahan, Tomer

Abrégé

Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

4.

CUSTOMIZED LOCATION BASED CONTENT PRESENTATION

      
Numéro d'application 18824757
Statut En instance
Date de dépôt 2024-09-04
Date de la première publication 2024-12-26
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Terre, Doron Assayas
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

5.

INCREMENTAL HIGHLIGHTING DURING VIRTUAL OBJECT SELECTION

      
Numéro d'application 18791920
Statut En instance
Date de dépôt 2024-08-01
Date de la première publication 2024-11-28
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Terre, Doron Assayas

Abrégé

Methods, systems, apparatuses, and non-transitory computer-readable media are provided for incremental convergence in an extended reality environment during virtual object selection. In one implementation, the computer-readable medium may contain instructions that when executed by at least one processor cause the at least one processor to display a plurality of dispersed virtual objects across a plurality of virtual regions, the plurality of virtual regions including at least a first virtual region and a second virtual region that differs from the first virtual region; receive an initial kinesics input tending toward the first virtual region; highlight a group of adjacent virtual objects in the first virtual region based on the initial kinesics input; receive a refined kinesics input tending toward a particular virtual object from among the highlighted group of adjacent virtual objects; and trigger a functionality associated with the particular virtual object based on the refined kinesics input.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/033 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires
  • G06F 3/041 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction
  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect utilisant des icônes
  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
  • G06F 3/04892 - Dispositions pour commander la position du curseur fondée sur des codes indiquant les pas de déplacement du curseur d’une position à une autre, p. ex. en utilisant des touches de commande du curseur associées à des directions différentes ou en utilisant le tabulateur
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G09G 5/10 - Circuits d'intensité

6.

PRESENTING EXTENDED REALITY CONTENT IN DIFFERENT PHYSICAL ENVIRONMENTS

      
Numéro d'application 18765105
Statut En instance
Date de dépôt 2024-07-05
Date de la première publication 2024-10-31
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Terre, Doron Assayas
  • Kahan, Tomer

Abrégé

Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for the virtual presentation in the environment; receiving with the content, a plurality of tags, each being associated with a portion of the content, wherein a particular portion of the content associated with a particular tag includes an inanimate virtual object; for each tag, selecting, based on the respective tag, a 3D placement requirement for the portion of the content associated with the respective tag; and for each portion of the content, determining, based on a layout of the environment and the selected 3D placement requirement, a location in the environment for virtual placement of the respective portion of the content.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

7.

EXTENDED REALITY FOR PRODUCTIVITY IN DYNAMIC ENVIRONMENTS

      
Numéro d'application IB2024053519
Numéro de publication 2024/214030
Statut Délivré - en vigueur
Date de dépôt 2024-04-10
Date de publication 2024-10-17
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Noam, Oded
  • Dolev, Orit
  • Elhadad, Eli
  • Blau, Yoav
  • Orbach, Gil
  • Pisarevskiy, Philipp

Abrégé

Systems, methods, and computer program products are provided for reducing echo in virtual conferences. Reducing echo in virtual conferences includes: establishing a virtual conference between a plurality of participants, including first, second, and third participants being sources of first, second, and third audio streams, respectively, wherein the first, second, and third audio streams are captured by three separated audio sensors; determining that the first and second participants are collocated in a common room and the third participant is located remote from the common room; based on the determination, controlling a conversational echo by generating an onsite audio presentation omitting the first and second audio streams and including the third audio stream; presenting to the first and second participants in the common room the onsite audio presentation; generating an offsite audio presentation including the first and second audio streams; and presenting to the third participant the offsite audio presentation.

Classes IPC  ?

  • H04M 3/56 - Dispositions pour connecter plusieurs abonnés à un circuit commun, c.-à-d. pour permettre la transmission de conférences
  • H04M 9/08 - Systèmes téléphoniques à haut-parleur à double sens comportant des moyens pour conditionner le signal, p. ex. pour supprimer les échos dans l'une ou les deux directions du trafic
  • H04N 7/15 - Systèmes pour conférences
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

8.

MANAGING CONTENT PLACEMENT IN EXTENDED REALITY ENVIRONMENTS

      
Numéro d'application 18661889
Statut En instance
Date de dépôt 2024-05-13
Date de la première publication 2024-09-05
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media configured for enabling content sharing between users of wearable extended reality appliances are provided. In one implementation, the computer readable medium may be configured to contain instructions to cause at least one processor to establish a link between a first wearable extended reality appliance and a second wearable extended reality appliance. The first wearable extended reality appliance may display first virtual content. The second wearable extended reality appliance may obtain a command to display first virtual content via the second wearable extended reality appliance, and in response, this content may be transmitted and displayed via the second extended reality appliance. Additionally, the first wearable extended reality appliance may receive second virtual content from the second wearable extended reality appliance, and display said second virtual content via the first wearable extended reality appliance.

Classes IPC  ?

  • H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06T 15/20 - Calcul de perspectives
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 30/14 - Acquisition d’images
  • G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
  • H04W 4/02 - Services utilisant des informations de localisation
  • H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
  • H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie

9.

Altering display of virtual content based on mobility status change

      
Numéro d'application 18430783
Numéro de brevet 12360558
Statut Délivré - en vigueur
Date de dépôt 2024-02-02
Date de la première publication 2024-07-11
Date d'octroi 2025-07-15
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media for coordinating virtual content display with mobility status are disclosed. A non-transitory computer readable medium contains instructions that cause a processor to: access rules associating user mobility statuses with display modes; receive first sensor data reflecting a mobility status of a user during a first time period; based on the first sensor data, determine that during the first time period the user is associated with a first mobility status; implement a first accessed rule to generate a first display of virtual content; receive second sensor data reflecting the mobility status of the user during a second time period; based on the second sensor data, determine that during the second time period the user is associated with a second mobility status; and implement a second accessed rule to generate a second display of the virtual content different from the first display.

Classes IPC  ?

  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
  • H04N 23/51 - Boîtiers
  • H04N 23/57 - Détails mécaniques ou électriques de caméras ou de modules de caméras spécialement adaptés pour être intégrés dans d'autres dispositifs

10.

SPACEOS

      
Numéro de série 98551323
Statut En instance
Date de dépôt 2024-05-15
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Classes de Nice  ? 09 - Appareils et instruments scientifiques et électriques

Produits et services

downloadable and recorded computer operating system software for use with augmented reality laptops

11.

CONTROLLED EXPOSURE TO LOCATION-BASED VIRTUAL CONTENT

      
Numéro d'application 18529268
Statut En instance
Date de dépôt 2023-12-05
Date de la première publication 2024-04-11
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for enabling location-based virtual content. Enabling location-based virtual content includes receiving an initial location of a particular wearable extended reality appliance; performing a first lookup for a first rule associated with the initial location, the first rule permitting display of a first type of content and preventing display of a second type of content in the initial location; implementing the first rule; receiving a subsequent location of the particular wearable extended reality appliance; performing a second lookup for a second rule associated with the subsequent location, the second rule preventing display of the first type of content and permitting display of the second type of content in the subsequent location; and implementing the second rule.

Classes IPC  ?

  • G06F 21/62 - Protection de l’accès à des données via une plate-forme, p. ex. par clés ou règles de contrôle de l’accès
  • G01C 21/00 - NavigationInstruments de navigation non prévus dans les groupes
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 9/451 - Dispositions d’exécution pour interfaces utilisateur
  • G06Q 30/0251 - Publicités ciblées
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06T 7/20 - Analyse du mouvement
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p. ex. d’êtres humains, d’animaux ou d’êtres virtuels
  • G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
  • G06V 10/60 - Extraction de caractéristiques d’images ou de vidéos relative aux propriétés luminescentes, p. ex. utilisant un modèle de réflectance ou d’éclairage
  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 20/50 - Contexte ou environnement de l’image
  • H04N 7/14 - Systèmes à deux voies
  • H04N 7/15 - Systèmes pour conférences
  • H04W 4/02 - Services utilisant des informations de localisation

12.

Recording the complete physical and extended reality environments of a user

      
Numéro d'application 18391920
Numéro de brevet 12175614
Statut Délivré - en vigueur
Date de dépôt 2023-12-21
Date de la première publication 2024-04-11
Date d'octroi 2024-12-24
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Rudman, Fade
  • Dolev, Orit
  • Kahan, Tomer
  • Berliner, Tamir

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for presenting information in a first display region having predefined boundaries, the information manipulatable via a user interface presentable in the first display region; presenting, via a wearable extended reality appliance, a second display region beyond the predefined boundaries of the first display region, wherein the second display region is visible via the wearable extended reality appliance; providing a control for altering a location of the user interface, wherein in a first mode, the user interface is presented in the first display region while the information is presented in the first display region and in a second mode, the user interface is presented in the second display region outside the predefined boundaries of the first display region while the information is presented in the first display region; and enabling toggling between the first mode and the second mode via the control.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]

13.

Location-based virtual resource locator

      
Numéro d'application 18529197
Numéro de brevet 12124675
Statut Délivré - en vigueur
Date de dépôt 2023-12-05
Date de la première publication 2024-04-04
Date d'octroi 2024-10-22
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Terre, Doron Assayas
  • Kahan, Tomer
  • Peleg, Dori
  • Noam, Oded
  • Dolev, Orit
  • Eshel, Amir

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for presenting location-based content are described. Presenting location-based content includes obtaining an indication of a current physical location of an extended reality appliance; providing the indication to a first server that maps physical locations to a plurality of content addresses; receiving from the first server, at least one specific content address associated with the current physical location; using the at least one specific content address to access a second server; receiving content, associated with the current physical location, from the second server; and presenting the content via the extended reality appliance, while the extended reality appliance is in the current physical location.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/44 - Traitement de flux élémentaires vidéo, p. ex. raccordement d'un clip vidéo récupéré d'un stockage local avec un flux vidéo en entrée ou rendu de scènes selon des graphes de scène du flux vidéo codé
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

14.

User-customized location based content presentation

      
Numéro d'application 18529223
Numéro de brevet 12112012
Statut Délivré - en vigueur
Date de dépôt 2023-12-05
Date de la première publication 2024-04-04
Date d'octroi 2024-10-08
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Terre, Doron Assayas
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for customizing location-based content presentation are described. Customizing location-based content presentation includes accessing a group of content display mode rules specifying a format impacting 3D presentation; accessing stored selections unique to a wearer of a wearable extended reality appliance associating content display mode rules with physical locations; receiving a first indication that the wearable extended reality appliance is at the first physical location; based on the received first indication and the accessed stored selections, displaying first location-based content at the first physical location according to the first content display mode rule; receiving a second indication that the wearable extended reality appliance is at the second physical location; and based on the received second indication and the accessed stored selections, displaying second location-based content at the second physical location according to the second content display mode rule.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

15.

Displaying virtual content on moving vehicles

      
Numéro d'application 18529244
Numéro de brevet 12099696
Statut Délivré - en vigueur
Date de dépôt 2023-12-05
Date de la première publication 2024-04-04
Date d'octroi 2024-09-24
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Levi, Elad
  • Peleg, Dori
  • Noam, Oded
  • Kahan, Tomer
  • Berliner, Tamir

Abrégé

A system and a method for content localization in moving vehicles may include receiving from within a moving vehicle first acceleration data captured using a first sensor included in an extended reality appliance mountable on a head of a wearer. The first acceleration data includes a first component associated with movement of the head of the wearer with respect to the vehicle and a second component associated with movement of the vehicle. The system also includes receiving from within the moving vehicle second acceleration data captured using a second sensor included in a personal input device. The personal input device may be a non-vehicle component configured to be paired with the extended reality appliance. The system may segregate the second component from the first component using the first acceleration data and the second acceleration data to thereby isolate the head acceleration with respect to the vehicle from the vehicle acceleration.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

16.

ADAPTIVE EXTENDED REALITY CONTENT PRESENTATION IN MULTIPLE PHYSICAL ENVIRONMENTS

      
Numéro d'application IB2023059718
Numéro de publication 2024/069534
Statut Délivré - en vigueur
Date de dépôt 2023-09-28
Date de publication 2024-04-04
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Terre, Doron Assayas
  • Noam, Oded
  • Peleg, Dori
  • Levi, Elad
  • Eshel, Amir
  • Dolev, Orit

Abrégé

Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06T 15/20 - Calcul de perspectives

17.

Presenting extended reality content in different physical environments

      
Numéro d'application 18529135
Numéro de brevet 12079442
Statut Délivré - en vigueur
Date de dépôt 2023-12-05
Date de la première publication 2024-04-04
Date d'octroi 2024-09-03
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Terre, Doron Assayas
  • Kahan, Tomer

Abrégé

Systems, methods, and computer program products are provided for performing operations for presenting content in three dimensional (3D) environments. Performing operations for presenting content in 3D environments includes: requesting content for virtual presentation in an environment of an extended reality appliance; receiving the content for presentation in the environment; receiving with the content, a plurality of tags, each of the plurality of tags being associated with a portion of the content; capturing, using an image sensor, a layout of the environment; for each tag, selecting, based on the tag, a 3D placement requirement for the content portion associated with the tag; and for each content portion, determining, based on the layout of the environment and the 3D placement requirement selected for the respective content portion, a location in the environment for virtual placement of the respective content portion.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

18.

Protocol for facilitating presentation of extended reality content in different physical environments

      
Numéro d'application 18529156
Numéro de brevet 12141416
Statut Délivré - en vigueur
Date de dépôt 2023-12-05
Date de la première publication 2024-04-04
Date d'octroi 2024-11-12
Propriétaire Sightful Computers LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Terre, Doron Assayas
  • Kahan, Tomer

Abrégé

Systems, methods, and computer program products are provided for facilitating presentation of content in a three dimensional (3D) environment. Facilitating presentation of content in a 3D environment includes: receiving an indication of device settings of an extended reality appliance; receiving an indication of content requested for presentation via the extended reality appliance; based on the device settings, selecting 3D placement requirements for the requested content, the 3D placement requirements including at least one of: a 3D physical background, a visual span, virtual object positioning protocols, 3D anchoring requirements, 3D content size requirements, or ambient illumination requirements; transmitting the selected 3D placement requirements and the requested content, the transmitted content including at least one tag for associating portions of the content with at least some of the 3D placement requirements to thereby enable the extended reality appliance to display the content in a 3D environment.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

19.

Managing virtual collisions between moving virtual objects

      
Numéro d'application 18529179
Numéro de brevet 12073054
Statut Délivré - en vigueur
Date de dépôt 2023-12-05
Date de la première publication 2024-04-04
Date d'octroi 2024-08-27
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Terre, Doron Assayas
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

A system and method for preventing virtual collisions may include presenting, via an extended reality appliance, a first virtual object docked to a first movable physical object and a second virtual object docked to a second movable physical object. The movement of the first and second physical objects may be tracked and an impending collision between the first virtual object and the second virtual object may be determined. Priority rules establishing that the first physical object has priority over the second physical object may be accessed. And based on the priority rules, favoring the first virtual object over the second virtual object at the time of the impending collision.

Classes IPC  ?

  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • A63F 13/577 - Simulations de propriétés, de comportement ou de déplacement d’objets dans le jeu, p. ex. calcul de l’effort supporté par un pneu dans un jeu de course automobile utilisant la détermination de la zone de contact entre les personnages ou les objets du jeu, p. ex. pour éviter une collision entre des voitures de course virtuelles
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/0346 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires avec détection de l’orientation ou du mouvement libre du dispositif dans un espace en trois dimensions [3D], p. ex. souris 3D, dispositifs de pointage à six degrés de liberté [6-DOF] utilisant des capteurs gyroscopiques, accéléromètres ou d’inclinaison
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • H04N 21/45 - Opérations de gestion réalisées par le client pour faciliter la réception de contenu ou l'interaction avec le contenu, ou pour l'administration des données liées à l'utilisateur final ou au dispositif client lui-même, p. ex. apprentissage des préférences d'utilisateurs pour recommander des films ou résolution de conflits d'ordonnancement

20.

Recording the complete physical and extended reality environments of a user

      
Numéro d'application 18183349
Numéro de brevet 11948263
Statut Délivré - en vigueur
Date de dépôt 2023-03-14
Date de la première publication 2024-04-02
Date d'octroi 2024-04-02
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Rudman, Fade
  • Dolev, Orit
  • Kahan, Tomer
  • Berliner, Tamir

Abrégé

A method for capturing extended reality environments includes receiving image data from at least one image sensor associated with a wearable extended reality appliance, the image data representing at least a 140 degrees field of view of a physical environment. At least two extended reality objects are virtually associated with a composite perspective of the physical environment, wherein the at least two extended reality objects are spaced apart by at least 140 degrees from a point of view of the wearable extended reality appliance. Displaying, via the wearable extended reality appliance and during a particular time period, changes in one of the at least two extended reality objects while refraining from displaying changes in another of the at least two extended reality objects. Enabling non-synchronous display of concurrent changes in the at least two extended reality objects that took place during the particular time period.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]

21.

Enhancing physical notebooks in extended reality

      
Numéro d'application 18511583
Numéro de brevet 12236008
Statut Délivré - en vigueur
Date de dépôt 2023-11-16
Date de la première publication 2024-03-14
Date d'octroi 2025-02-25
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Dolev, Orit
  • Kahan, Tomer
  • Berliner, Tamir
  • Dvir, Tomer

Abrégé

Methods, systems, apparatuses, and computer-readable media are provided for enabling collaboration between writers. In one implementation, the computer-readable medium includes instructions to cause a processor to receive, from an image sensor associated with a wearable extended reality appliance, image data representing a physical surface, the physical surface being a compilation of pages; receive, from a computing device associated with a virtual writer, annotation data representing first virtual markings associated with a first page of the compilation and second virtual markings associated with a second page of the compilation; analyze the image data to determine that the compilation is opened to the first page; and cause the wearable extended reality appliance to overlay the first virtual markings on the first page of the compilation and exclude overlaying the second virtual markings on the first page of the compilation.

Classes IPC  ?

  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine

22.

Shared extended reality coordinate system generated on-the-fly

      
Numéro d'application 18489363
Numéro de brevet 12095867
Statut Délivré - en vigueur
Date de dépôt 2023-10-18
Date de la première publication 2024-02-08
Date d'octroi 2024-09-17
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

Consistent with disclosed embodiments, systems, methods, and computer readable media including instructions for wearable extended reality appliances to share virtual content. Embodiments may include a processor to generate a visual code reflecting a first physical position of a mobile device. The visual code may be presented on a display of the mobile device in order for the plurality of wearable extended reality appliances to detect the visual code. The plurality of wearable extended reality appliances may share content in a common coordinate system upon detection of the visual code. The processor may detect movement of the mobile device to a second physical position different from the first physical position. The processor may alter the presentation of the visual code upon the detected movement of the mobile device making the visual code unavailable for use in content sharing.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06T 15/20 - Calcul de perspectives
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 30/14 - Acquisition d’images
  • G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
  • H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
  • H04W 4/02 - Services utilisant des informations de localisation
  • H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
  • H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie

23.

Moving windows between a virtual display and an extended reality environment

      
Numéro d'application 18491179
Numéro de brevet 12265655
Statut Délivré - en vigueur
Date de dépôt 2023-10-20
Date de la première publication 2024-02-08
Date d'octroi 2025-04-01
Propriétaire Sightful Computers Ltd. (Israël)
Inventeur(s)
  • Elhadad, Eli
  • Knaani, Amit
  • Kahan, Tomer
  • Berliner, Tamir
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for extracting content from a virtual display are disclosed. Extracting content from a virtual display includes generating a virtual display via a wearable extended reality appliance, wherein the virtual display presents a group of virtual objects and is located at a first virtual distance from the wearable extended reality appliance; generating an extended reality environment via the wearable extended reality appliance including at least one additional virtual object at a second virtual distance from the wearable extended reality appliance; receiving input for causing a specific virtual object to move from the virtual display to the extended reality environment; and in response, generating a presentation of a version of the specific virtual object in the extended reality environment at a third virtual distance different from the first virtual distance and the second virtual distance.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes

24.

Docking virtual objects to surfaces

      
Numéro d'application 18369256
Numéro de brevet 12360557
Statut Délivré - en vigueur
Date de dépôt 2023-09-18
Date de la première publication 2024-01-11
Date d'octroi 2025-07-15
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Noam, Oded

Abrégé

A system and method for operating a keyboard and wearable extended reality appliance combination to control a virtual display are disclosed. The system may include a processor configured to receive, from a first hand-position sensor associated with the wearable extended reality appliance, first signals representing first hand-movements; receive, from a second hand-position sensor associated with the keyboard, second signals representing second hand-movements, wherein the second hand-movements include actions other than interactions with a feedback component; and control the virtual display based on the first signals and the second signals.

Classes IPC  ?

  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
  • H04N 23/51 - Boîtiers
  • H04N 23/57 - Détails mécaniques ou électriques de caméras ou de modules de caméras spécialement adaptés pour être intégrés dans d'autres dispositifs

25.

DUAL MODE PRESENTATION OF USER INTERFACE ELEMENTS

      
Numéro d'application 18184748
Statut En instance
Date de dépôt 2023-03-16
Date de la première publication 2023-10-19
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for enabling user interface display mode toggling. Enabling user interface display mode toggling includes presenting information in a first display region having predefined boundaries, the information being manipulatable via a user interface in the first display region; presenting, via a wearable extended reality appliance, a second display region beyond the predefined boundaries of the first display region; providing a control for altering a location of the user interface, wherein in a first mode, the user interface is presented in the first display region while the information is presented in the first display region and in a second mode, the user interface is presented in the second display region outside the predefined boundaries of the first display region while the information is presented in the first display region; and enabling toggling between the first mode and the second mode via the control.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 9/451 - Dispositions d’exécution pour interfaces utilisateur

26.

Extracting video conference participants to extended reality environment

      
Numéro d'application 18191742
Numéro de brevet 11846981
Statut Délivré - en vigueur
Date de dépôt 2023-03-28
Date de la première publication 2023-10-05
Date d'octroi 2023-12-19
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Dolev, Orit
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

Methods, systems, apparatuses, and computer-readable media are provided for managing an extended reality conference. In one implementation, the computer-readable medium may include instructions to cause a processor to: facilitate a multi-participant video conference; enable, via a wearable extended reality appliance, viewing of a first environment representing a physical space and a second peripheral environment; enable a display of participants in the second peripheral environment; receive a first selection of a first participant in the second peripheral environment; move a virtual representation of the first participant to the first environment while a second participant remains in the second peripheral environment; receive a second selection of the second participant in the second peripheral environment; and move a virtual representation of the second participant to the first environment.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p. ex. d’êtres humains, d’animaux ou d’êtres virtuels
  • G06V 20/50 - Contexte ou environnement de l’image
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée

27.

Positioning participants of an extended reality conference

      
Numéro d'application 18185540
Numéro de brevet 11941149
Statut Délivré - en vigueur
Date de dépôt 2023-03-17
Date de la première publication 2023-09-28
Date d'octroi 2024-03-26
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Dolev, Orit
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

Methods, systems, apparatuses, and computer-readable media are provided for managing extended reality video conferences. In one implementation, the computer-readable medium may include instructions to cause a processor to: receive a request to initiate a video conference between a plurality of participants; receive image data captured by at least one image sensor associated with a wearable extended reality appliance, the image data reflecting a layout of a physical environment in which the wearable extended reality appliance is located; analyze the image data to identify at least one interference region in the physical environment; receive visual representations of the plurality of participants; and cause the wearable extended reality appliance to display the visual representations of the plurality of participants at multiple distinct locations other than in the at least one interference region.

Classes IPC  ?

  • G06F 21/62 - Protection de l’accès à des données via une plate-forme, p. ex. par clés ou règles de contrôle de l’accès
  • G01C 21/00 - NavigationInstruments de navigation non prévus dans les groupes
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 9/451 - Dispositions d’exécution pour interfaces utilisateur
  • G06Q 30/0251 - Publicités ciblées
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06T 7/20 - Analyse du mouvement
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06T 13/40 - Animation tridimensionnelle [3D] de personnages, p. ex. d’êtres humains, d’animaux ou d’êtres virtuels
  • G06T 17/00 - Modélisation tridimensionnelle [3D] pour infographie
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06V 10/25 - Détermination d’une région d’intérêt [ROI] ou d’un volume d’intérêt [VOI]
  • G06V 10/60 - Extraction de caractéristiques d’images ou de vidéos relative aux propriétés luminescentes, p. ex. utilisant un modèle de réflectance ou d’éclairage
  • G06V 10/764 - Dispositions pour la reconnaissance ou la compréhension d’images ou de vidéos utilisant la reconnaissance de formes ou l’apprentissage automatique utilisant la classification, p. ex. des objets vidéo
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06V 20/50 - Contexte ou environnement de l’image
  • H04N 7/14 - Systèmes à deux voies
  • H04N 7/15 - Systèmes pour conférences
  • H04W 4/02 - Services utilisant des informations de localisation

28.

Controlled exposure to location-based virtual content

      
Numéro d'application 18187270
Numéro de brevet 11877203
Statut Délivré - en vigueur
Date de dépôt 2023-03-21
Date de la première publication 2023-09-21
Date d'octroi 2024-01-16
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for enabling location-based virtual content. Enabling location-based virtual content includes receiving an initial location of a particular wearable extended reality appliance; performing a first lookup for a first rule associating the particular wearable extended reality appliance with the initial location, the first rule permitting display of a first type of content and preventing display of a second type of content in the initial location; implementing the first rule; receiving a subsequent location of the particular wearable extended reality appliance; performing a second lookup for a second rule associating the particular wearable extended reality appliance with the subsequent location, the second rule preventing display of the first type of content and permitting display of the second type of content in the subsequent location; and implementing the second rule.

Classes IPC  ?

  • H04W 4/02 - Services utilisant des informations de localisation
  • G06Q 30/0251 - Publicités ciblées
  • G01C 21/00 - NavigationInstruments de navigation non prévus dans les groupes
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie

29.

Coordinating cursor movement between a physical surface and a virtual surface

      
Numéro d'application 18313055
Numéro de brevet 12094070
Statut Délivré - en vigueur
Date de dépôt 2023-05-05
Date de la première publication 2023-08-31
Date d'octroi 2024-09-17
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Terre, Doron Assayas
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

Methods, systems, apparatuses, and computer-readable media are provided for moving a virtual cursor along two traversing virtual planes. In one implementation, the computer-readable medium includes instructions to cause a processor to generate, via a wearable extended reality appliance, a display including a virtual cursor and virtual objects located on a first virtual plane that traverses a second virtual plane overlying a physical surface; receive a first two-dimensional input reflective of an intent to select a first virtual object located on the first virtual plane; cause a first cursor movement, toward the first virtual object, along the first virtual plane; receive a second two-dimensional input reflective of an intent to select a second virtual object appearing on the physical surface; and cause a second cursor movement, toward the second virtual object, including a partial movement along the first virtual plane and a partial movement along the second virtual plane.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/033 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires
  • G06F 3/041 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction
  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect utilisant des icônes
  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
  • G06F 3/04892 - Dispositions pour commander la position du curseur fondée sur des codes indiquant les pas de déplacement du curseur d’une position à une autre, p. ex. en utilisant des touches de commande du curseur associées à des directions différentes ou en utilisant le tabulateur
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G09G 5/10 - Circuits d'intensité

30.

EXTENDED REALITY FOR COLLABORATION

      
Numéro d'application US2023011401
Numéro de publication 2023/146837
Statut Délivré - en vigueur
Date de dépôt 2023-01-24
Date de publication 2023-08-03
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Rudman, Fade

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for presenting information in a first display region having predefined boundaries, the information manipulatable via a user interface presentable in the first display region; presenting, via a wearable extended reality appliance, a second display region beyond the predefined boundaries of the first display region, wherein the second display region is visible via the wearable extended reality appliance; providing a control for altering a location of the user interface, wherein in a first mode, the user interface is presented in the first display region while the information is presented in the first display region and in a second mode, the user interface is presented in the second display region outside the predefined boundaries of the first display region while the information is presented in the first display region; and enabling toggling between the first mode and the second mode via the control.

Classes IPC  ?

  • G06F 9/451 - Dispositions d’exécution pour interfaces utilisateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/0484 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] pour la commande de fonctions ou d’opérations spécifiques, p. ex. sélection ou transformation d’un objet, d’une image ou d’un élément de texte affiché, détermination d’une valeur de paramètre ou sélection d’une plage de valeurs
  • G06T 15/08 - Rendu de volume
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]

31.

Moving content between a virtual display and an extended reality environment

      
Numéro d'application 18089933
Numéro de brevet 11829524
Statut Délivré - en vigueur
Date de dépôt 2022-12-28
Date de la première publication 2023-07-27
Date d'octroi 2023-11-28
Propriétaire
  • SIGHTFUL COMPUTERS LTD (Israël)
  • SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Elhadad, Eli
  • Knaani, Amit
  • Kahan, Tomer
  • Berliner, Tamir
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for extracting content from a virtual display are disclosed. Extracting content from a virtual display includes generating a virtual display via a wearable extended reality appliance, wherein the virtual display presents a group of virtual objects and is located at a first virtual distance from the wearable extended reality appliance; generating an extended reality environment via the wearable extended reality appliance including at least one additional virtual object at a second virtual distance from the wearable extended reality appliance; receiving input for causing a specific virtual object to move from the virtual display to the extended reality environment; and in response, generating a presentation of a version of the specific virtual object in the extended reality environment at a third virtual distance different from the first virtual distance and the second virtual distance.

Classes IPC  ?

  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes

32.

S

      
Numéro de série 98089301
Statut Enregistrée
Date de dépôt 2023-07-18
Date d'enregistrement 2025-07-29
Propriétaire Sightful Computers Ltd (Israël)
Classes de Nice  ?
  • 09 - Appareils et instruments scientifiques et électriques
  • 42 - Services scientifiques, technologiques et industriels, recherche et conception

Produits et services

Augmented reality headsets; virtual reality headsets; augmented reality glasses; augmented reality computer hardware; smart glasses; virtual reality glasses; computer keyboards; computer mice; computer mouse in the nature of a trackpad; webcams; computer cables; laptop computers; tablet computers; downloadable operating system programs; computer programs, namely, downloadable operating system programs for an operating environment; downloadable augmented reality software for creating a customized, expanded personal workspace; downloadable augmented reality software for creating maps to navigate an augmented reality environment; downloadable augmented reality computer software for creating multi-monitor display systems; downloadable computer software for providing access to digital electronic content and experiences on the Internet and in native applications in a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; downloadable computer software for spatial computing, namely, for creating a customized, expanded personal workspace; downloadable virtual reality computer software containing virtual reality and augmented reality technology for business management and for assisting in the development of advanced augmented reality and virtual reality business software applications; mixed reality headsets; downloadable virtual reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality business software applications; downloadable augmented reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality business software applications Developing of driver and operating system software; computer graphics design services, namely, creating of 3D computer models; providing online websites that give mobile device users the ability to upload, modify and share augmented reality content, information, experiences and data; providing temporary use of online non-downloadable software for creating maps to navigate an augmented reality environment; providing online non-downloadable computer software for providing access to digital electronic content and experiences on the Internet and in native applications in a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; providing online non-downloadable software for metaverse experience, augmented reality experience, virtual reality experience, extended reality experience in the nature of software for displaying and creating digital content; providing temporary use of online non- downloadable software for use in computer applications in spatial computing in virtual, augmented and mixed reality environments; augmented reality non-downloadable computer software for creating multi-monitor display systems; providing online non-downloadable software for creating maps to navigate an augmented reality environment; computer services in the nature of developing customized web pages featuring user-defined information, personal profiles, virtual reality, and augmented reality content and data; providing temporary use of online nondownloadable cloud computing software for displaying and creating digital content for virtual and augmented reality applications and environments for use in virtual and augmented reality environments; providing temporary use of online non-downloadable augmented reality computer software for business management and for assisting in the development of advanced AR/VR business software applications

33.

Extending working display beyond screen edges

      
Numéro d'application 18101314
Numéro de brevet 12189422
Statut Délivré - en vigueur
Date de dépôt 2023-01-25
Date de la première publication 2023-06-01
Date d'octroi 2025-01-07
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Knaani, Amit
  • Terre, Doron Assayas

Abrégé

A method for augmenting a physical display with an extended reality display. A processor receives first signals representative of a first object fully presented on a physical display, second signals representative of a second object having a first portion presented on the physical display and a second portion extending beyond a border of the physical display, and third signals representative of a third object initially presented on the physical display and subsequently wholly moved beyond the border of the physical display. In response to receiving the second signals, the second portion is presented via a wearable extended reality appliance in a virtual space while the first portion is presented on the physical display. In response to receiving the third signals, the third object is wholly presented via the wearable extended reality appliance in the virtual space following the third object having been wholly presented on the physical display.

Classes IPC  ?

  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
  • H04N 23/51 - Boîtiers
  • H04N 23/57 - Détails mécaniques ou électriques de caméras ou de modules de caméras spécialement adaptés pour être intégrés dans d'autres dispositifs

34.

Color-sensitive virtual markings of objects

      
Numéro d'application 18149961
Numéro de brevet 11882189
Statut Délivré - en vigueur
Date de dépôt 2023-01-04
Date de la première publication 2023-05-18
Date d'octroi 2024-01-23
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Disclosed are systems, methods, and non-transitory computer readable media for making virtual colored markings on objects. Instructions may include receiving an indication of an object; receiving from an image sensor an image of a hand of an individual holding a physical marking implement; detecting in the image a color associated with the marking implement; receiving from the image sensor image data indicative of movement of a tip of the marking implement and locations of the tip; determining from the image data when the locations of the tip correspond to locations on the object; and generating, in the detected color, virtual markings on the object at the corresponding locations, wherein the object is a three-dimensional virtual object, and wherein the virtual markings include markings in the detected color on two traversed surfaces of the virtual representation of the physical object.

Classes IPC  ?

  • H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
  • G06V 30/14 - Acquisition d’images
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
  • G06T 7/20 - Analyse du mouvement
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
  • H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
  • H04W 4/02 - Services utilisant des informations de localisation
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06T 15/20 - Calcul de perspectives
  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 9/40 - Protocoles réseaux de sécurité

35.

Integrated computational interface device with holder for wearable extended reality appliance

      
Numéro d'application 18079263
Numéro de brevet 11927986
Statut Délivré - en vigueur
Date de dépôt 2022-12-12
Date de la première publication 2023-05-18
Date d'octroi 2024-03-12
Propriétaire SIGHTFUL COMPUTERS LTD. (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Noam, Oded
  • Tayouri, Barel

Abrégé

An integrated computational interface device may include a portable housing having a key region and a non-key region; a keyboard associated with the key region of the housing; and a holder associated with the non-key region of the housing. The holder may be configured for selective engagement with and disengagement from the wearable extended reality appliance, such that when the wearable extended reality appliance is selectively engaged with the housing via the holder, the wearable extended reality appliance is transportable with the housing.

Classes IPC  ?

  • G02C 5/02 - PontetsArcadesBarres intermédiaires
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G02C 13/00 - AssemblageRéparationNettoyage
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
  • H04N 23/51 - Boîtiers
  • H04N 23/57 - Détails mécaniques ou électriques de caméras ou de modules de caméras spécialement adaptés pour être intégrés dans d'autres dispositifs

36.

Sharing obscured content to provide situational awareness

      
Numéro d'application 18155582
Numéro de brevet 12095866
Statut Délivré - en vigueur
Date de dépôt 2023-01-17
Date de la première publication 2023-05-18
Date d'octroi 2024-09-17
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer-readable media for providing situational awareness to users of wearable extended reality appliances are disclosed. In one implementation, a non-transitory computer-readable medium contains instructions that when executed by at least one processor cause the at least one processor to: cause virtual content to be displayed through a first wearable extended reality appliance; detect a second wearable extended reality appliance in proximity to the first wearable extended reality appliance; establish a link between the first wearable extended reality appliance and the second wearable extended reality appliance; and transmit data representing at least a portion of the virtual content in an obscured form to the second wearable extended reality appliance, wherein the obscured form provides an indication of a position of the at least a portion of the virtual content in a three-dimensional space without revealing substance of the virtual content in obscured form.

Classes IPC  ?

  • H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
  • G06T 7/20 - Analyse du mouvement
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • G06T 15/20 - Calcul de perspectives
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 30/14 - Acquisition d’images
  • G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
  • H04W 4/02 - Services utilisant des informations de localisation
  • H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
  • H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie

37.

Virtual sharing of physical notebook

      
Numéro d'application 18091434
Numéro de brevet 11861061
Statut Délivré - en vigueur
Date de dépôt 2022-12-30
Date de la première publication 2023-05-11
Date d'octroi 2024-01-02
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Dolev, Orit
  • Kahan, Tomer
  • Berliner, Tamir
  • Dvir, Tomer

Abrégé

Methods, systems, apparatuses, and computer-readable media are provided for enabling collaboration between physical writers and virtual writers. In one implementation, the computer-readable medium includes instructions to cause a processor to receive, from an image sensor, image data representing a hand of a first physical writer holding a physical marking implement and engaging with a physical surface to create tangible markings. Information based on the image data is transmitted to a computing device associated with a second virtual writer, to thereby enable the second virtual writer to view the tangible markings created by the first physical writer. Annotation data are received from the computing device, and represent additional markings in relative locations with respect to the tangible markings created by the first physical writer. In response to receiving the annotation data, a wearable extended reality appliance overlays the physical surface with virtual markings in the relative locations.

Classes IPC  ?

  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
  • G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques

38.

Controlling duty cycle in wearable extended reality appliances

      
Numéro d'application 18089182
Numéro de brevet 11809213
Statut Délivré - en vigueur
Date de dépôt 2022-12-27
Date de la première publication 2023-05-04
Date d'octroi 2023-11-07
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Noam, Oded
  • Kahan, Tomer
  • Berliner, Tamir

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for performing duty cycle control operations for a wearable extended reality appliance are disclosed. Performing the duty cycle control operations includes receiving data representing virtual content in an extended reality environment associated with a wearable extended reality appliance; identifying in the extended reality environment a first display region and a second display region separated from the first display region; determining a first duty cycle configuration for the first display region; determining a second duty cycle configuration for the second display region, wherein the second duty cycle configuration differs from the first duty cycle configuration; and causing the wearable extended reality appliance to display the virtual content in accordance with the determined first duty cycle configuration for the first display region and the determined second duty cycle configuration for the second display region.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
  • G06V 10/74 - Appariement de motifs d’image ou de vidéoMesures de proximité dans les espaces de caractéristiques
  • G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes

39.

Interpreting commands in extended reality environments based on distances from physical input devices

      
Numéro d'application 18089666
Numéro de brevet 11816256
Statut Délivré - en vigueur
Date de dépôt 2022-12-28
Date de la première publication 2023-05-04
Date d'octroi 2023-11-14
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Peleg, Dori
  • Dolev, Orit
  • Terre, Doron Assayas
  • Kahan, Tomer
  • Berliner, Tamir

Abrégé

Systems, methods, and non-transitory computer readable media including instructions for selectively operating a wearable extended reality appliance are disclosed. Selectively operating the wearable extended reality appliance includes establishing a link between a wearable extended reality appliance and a keyboard device; receiving sensor data from at least one sensor associated with the wearable extended reality appliance, the sensor data being reflective of a relative orientation of the wearable extended reality appliance with respect to the keyboard device; based on the relative orientation, selecting from a plurality of operation modes a specific operation mode for the wearable extended reality appliance; identifying a user command based on at least one signal detected by the wearable extended reality appliance; and executing an action responding to the identified user command in a manner consistent with the selected operation mode.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06V 20/20 - ScènesÉléments spécifiques à la scène dans les scènes de réalité augmentée
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G10L 15/22 - Procédures utilisées pendant le processus de reconnaissance de la parole, p. ex. dialogue homme-machine
  • G06F 40/169 - Annotation, p. ex. données de commentaires ou notes de bas de page
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G09G 3/00 - Dispositions ou circuits de commande présentant un intérêt uniquement pour l'affichage utilisant des moyens de visualisation autres que les tubes à rayons cathodiques
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/73 - Détermination de la position ou de l'orientation des objets ou des caméras utilisant des procédés basés sur les caractéristiques
  • G06T 11/60 - Édition de figures et de texteCombinaison de figures ou de texte
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 1/16 - Détails ou dispositions de structure
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G06V 40/10 - Corps d’êtres humains ou d’animaux, p. ex. occupants de véhicules automobiles ou piétonsParties du corps, p. ex. mains
  • G08B 7/00 - Systèmes de signalisation selon plus d'un des groupes Systèmes d'appel de personnes selon plus d'un des groupes

40.

Tying a virtual speaker to a physical space

      
Numéro d'application 18090308
Numéro de brevet 11748056
Statut Délivré - en vigueur
Date de dépôt 2022-12-28
Date de la première publication 2023-05-04
Date d'octroi 2023-09-05
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer

Abrégé

A method for tying a virtual speaker to a physical space. A first user with a first wearable extended reality appliance enters an area associated with a virtual speaker. First sounds are transmitted from the virtual speaker to the first wearable extended reality appliance. The first user hears the first sounds at first settings of the virtual speaker. The first user changes the settings of the virtual speaker to second settings. Second sounds are transmitted from the virtual speaker to the first wearable extended reality appliance, such that the first user hears the second sounds at the second settings. After the first user leaves the area, a second user with a second wearable extended reality appliance enters the area. Third sounds are transmitted from the virtual speaker to the second wearable extended reality appliance, such that the second user hears the third sounds at the second settings.

Classes IPC  ?

  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur

41.

Systems and methods for virtual whiteboards

      
Numéro d'application 17953790
Numéro de brevet 11863311
Statut Délivré - en vigueur
Date de dépôt 2022-09-27
Date de la première publication 2023-01-19
Date d'octroi 2024-01-02
Propriétaire Sightful Computers Ltd (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Dvir, Tomer

Abrégé

Methods, systems, apparatuses, and non-transitory computer-readable media are provided for tying virtual whiteboards to physical spaces. In one implementation, the computer-readable medium includes instructions to cause a processor to receive wirelessly, an indication of a location of a first wearable extended reality appliance; perform a lookup to determine that the location of the first wearable extended reality appliance corresponds to a location of a particular virtual whiteboard; transmit to the first wearable extended reality appliance, data corresponding to content of the particular virtual whiteboard; receive, during a first time period, virtual content added by a first user; receive wirelessly at a second time period an indication that a second wearable extended reality appliance is in the location of the particular virtual whiteboard; and transmit to the second wearable extended reality appliance, data corresponding to the content and the added content of the particular virtual whiteboard.

Classes IPC  ?

  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
  • G06V 30/14 - Acquisition d’images
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
  • G06T 7/20 - Analyse du mouvement
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
  • H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
  • H04W 4/02 - Services utilisant des informations de localisation
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06T 15/20 - Calcul de perspectives
  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 9/40 - Protocoles réseaux de sécurité

42.

Virtual display changes based on positions of viewers

      
Numéro d'application 17932393
Numéro de brevet 11811876
Statut Délivré - en vigueur
Date de dépôt 2022-09-15
Date de la première publication 2023-01-12
Date d'octroi 2023-11-07
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media configured for enabling content sharing between users of wearable extended reality appliances are provided. In one implementation, the computer readable medium may be configured to contain instructions to cause at least one processor to establish a link between a first wearable extended reality appliance and a second wearable extended reality appliance. The first wearable extended reality appliance may display first virtual content. The second wearable extended reality appliance may obtain a command to display first virtual content via the second wearable extended reality appliance, and in response, this content may be transmitted and displayed via the second extended reality appliance. Additionally, the first wearable extended reality appliance may receive second virtual content from the second wearable extended reality appliance, and display said second virtual content via the first wearable extended reality appliance.

Classes IPC  ?

  • H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
  • G06V 30/14 - Acquisition d’images
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie
  • G06T 7/20 - Analyse du mouvement
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
  • H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
  • H04W 4/02 - Services utilisant des informations de localisation
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06T 15/20 - Calcul de perspectives
  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 9/40 - Protocoles réseaux de sécurité

43.

Moving content between virtual and physical displays

      
Numéro d'application 17931753
Numéro de brevet 11924283
Statut Délivré - en vigueur
Date de dépôt 2022-09-13
Date de la première publication 2023-01-05
Date d'octroi 2024-03-05
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit

Abrégé

Systems, methods, and non-transitory computer readable media configured for enabling content sharing between users of wearable extended reality appliances are provided. In one implementation, the computer readable medium may be configured to contain instructions to cause at least one processor to establish a link between a first wearable extended reality appliance and a second wearable extended reality appliance. The first wearable extended reality appliance may display first virtual content. The second wearable extended reality appliance may obtain a command to display first virtual content via the second wearable extended reality appliance, and in response, this content may be transmitted and displayed via the second extended reality appliance. Additionally, the first wearable extended reality appliance may receive second virtual content from the second wearable extended reality appliance, and display said second virtual content via the first wearable extended reality appliance.

Classes IPC  ?

  • H04L 67/131 - Protocoles pour jeux, simulations en réseau ou réalité virtuelle
  • G06T 19/20 - Édition d'images tridimensionnelles [3D], p. ex. modification de formes ou de couleurs, alignement d'objets ou positionnements de parties
  • G02B 27/00 - Systèmes ou appareils optiques non prévus dans aucun des groupes ,
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06V 30/228 - Reconnaissance de caractères caractérisés par le type d’écriture de l’écriture à la main tridimensionnelle, p. ex. en écrivant en l’air
  • G06V 30/14 - Acquisition d’images
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/20 - Analyse du mouvement
  • G06T 11/00 - Génération d'images bidimensionnelles [2D]
  • H04W 4/70 - Services pour la communication de machine à machine ou la communication de type machine
  • H04W 4/80 - Services utilisant la communication de courte portée, p. ex. la communication en champ proche, l'identification par radiofréquence ou la communication à faible consommation d’énergie
  • H04W 4/02 - Services utilisant des informations de localisation
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06T 15/20 - Calcul de perspectives
  • G06K 7/14 - Méthodes ou dispositions pour la lecture de supports d'enregistrement par radiation électromagnétique, p. ex. lecture optiqueMéthodes ou dispositions pour la lecture de supports d'enregistrement par radiation corpusculaire utilisant la lumière sans sélection des longueurs d'onde, p. ex. lecture de la lumière blanche réfléchie

44.

Keyboard with touch sensors dedicated for virtual keys

      
Numéro d'application 17657479
Numéro de brevet 11599148
Statut Délivré - en vigueur
Date de dépôt 2022-03-31
Date de la première publication 2022-08-18
Date d'octroi 2023-03-07
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Elhadad, Eli

Abrégé

Consistent with disclosed embodiments, systems, methods, and computer readable media including instructions for implementing hybrid virtual keys in an extended reality environment are disclosed. Embodiments may include a processor to receive signals from a touch-sensitive surface, wherein a wearable extended reality appliance may virtually project a plurality of virtual activatable elements on the touch-sensitive surface. The plurality of virtual activatable elements virtually projected on the touch-sensitive surface may be a proper sub-set of a group of virtual activatable elements, based on the action of a user. The processor may receive touch inputs from the user via the touch-sensitive surface and identify one of the plurality of virtual activatable elements. The processor may cause a change in virtual content based on the identified virtual activatable element.

Classes IPC  ?

  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons

45.

Integrated computational interface device with holder for wearable extended reality appliance

      
Numéro d'application 17710091
Numéro de brevet 11561579
Statut Délivré - en vigueur
Date de dépôt 2022-03-31
Date de la première publication 2022-08-11
Date d'octroi 2023-01-24
Propriétaire SIGHTFUL COMPUTERS LTD. (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Noam, Oded
  • Tayouri, Barel

Abrégé

An integrated computational interface device may include a portable housing having a key region and a non-key region; a keyboard associated with the key region of the housing; and a holder associated with the non-key region of the housing. The holder may be configured for selective engagement with and disengagement from the wearable extended reality appliance, such that when the wearable extended reality appliance is selectively engaged with the housing via the holder, the wearable extended reality appliance is transportable with the housing.

Classes IPC  ?

  • H04M 1/00 - Équipement de sous-station, p. ex. pour utilisation par l'abonné
  • G09G 5/00 - Dispositions ou circuits de commande de l'affichage communs à l'affichage utilisant des tubes à rayons cathodiques et à l'affichage utilisant d'autres moyens de visualisation
  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06Q 10/06 - Ressources, gestion de tâches, des ressources humaines ou de projetsPlanification d’entreprise ou d’organisationModélisation d’entreprise ou d’organisation
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons

46.

Keyboard sensor for augmenting smart glasses sensor

      
Numéro d'application 17711367
Numéro de brevet 11797051
Statut Délivré - en vigueur
Date de dépôt 2022-04-01
Date de la première publication 2022-08-11
Date d'octroi 2023-10-24
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Noam, Oded

Abrégé

A system and method for operating a keyboard and wearable extended reality appliance combination to control a virtual display are disclosed. The system may include a processor configured to receive, from a first hand-position sensor associated with the wearable extended reality appliance, first signals representing first hand-movements; receive, from a second hand-position sensor associated with the keyboard, second signals representing second hand-movements, wherein the second hand-movements include actions other than interactions with a feedback component; and control the virtual display based on the first signals and the second signals.

Classes IPC  ?

  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons
  • H04N 23/51 - Boîtiers
  • H04N 23/57 - Détails mécaniques ou électriques de caméras ou de modules de caméras spécialement adaptés pour être intégrés dans d'autres dispositifs
  • H04N 23/45 - Caméras ou modules de caméras comprenant des capteurs d'images électroniquesLeur commande pour générer des signaux d'image à partir de plusieurs capteurs d'image de type différent ou fonctionnant dans des modes différents, p. ex. avec un capteur CMOS pour les images en mouvement en combinaison avec un dispositif à couplage de charge [CCD] pour les images fixes
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans

47.

Systems and methods for extending a keyboard to a surrounding surface using a wearable extended reality appliance

      
Numéro d'application 17712677
Numéro de brevet 11650626
Statut Délivré - en vigueur
Date de dépôt 2022-04-04
Date de la première publication 2022-08-11
Date d'octroi 2023-05-16
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Noam, Oded
  • Terre, Doron Assayas
  • Eshel, Amir
  • Burshtein, Aviv

Abrégé

Systems, methods, and non-transitory computer readable media for virtually extending a physical keyboard are disclosed. In one implementation, a non-transitory computer readable medium contains instructions that cause a processor to: receive image data representing a keyboard placed on a surface from an image sensor associated with a wearable extended reality appliance; determine that the keyboard is paired with the wearable extended reality appliance; receive an input for causing a display of a virtual controller with the keyboard; display, via the wearable extended reality appliance, the virtual controller in a first location on the surface, with original spatial orientation relative to the keyboard; detect a movement of the keyboard to a different location on the surface; and in response to the detected movement, present the virtual controller in a second location on the surface, with a subsequent spatial orientation relative to the keyboard that corresponds to the original spatial orientation.

Classes IPC  ?

  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons

48.

Systems and methods for virtual whiteboards

      
Numéro d'application 17658002
Numéro de brevet 11627172
Statut Délivré - en vigueur
Date de dépôt 2022-04-05
Date de la première publication 2022-08-11
Date d'octroi 2023-04-11
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Dvir, Tomer

Abrégé

Methods, systems, apparatuses, and non-transitory computer-readable media are provided for tying virtual whiteboards to physical spaces. In one implementation, the computer-readable medium includes instructions to cause a processor to receive wirelessly, an indication of a location of a first wearable extended reality appliance; perform a lookup to determine that the location of the first wearable extended reality appliance corresponds to a location of a particular virtual whiteboard; transmit to the first wearable extended reality appliance, data corresponding to content of the particular virtual whiteboard; receive, during a first time period, virtual content added by a first user; receive wirelessly at a second time period an indication that a second wearable extended reality appliance is in the location of the particular virtual whiteboard; and transmit to the second wearable extended reality appliance, data corresponding to the content and the added content of the particular virtual whiteboard.

Classes IPC  ?

  • H04L 65/401 - Prise en charge des services ou des applications dans laquelle les services impliquent une session principale en temps réel et une ou plusieurs sessions parallèles additionnelles en temps réel ou sensibles au temps, p. ex. accès partagé à un tableau blanc ou mise en place d’une sous-conférence
  • H04L 9/40 - Protocoles réseaux de sécurité
  • H04L 12/18 - Dispositions pour la fourniture de services particuliers aux abonnés pour la diffusion ou les conférences
  • H04L 65/403 - Dispositions pour la communication multipartite, p. ex. pour les conférences

49.

Keyboard cover with integrated camera

      
Numéro d'application 17657234
Numéro de brevet 11601580
Statut Délivré - en vigueur
Date de dépôt 2022-03-30
Date de la première publication 2022-08-11
Date d'octroi 2023-03-07
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Knaani, Amit

Abrégé

An integrated computational interface device includes a housing, at least one image sensor, and a foldable protective cover. The housing has a key region and a non-key region, and a keyboard associated with the key region. The foldable protective cover incorporates the at least one image sensor. The protective cover is configured to be manipulated into a plurality of folding configurations, including a first folding configuration, wherein the protective cover is configured to encase the key region and at least a portion of the non-key region, and a second folding configuration, wherein the protective cover is configured to stand in a manner that causes an optical axis of the at least one image sensor to generally face a user of the integrated computational interface device while the user types on the keyboard.

Classes IPC  ?

  • H04N 5/235 - Circuits pour la compensation des variations de la luminance de l'objet
  • H04N 5/225 - Caméras de télévision
  • G06F 1/16 - Détails ou dispositions de structure
  • G06F 3/02 - Dispositions d'entrée utilisant des interrupteurs actionnés manuellement, p. ex. des claviers ou des cadrans

50.

Evolving docking based on detected keyboard positions

      
Numéro d'application 17708956
Numéro de brevet 11609607
Statut Délivré - en vigueur
Date de dépôt 2022-03-30
Date de la première publication 2022-08-11
Date d'octroi 2023-03-21
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Terre, Doron Assayas

Abrégé

Systems, methods, and non-transitory computer readable media configured for modifying the display of virtual objects docked to a movable input device are provided. In one implementation, the computer readable medium may be configured to receive image data from an image sensor, the image data representing an input device placed at a first location on a supporting surface. At least one processor may generate a presentation of at least one virtual object in proximity to the first location. Operations may include docking the at least one virtual object to the input device. The processor may determine that the input device is in a second location on the support surface. The virtual object presentation may be modified based on the second location. Operations may further include determining that the input device is in a third location removed from the support surface and modifying the virtual object presentation accordingly.

Classes IPC  ?

  • G06F 1/16 - Détails ou dispositions de structure
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/048 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI]
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06F 3/0481 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06F 3/04847 - Techniques d’interaction pour la commande des valeurs des paramètres, p. ex. interaction avec des règles ou des cadrans
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G06F 3/023 - Dispositions pour convertir sous une forme codée des éléments d'information discrets, p. ex. dispositions pour interpréter des codes générés par le clavier comme codes alphanumériques, comme codes d'opérande ou comme codes d'instruction
  • G06Q 10/0631 - Planification, affectation, distribution ou ordonnancement de ressources d’entreprises ou d’organisations
  • G06F 3/04886 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels par partition en zones à commande indépendante de la surface d’affichage de l’écran tactile ou de la tablette numérique, p. ex. claviers virtuels ou menus
  • G06F 3/0489 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant des touches de clavier dédiées ou leurs combinaisons

51.

Gesture interaction with invisible virtual objects

      
Numéro d'application 17713372
Numéro de brevet 11620799
Statut Délivré - en vigueur
Date de dépôt 2022-04-05
Date de la première publication 2022-08-11
Date d'octroi 2023-04-04
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Inventeur(s)
  • Berliner, Tamir
  • Kahan, Tomer
  • Dolev, Orit
  • Terre, Doron Assayas

Abrégé

Methods, systems, apparatuses, and non-transitory computer-readable media are provided for enabling gesture interaction with invisible virtual objects. In one implementation, the computer-readable medium includes instructions to cause a processor to receive image data captured by at least one image sensor of a wearable extended reality appliance in a field of view; display a plurality of virtual objects in a portion of the field of view; receive a selection of a specific physical object; receive a selection of a specific virtual object; dock the specific virtual object with the specific physical object; when the specific physical object and the specific virtual object are outside the portion of the field of view such that the specific virtual object is invisible to a user of the wearable extended reality appliance, receive a gesture input indicating interaction with the specific virtual object; and cause an output associated with the specific virtual object.

Classes IPC  ?

  • G06T 19/00 - Transformation de modèles ou d'images tridimensionnels [3D] pour infographie
  • G06F 3/01 - Dispositions d'entrée ou dispositions d'entrée et de sortie combinées pour l'interaction entre l'utilisateur et le calculateur
  • G06F 3/033 - Dispositifs de pointage déplacés ou positionnés par l'utilisateurLeurs accessoires
  • G06F 3/04812 - Techniques d’interaction fondées sur l’aspect ou le comportement du curseur, p. ex. sous l’influence de la présence des objets affichés
  • G06F 3/04815 - Interaction s’effectuant dans un environnement basé sur des métaphores ou des objets avec un affichage tridimensionnel, p. ex. modification du point de vue de l’utilisateur par rapport à l’environnement ou l’objet
  • G06T 7/70 - Détermination de la position ou de l'orientation des objets ou des caméras
  • G06F 3/0488 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] utilisant des caractéristiques spécifiques fournies par le périphérique d’entrée, p. ex. des fonctions commandées par la rotation d’une souris à deux capteurs, ou par la nature du périphérique d’entrée, p. ex. des gestes en fonction de la pression exercée enregistrée par une tablette numérique utilisant un écran tactile ou une tablette numérique, p. ex. entrée de commandes par des tracés gestuels
  • G06F 3/04892 - Dispositions pour commander la position du curseur fondée sur des codes indiquant les pas de déplacement du curseur d’une position à une autre, p. ex. en utilisant des touches de commande du curseur associées à des directions différentes ou en utilisant le tabulateur
  • G06F 3/16 - Entrée acoustiqueSortie acoustique
  • G06T 3/40 - Changement d'échelle d’images complètes ou de parties d’image, p. ex. agrandissement ou rétrécissement
  • G06V 40/20 - Mouvements ou comportement, p. ex. reconnaissance des gestes
  • G02B 27/01 - Dispositifs d'affichage "tête haute"
  • G06F 3/04817 - Techniques d’interaction fondées sur les interfaces utilisateur graphiques [GUI] fondées sur des propriétés spécifiques de l’objet d’interaction affiché ou sur un environnement basé sur les métaphores, p. ex. interaction avec des éléments du bureau telles les fenêtres ou les icônes, ou avec l’aide d’un curseur changeant de comportement ou d’aspect utilisant des icônes
  • G06F 3/14 - Sortie numérique vers un dispositif de visualisation
  • G09G 5/10 - Circuits d'intensité
  • G06F 3/041 - Numériseurs, p. ex. pour des écrans ou des pavés tactiles, caractérisés par les moyens de transduction

52.

SIGHTFUL

      
Numéro de série 97466134
Statut Enregistrée
Date de dépôt 2022-06-20
Date d'enregistrement 2024-04-23
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Classes de Nice  ?
  • 09 - Appareils et instruments scientifiques et électriques
  • 42 - Services scientifiques, technologiques et industriels, recherche et conception

Produits et services

Augmented reality headsets; virtual reality headsets; augmented reality glasses; augmented reality computer hardware; smart glasses; virtual reality glasses; computer keyboards; computer mice; computer mouse in the nature of a trackpad; webcams; computer cables; laptop computers; tablet computers; downloadable operating system programs; computer programs, namely, downloadable operating system programs including an operating environment; downloadable augmented reality software for creating a customized, expanded personal workspace; downloadable augmented reality software for navigating an augmented reality environment; downloadable augmented reality computer software for creating multi-monitor display systems; downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; downloadable computer software for spatial computing, namely, for creating a customized, expanded personal workspace; downloadable virtual reality computer software containing virtual reality and augmented reality technology for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; mixed reality headsets; downloadable virtual reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; downloadable augmented reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications Developing of driver and operating system software; computer graphics design services, namely, creating of 3D computer models; providing online websites that give users the ability to upload, modify and share augmented reality content, information, experiences and data; providing temporary use of online non-downloadable software for navigating an augmented reality environment; providing online non-downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; providing online non-downloadable software for metaverse experience, augmented reality experience, virtual reality experience, extended reality (XR) experience; providing temporary use of online non- downloadable software for use in computer applications in spatial computing in virtual, augmented and mixed reality environments; augmented reality non-downloadable computer software for creating multi-monitor display systems; providing online non-downloadable software for navigating an augmented reality environment; computer services in the nature of customized web pages featuring user-defined or specified information, personal profiles, virtual reality, and augmented reality content and data; providing temporary use of online non-downloadable cloud computing software for virtual and augmented reality applications and environments for use in virtual and augmented reality environments; providing temporary use of online non-downloadable augmented reality computer software for business management and for assisting in the development of advanced AR/VR business software applications

53.

SPACETOP

      
Numéro de série 97414008
Statut Enregistrée
Date de dépôt 2022-05-17
Date d'enregistrement 2024-04-23
Propriétaire SIGHTFUL COMPUTERS LTD (Israël)
Classes de Nice  ?
  • 09 - Appareils et instruments scientifiques et électriques
  • 42 - Services scientifiques, technologiques et industriels, recherche et conception

Produits et services

Augmented reality headsets; virtual reality headsets; augmented reality glasses; augmented reality computer hardware; smart glasses; virtual reality glasses; computer keyboards; computer mice; computer mouse in the nature of a trackpad; webcams; computer cables; laptop computers; tablet computers; downloadable operating system programs; computer programs, namely, downloadable operating system programs including an operating environment; downloadable augmented reality software for creating a customized, expanded personal workspace; downloadable augmented reality software for navigating an augmented reality environment; downloadable augmented reality computer software for creating multi-monitor display systems; downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; downloadable computer software for spatial computing, namely, for creating a customized, expanded personal workspace; downloadable virtual reality computer software containing virtual reality and augmented reality technology for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; mixed reality headsets; downloadable virtual reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications; downloadable augmented reality computer software for business management and for assisting in the development of advanced augmented reality and virtual reality (AR/VR) business software applications Developing of driver and operating system software; computer graphics design services, namely, creating of 3D computer models; providing online websites that give users the ability to upload, modify and share augmented reality content, information, experiences and data; providing temporary use of online non-downloadable software for navigating an augmented reality environment; providing online non-downloadable computer software for providing access to digital electronic content and experiences including a metaverse, virtual reality, augmented reality, mixed reality, extended reality, or a combination thereof; providing online non-downloadable software for metaverse experience, augmented reality experience, virtual reality experience, extended reality (XR) experience; providing temporary use of online non- downloadable software for use in computer applications for spatial computing in virtual, augmented and mixed reality environments; augmented reality non-downloadable computer software for creating multi-monitor display systems; providing online non-downloadable software for navigating an augmented reality environment; computer services in the nature of customized web pages featuring user-defined or specified information, personal profiles, virtual reality, and augmented reality content and data; providing temporary use of online non-downloadable cloud computing software for virtual and augmented reality applications and environments for use in virtual and augmented reality environments; providing temporary use of online non-downloadable augmented reality computer software for business management and for assisting in the development of advanced AR/VR business software applications