in

Un brevet Apple indique que Siri pourrait être entraîné à lire sur vos lèvres

Un brevet Apple indique que Siri pourrait être entraîné à lire sur vos lèvres

Comme pour de nombreuses demandes adressées au robot d’assistance d’Apple, demander à Siri de « lire sur mes lèvres » revient avec un message « Je ne suis pas sûr de comprendre ». Après tout, Apple a jusqu’à présent évité de trop parler sur les systèmes d’IA modernes. Pourquoi le service de reconnaissance vocale voudrait-il aussi me regarder comme HAL 9000 de 2001 : L’odyssée de l’espace?

Une nouvelle révélée brevet depuis Apple montre que la société a activement réfléchi à ce qu’est un propriétaire lèvre-programme de lecture ressemblerait. La demande de brevet a été initialement déposée en janvier cette année et décrit un système pour déterminer si des « données de mouvement » correspondent à un mot ou à une phrase. Les diagrammes mentionnent spécifiquement Siri avec des commandes vocales simples telles que « Hey Siri », « sauter » ou « chanson suivante », et comment toutes ces entrées peuvent être améliorées grâce à un algorithme analyser les pièces buccales des utilisateurs.

Comme l’a d’abord noté par Apple Insider, Apple explique qu’il y a des problèmes évidents avec les systèmes de reconnaissance vocale tels que Siri. Les voix peuvent être déformées par le bruit de fond, et d’autres capteurs qui surveillent en permanence la voix des gens consomment beaucoup de batterie et de puissance de traitement. Un tel système n’utiliserait pas nécessairement la caméra d’un appareil. Au lieu de cela, le logiciel de reconnaissance vocale utiliserait l’un des capteurs de mouvement du téléphone pour enregistrer le la bouche, le cou ou la tête et déterminer si l’un de ces mouvements pourrait indiquer parole humaine.

A Lire aussi  Les cristaux d'Apollo révèlent le véritable âge de la Lune

Ces capteurs pourraient être un accéléromètre ou un gyroscope attaché, ce qui, selon Apple dans son brevet, est beaucoup moins susceptible d’être corrompu par des stimuli indésirables qu’un microphone.. Il ne doit pas s’agir uniquement d’un téléphone, car le brevet décrit comment ce type de technologie de détection de mouvement pourrait être intégré dans AirPods ou même une vague référence aux « lunettes intelligentes », qui puis envoyez ces données à l’iPhone d’un utilisateur. Les appareils pourraient détecter les muscles faciaux subtils, les vibrations ou les mouvements de la tête, selon le document. Bien sûr, Les rêves d’Apple de lunettes intelligentes sont morts il y a des annéesmais l’entreprise espère de grandes choses avec son Casque VisionPro.

A Lire aussi  pourquoi les politiques publiques à destination des quartiers prioritaires n’ont-elles pas fonctionné ?

Pour ce genre de système, Apple aurait besoin de beaucoup de données sur comment les humains utilisent leurs pièces buccales. L’entreprise pourrait mettre en place un « profil vocal » pour les utilisateurs du système. Siri est déjà censé reconnaître un iPhone la voix des principaux utilisateurs, mais celle d’Apple fonctionnalités d’accessibilité récentes ont élargi cette capacité de capture vocale. La fonctionnalité Live Speech sur iOS peut enregistrer les profils vocaux des utilisateurs, qui sont ensuite utilisés par un système de synthèse vocale pour copier ces intonations et ces motifs vocaux.

Apple parle alors d’un « premier modèle de langage » qui devrait être entraîné sur des exemples d’ensembles de données. Il n’est pas clair si cela nécessiterait un modèle d’apprentissage automatique, mais il serait logique de former un modèle d’IA pour reconnaître les mouvements du visage à partir d’un vaste ensemble de données. Cela s’inscrit dans le paradigme actuel d’Apple consistant à placer l’IA en arrière-plan des nouvelles fonctionnalités. L’entreprise n’a fait référence à un « modèle de langage de transformateur » qu’une seule fois à son dernière WWDC quand on parle du nouveau de l’entreprise fonctionnalités de correction automatique à venir sur iOS 17.

A Lire aussi  une stratégie trois étoiles pour son territoire

Bien sûr, Apple dépose beaucoup de brevets, certains un peu plus fous que d’autres. Tous ne sont pas transformés en produits. Mais comme cela est si récent, il contient un peu plus de substance que quelques-unes des autres idées de la société Cupertino. Gizmodo a contacté Apple pour un commentaire, mais nous n’avons pas immédiatement entendu de réponse.

Ming-Chi Kuo, analyste de la chaîne d’approvisionnement d’Apple écrit Hier, les progrès d’Apple en matière d’IA générative étaient « considérablement en retard sur ses concurrents », et rien n’indiquait que l’entreprise intégrerait ce type de modèles d’apprentissage en profondeur à ses produits matériels cette année ou la suivante. C’est malgré les rapports Apple a développé son propre chatbot interne nom de code « Apple GPT ». Apple pourrait travailler pour ajouter plus d’IA capacités à Sirid’autant plus que de nombreuses autres applications ont déjà créé les leurs Assistants vocaux basés sur l’IA pour les produits Apple.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

GIPHY App Key not set. Please check settings

Lil Wayne à l’IA : accourez, puis

Lil Wayne à l’IA : accourez, puis

Au Niger, les putschistes dénoncent des accords militaires avec la France, Bazoum très inquiet pour le Sahel

Au Niger, les putschistes dénoncent des accords militaires avec la France, Bazoum très inquiet pour le Sahel