Apple obtient le brevet "proximity sensing" pour écran tactile multitouch
Apple a obtenu de l'US Patent & Trademark Office la validation de son brevet pour un affichage tactile multi-touch capable de détecter la position du doigt quand il se trouve à proximité de l'écran.
Ce brevet est l'un des 13 accordés à Apple, peu avant le dévoilement de sa tablette multitouch iPad mercredi. Le fait a été signalé par Patently Apple, un site internet qui permet de suivre les demandes de brevet et les prix reçus par la société, sorte d'indicateur des innovations et des investissements réalisés par Apple en matière technologique.
En tapant le numéro de brevet 7653883 dans le moteur de recherche de l'US Patent and Trademark Office qui donne accès à la totalité du contenu, on peut voir que le «proximity sensing, » déposé initialement au cours du troisième trimestre 2005 par Apple, s'applique à plusieurs techniques différentes, seules ou associés, et concerne la capacité de détection à proximité d'un objet tel que le doigt ou le stylet. Les techniques concernées incluent l'ombre optique, les champs électrique, inductif, capacitif et autres, un ou plusieurs capteurs.
Patently Apple suggère que le coeur du brevet peut effectivement concerner la maîtrise de la technologie de détection de proximité et étend cette capacité à l'interface visuelle de l'utilisateur. Ce brevet fait partie d'une série d'applications qu'Apple utilise dans la technologie d'affichage, y compris celle qui rend les pixels des écrans LCD "tactiles", laquelle permet d'éliminer plusieurs couches dans la technologie d'écran actuelle, pour obtenir un écran plus lumineux, plus mince et plus léger. Un récent brevet déposé par Apple confirme que l'entreprise californienne met au point une technique pour réaliser des écrans tactiles plus minces, et plus lumineux pour ses ordinateurs portables et ses appareils mobiles, l'iPhone en particulier.
[[page]]
L'un des documents du brevet contient plusieurs schémas montrant un doigt entrant dans la proximité du "champ de détection" d'un élément spécifique (un bouton par exemple) dans l'interface utilisateur, affiché sur l'écran d'un périphérique qui ressemble à une tablette. Le système permet alors à un "élément particulier l'interface graphique," comme un clavier virtuel, d'apparaître. Après avoir tapé le texte, les doigts s'éloignent de l'écran, le système désactive l'objet et le fait disparaitre de l'écran. La technologie décrite laisse entrevoir les possibilités du « proximity sensing » et montre comment Apple peut offrir à l'utilisateur mobile une expérience beaucoup plus souple et plus fluide, dans une interface où les éléments semblent flotter les uns au-dessus des autres. L'interface graphique a évolué pour devenir moins évidente, perdant au passage sa fonction d'intermédiaire comme c'est le cas avec le système actuel des fenêtres et des éléments contrôlés à la souris ou au clavier. Mais l'interface utilisateur multitouch réalisée pour l'iPhone et l'iPod Touch a marqué une étape dans la façon de faire interagir l'utilisateur avec un appareil portable.
L'approche est similaire à celle préconisée par l'ancien chercheur de l'Université de New York, Jeff Han, qui avait fait en 2006 la démonstration d'un écran tactile très sophistiqué à la conférence annuelle de la TED. Au cours de sa démonstration, Jeff Han avait, à plusieurs reprises, envisagé le fait que l'interface conventionnelle, celles des claviers physique et virtuel, disparaîtrait au profit d'une interface tactile pour la manipulation des données et des images. Depuis, il a fondé Perceptive Pixel, une entreprise à l'origine du Multi-Touch Wall réalisé en 2008 et utilisé par le réseau câblé CNN.
La vidéo de Jeff Han sur le site www.ted.com