L'un des documents du brevet contient plusieurs schémas montrant un doigt entrant dans la proximité du "champ de détection" d'un élément spécifique (un bouton par exemple) dans l'interface utilisateur, affiché sur l'écran d'un périphérique qui ressemble à une tablette. Le système permet alors à un "élément particulier l'interface graphique," comme un clavier virtuel, d'apparaître. Après avoir tapé le texte, les doigts s'éloignent de l'écran, le système désactive l'objet et le fait disparaitre de l'écran. La technologie décrite laisse entrevoir les possibilités du « proximity sensing » et montre comment Apple peut offrir à l'utilisateur mobile une expérience beaucoup plus souple et plus fluide, dans une interface où les éléments semblent flotter les uns au-dessus des autres. L'interface graphique a évolué pour devenir moins évidente, perdant au passage sa fonction d'intermédiaire comme c'est le cas avec le système actuel des fenêtres et des éléments contrôlés à la souris ou au clavier. Mais l'interface utilisateur multitouch réalisée pour l'iPhone et l'iPod Touch a marqué une étape dans la façon de faire interagir l'utilisateur avec un appareil portable. L'approche est similaire à celle préconisée par l'ancien chercheur de l'Université de New York, Jeff Han, qui avait fait en 2006 la démonstration d'un écran tactile très sophistiqué à la conférence annuelle de la TED. Au cours de sa démonstration, Jeff Han avait, à plusieurs reprises, envisagé le fait que l'interface conventionnelle, celles des claviers physique et virtuel, disparaîtrait au profit d'une interface tactile pour la manipulation des données et des images. Depuis, il a fondé Perceptive Pixel, une entreprise à l'origine du Multi-Touch Wall réalisé en 2008 et utilisé par le réseau câblé CNN. La vidéo de Jeff Han sur le site www.ted.com