En avril dernier, Google a annoncé le projet Glass. Son but est de construire un ordinateur portable qui enregistre votre environnement et vos besoins, les analysent et vous renvoient des informations ou résultats de manière naturelle dans vos verres. Avec le projet Glass, on pourra aussi améliorer notre mémoire visuelle externe en retrouvant par exemple les clés de voiture égarées. Malheureusement, il n’y a pas de date de sortie officielle de Google Glass pour le public. Une édition développeur est prévue pour le début de cette année au prix de 1500$ pour un produit qui va probablement être inachevé. La version finale ne sera pas disponible avant 2014 au plus tôt.
Mais si Google est capable de développer un tel dispositif, cela signifie que les composants sont maintenant disponibles et tout le monde devrait être en mesure de développer le tien aussi. La plupart des composants requis pour un système de type Google Glass sont très similaires à ce que vous pouvez déjà trouver dans un smartphone (processeur, accéléromètres, appareil photo, interfaces réseau). Le véritable défi est d’assembler tous ces éléments en un système portable qui pourra présenter des informations sous forme d’images près de l’œil.
On a besoin besoin d’un micro avec un écran entre 0,3 et 0,6 pouces de diagonale avec une résolution d’au moins 320 par 240 pixels. La plupart des micro-écrans accepte une entrée vidéo composite ou VGA; le premier étant le plus facile avec lequel je peux travailler. Une recherche rapide sur le site Alibaba donnent plusieurs solutions. La plupart des fournisseurs se feront un plaisir de répondre à la commande d’un seul écran avec les équipements de commande électronique correspondants si vous les contacter directement. Toutefois, les optiques correspondantes pour le montage de ces écrans sont trop volumineux vu qu’elles doivent être placées directement en face de l’œil.
Pour construire un appareil élégant, il fallait être en mesure de monter l’écran sur le côté de la tête et amener l’image autour de l’œil. Cette configuration est effectivement facile à faire si vous avez le bon équipement. Heureusement, de retour en 2009, une société appelée Myvu (maintenant n’en fabrique plus) a vendu des écrans en forme de visiocasques pour les appareils iOS. Les produits Myvu étaient lisses et petites car ils utilisaient un système optique ingénieux à côté des écrans montés.
J’ai pu obtenir un Myvu Crystal sur eBay pour un peu moins de 100$. Dans cet équipement, j’ai pu trouvé plusieurs composants nécessaires pour mon ordinateur portable: une optique, un micro-écran de 0.44 pouce, et un contrôleur d’affichage capable de gérer une entrée vidéo composite. Pour la trame sur laquelle sera installé l’écran, j’ai essayé plusieurs sortes de lunettes de sécurité avant de l’installer sur celles qui fonctionnent le mieux.
Ensuite, j’avais besoin d’un ordinateur de bord. Vu que j’utilisais un contrôleur d’affichage acceptant une entrée vidéo composite, le choix évident était un smartphone ou un lecteur médias programmable avec une sortie vidéo analogique comme un iPhone d’Apple de modèle antérieur, un iPod Touch, ou l’un des multiples téléphones sous Android. Après avoir examiné les dimensions de tous ces systèmes, il est clair qu’avoir tous ces composants montés sur la tête (comme la Google Glass) n’est pas une option viable. Mais ce serait plus intéressant si l’ordinateur de bord devient un élément séparé qui réside dans une poche et fait fonctionner le micro-écran par l’intermédiaire d’un câble.
J’ai ainsi utilisé un iPod Touch de quatrième génération. J’ai dû le jailbreaker, ce qui élimine les limitations du logiciel iOS d’Apple. Une fois cela fait, je pu reproduire l’affichage principal du Touch sur le micro-écran à l’aide de sa sortie vidéo composite. Vu que l’ipod touch choisit réside dans la poche, il me fallait une camera miniature qui servirai à enregistrer les images et la vidéo. Cette caméra miniature devrait pouvoir communiquer via l’iPod Touch par Wi-Fi ou par bluetooth. J’ai donc utilisé la camera bluetooth Looxcie qui est assez petit pour être monté sur le côté du verre une fois que vous le dépouiller de sa coquille en plastique. Vous pouvez le commander en ligne pour environ 150$. (Je suis déjà entrain de construire la seconde version de mon prototype avec un Raspberry Pi. Cela permettra un meilleur contrôle de la caméra par rapport à l’application iOS fonctionnant avec Looxcie et une meilleure intégration de capteurs tels que les accéléromètres.).
Mon monde a changé le jour où j’ai porté mon prototype. Au début, il y avait la déception car mon logiciel était rudimentaire et le câble vidéo qui quittait du verre et qui descendait vers l’ordinateur de bord était très encombrant. Puis il y a eu un malaise quand j’ai été submergé, pendant que je tenais une conversation, d’informations sur Internet (notifications, les statuts de serveurs, les cours des actions et des messages) diffusées à travers le micro-écran. Lorsque les piles se sont déchargées quelques heures plus tard et le prototype éteint, j’ai eu un sentiment de perte. C’était comme si un de mes sens avait été emmenée loin de moi. Et je n’avais pas anticipé cette sensation.
Quand je porte mon prototype, je suis connecté avec le monde d’une façon différente par rapport avec mon smartphone ou mon ordinateur. Nos cerveaux sont désireux d’intégrer de nouveaux flux d’informations dans notre modèle mental du monde. Une fois la période initiale d’adaptation terminée, ces flux d’informations de réalité augmentée disparaissent lentement dans le fond de nos esprits vu que l’effort conscient est remplacé par le suivi subconscient.
L’idée clé que j’ai eu tout en portant ma propre version de Google Glass, c’est que la vraie valeur de l’informatique visuelle portable ne sera pas dans le but initial de supporter la réalité augmentée en superposant simplement des informations sur les lieux. Au lieu de cela, la plus grande valeur sera dans la deuxième génération d’applications qui fournira une mémoire complète et la cognition augmentée. Imaginez être capable d’appeler (et partager) tout ce que vous avez vu, ou lire les transcriptions de toutes les conversations que vous avez eu, avoir les noms et les visages de tous ceux que vous avez rencontré. Imaginez toute l’information contextuelle supplémentaire qui vous est relayée automatiquement de sorte que vous puissiez gagner toute discussion (ou débat) ou impressionner votre amoureuse.
Créer du logiciel et du matériel pour une telle “prothèse cérébrale” est certainement dans le domaine du possible pour la prochaine décennie et je m’attends à voir ces fonctionnalités être adoptées massivement par la technologie du Google Glass.
Qui suis-je? Je m’appelle Rod Furlan et je suis un chercheur et investisseur dans l’intelligence artificielle. Vous pouvez me retrouver sur BitCortex.
Source : ieee