Avec ses expérimentations de réseaux neuronaux informatiques, Google bouleverse le potentiel de la recherche contextuelle et ouvre la porte à de nouveaux usages appliqués à des projets en cours, Google Cars et Glass en tête.
Google Now ou Field Trip sont les
premiers pas, plus ou moins maladroits, de Google dans le monde de la
connexion permanente, où l’information n’est plus recherchée mais
fournie avant même qu’elle soit demandée par l’utilisateur. Ainsi Field Trip, quand il se sera enrichi,
proposera avec précision les informations sur tout votre environnement
en fonction de votre géolocalisation et de l’heure, par exemple.
Auto-apprentissage
En juin dernier, Google annonçait avoir créé son premier cerveau.
En fait, un logiciel d’auto apprentissage, bénéficiant de la puissance
d’un ensemble de 16 000 processeurs, ce que Google appelle une structure
d’apprentissage à grande échelle sans supervision. Un cerveau qui à
l’issu de tests poussés avait été capable d’apprendre seul à reconnaître
un chat. En soi une performance digne de HAL et de Skynet.
Dans un article de la revue technologique du MIT, on apprend que Google ne s’est pas arrêté en si bon chemin
et que son cerveau continue à apprendre, selon ses propres
préférences : « les réseaux neuronaux choisissent par eux mêmes à quel
ensemble de données ils vont prêter attention, et quels schémas
importent, sans qu’une intervention humaine décide, par exemple, de la
couleur ou d’une forme particulièrement intéressante pour le logiciel
qui essaie d’identifier des objets ».
Reconnaissance vocale
Ainsi,
selon la revue du MIT, Google utilise ses réseaux neuronaux pour
améliorer ses technologies de reconnaissance vocale. Un effort qui n’a
pas été vain, puisque Vincent Vanhoucke, responsable de la
reconnaissance vocale chez Google, reconnaissait que « nous avons
améliorer (ses performances) de 20 à 25% en termes de (détection de)
mots erronés. (…) Ce qui veut dire que plus de personnes bénéficieront
d’une expérience parfaite, sans erreur ». Une progression limitée pour
l’instant à l’anglais américain, mais qui pourrait être appliquée à
toutes les langues, une fois la technologie utilisée avec ces autres
dialectes et idiomes.
Pour donner un exemple des capacités de
reconnaissance vocale, si le système pense avoir entendu quelqu’un
dire : « je vais manger des lychees », mais n’est pas sûr d’avoir bien
saisi « lychee », il vérifiera dans son ensemble de connaissances que le
lychee est un fruit, qu’on l’utilise aussi dans le même contexte que
« pomme » ou « orange » et qu’il est donc fort probable qu’on puisse
« manger des lychees ».
Applications infinies
Par
ailleurs, Jeff Dean, un des responsables de ce projet, détaille
l’application de ce système à la reconnaissance simultanée de texte et
d’une image. Ainsi, si on montre une image de lapin, le logiciel
affichera le mot « lapin ». Là où la surprise se teinte de science
fiction, c’est que la prochaine étape pourrait être d’utiliser le même
modèle pour apprendre le son des mots. Ainsi, le « cerveau » de Google
serait capable de reconnaître un mot prononcé et l’image qui le
représente, y compris dans une vidéo ou dans la réalité. Une utilisation
qui pourrait avoir des utilisations aussi bien dans le cadre de
téléviseurs connectés que dans le cadre des Google Cars, ces voitures
sans conducteur, qui doivent être capables de réagir à leur
environnement sans intervention d’un humain, ou encore en utilisant un
smartphone.
Un cerveau qui se ne lasse jamais
Les
réseaux neuronaux informatiques de Google fonctionnent de manière très
proche des cortex visuels des mammifères, qui découvrent par eux mêmes
de nouveaux objets, par exemple. Pour l’instant, ce « cerveau » n’est
pas capable d’égaler le nôtre, pour autant, indique Jeff Dean, pour
certaines tâches, il est plus performant. C’est notamment le cas quand
on lui demande, dans Street View, de repérer le numéro d’une maison.
« C’est probablement que ce n’est pas très stimulant et qu’un ordinateur
ne se lasse jamais. », conclut-il.
Tous ces usages dessinent le contour
d’un monde où les recherches n’existeront plus ou seront
fondamentalement différentes. Les périphériques connectés en permanence
pourront voir ce que vous verrez (Google Glass), entendre ce que vous
entendrez (smartphone) ou même lire ce que vous lirez. A partir de
toutes ces données, ils seront à même de vous offrir en temps réel
toutes les informations complémentaires que vous souhaiterez et répondre
à toutes vos questions « contextuelles ». A l’exception d’une,
peut-être. Qu’en sera-t-il de votre vie privée et de l’utilisation des
données collectées ?