[Tribune] Le paradoxe Google : être plus "machine" pour un search plus humain
Le 26 octobre de l'an 2015, Greg Corrado, Senior Research Scientist chez Google, annonçait dans une interview video concédée à Bloomberg le déploiement de Rankbrain, un algorithme auto-apprenant destiné à améliorer la qualité des résultats de recherche fournis par l'emblématique et universel moteur de recherche.
Cette annonce contenait une information surprenante : au dire de Greg Corrado, Rankbrain, à peine lancé, était devenu en très peu de temps le troisième critère déterminant parmi les quelques centaines qui définissent la position d'une URL dans les résultats !
L'IA plus efficace que les humains...
Google confie ainsi une part de l'évolution de son heuristique ultra-secrète, le coeur du coeur de sa machine à cash, à une Intelligence Artificielle qui, d'après Greg Corrado, est d'ores et déjà plus efficace que ses ingénieurs spécialisés pour réaliser une recherche. Cette IA cherche déjà mieux qu'un humain, bien qu'elle ne soit encore qu'un bébé algorithme qui n'a pas eu beaucoup de temps pour se confronter au terrain !
Cette nouveauté secoue un peu les puces philosophiques. Entre le Al de 2001 Odyssée de l'espace, et l'ULTRON du dernier Marvell Avengers, cela fait belle lurette que l'on nous promet qu'un de ces petits génies ultra-techno prendra la main sans vergogne sur notre pauvre humanité, avec les motivations les plus logiques du monde. Pourquoi pas l'ubiquiste moteur universel...
Lire aussi : Google, TF1, M6, Inoxtag, Meta... Médias et réseaux sociaux : quoi de neuf ? (18 - 22 novembre)
Une telle évolution répond parfaitement aux besoins naissant de la recherche vocale, dont l'explosion suit celle de l'usage mobile. On ne parle pas comme on écrit et on est volontiers plus disert et moins précis quand on questionne " OK GOOGLE... ".
Hummingbird [algorithme que Google a lancé en 2013, NDLR] avait déjà pour objectif d'amorcer cette dynamique en réduisant les ambiguïtés lexicales et autres complexités idiomatiques propres à la langue parlée.
Rankbrain va plus loin en permettant à Google de s'adapter rapidement aux 15% de requêtes nouvelles qui surgissent quotidiennement : nouvelles collocations fréquentes, néologismes " historiques " (Je suis Charlie), buzz sociaux (Ice Bucket Challenge) et coups de coeur des médias créent en un clin d'oeil tant d'expressions inconnues la veille. Et c'est sans compter les requêtes improbables du type " donne-moi le nom de l'acteur principal du film de l'année dernière où les cow-boys ont des fusils laser. Ah oui ! C'est avec le type de James Bond "...
Pour mieux en prendre la mesure, Michel Serre, célèbre philosophe et Académicien français, expliquait récemment que le dictionnaire était remis en cause par les académiciens tous les 15 ans, et qu'à chaque mouture, 4 000 mots environ apparaissaient ou disparaissaient de notre langue. Sauf pour la dernière repasse, au travers de laquelle ce sont 37 000 vocables qui ont été remis en cause !
Stratégiquement, tout cela est très ennuyeux pour un référenceur car ce dernier construit " pour durer " un édifice en pierre de taille, pas de la maison Merlin, pas de l'éphémère. Et si même Google, avec ses moyens pléthoriques, pense que la meilleure façon de tenir compte de la variabilité croissante de la sémantique est l'intelligence artificielle, il est urgent que le monde du référencement fasse évoluer sa panoplie.
C'est déjà en partie le cas avec l'avènement de plus en plus patent des outils de détection de buzz et de curation de contenu. En effet, la seule vraie façon de " suivre " l'évolution sémantique est de positionner en permanence des contenus adaptés. Si l'équation est simpliste à résoudre en théorie, elle se heurte dans le monde réel à la difficulté de produire, temporellement et économiquement. La curation semi automatisée offre une solution intéressante, qui a encore beaucoup à offrir.
L'autre axe porteur à creuser est l'utilisation des outils d'analyse sémantique qui appliquent la Big Data à n'importe quel type de contenu, de la liste de course à " 50 nuances de Grey " et permettent d'extraire des corpus de mots et de suivre leur évolution. Big Data contre Big Brain, mesures et contre-mesures...
En effet, si beaucoup de nouvelles expressions apparaissent en permanence, regroupant des mots qui n'avaient aucune raison d'être ensemble auparavant, la meilleure façon pour le référencement de coller au terrain est de détecter statistiquement la présence de ces locutions dès qu'elles pointent leur nez, ce qui nécessite des outils ad hoc.
La démarche de Google vis-à-vis des contenus est à ce propos très cohérente puisque Google News indexe depuis peu des sources de contenus qui n'étaient pas spécifiquement inscrites comme media. Le message en filigrane est clair : " si vous êtes une marque et que vous produisez du contenu de qualité, nous lui donnerons autant de chances d'être visible qu'un contenu media. ". Mauvaise nouvelle pour les medias qui risquent d'y perdre un peu de visibilité mais une aubaine pour le " brand content " des marques, depuis le temps qu'elles souhaitent devenir des medias...
Enfin, lorsque l'on analyse l'évolution de produits comme Google My Business, il semblerait que Google tienne de plus en plus compte du comportement des utilisateurs. Ainsi un résultat plus cliqué qu'un autre se verra attribuer une position plus élevée qu'une autre, à optimisation SEO égale. Ainsi, pour avoir (et conserver) une bonne position, mieux vaut offrir à un être humain une bonne expérience utilisateur, là ou on se serait contenté d'offrir auparavant de quoi nourrir au mieux un moteur.
Voilà de quoi rapprocher les besoins du référencement et ceux de l'UX (User Experience) si chère, à juste titre, au marketeur. Jusque-là, les deux démarches souffraient souvent d'objectifs antagonistes.
La Fontaine se servait des animaux pour mieux peindre les hommes, Google se fait machine pour être plus humain.
On n'arrête pas le progrès.
Sur le même thème
Voir tous les articles IA