Le contenu internet est un element essentiel,

Le contenu est roi.

Le contenu est souvent long à générer, que ce soit en texte ou en images, et plus encore vidéo. Le contenu est généré par des redacteurs internes ou externes, mais parfois également par les utilisateurs eux mêmes. Enfin le contenu est aussi généré par des automates et l’intelligence artificielle.

L’intelligence artificielle, un bien grand mot, qui exprime un ou plusieurs programmes (logiciels) et des bases de données (souvent immenses), de la statistiques et un grain de sable humain.

Comment peut-on automatiser la production du contenu ?

Il suffirait d’extraire des données d’une base de données en assurant une jointure avec d’autres bases de données. Ces bases de données peuvent être elles même alimentés ou traités par des utilisateurs. Enfin une dernière base de données s’alimente de ces interactions se basant sur des mots clés, des statistiques. L’ordinateur apprend grâce à ces datas.

Google et Facebook, ce sont des datas

Les deux outils disposent d’une masse d’information pratiquement non mesurables. Je me souviens au début Google annonçait sur sa page d’accueil le nombre de pages indexés… c’était au début.

Comment fonctionne le robot de Google ?

Essayons d’expliquer comment il est alimenté ou comment est alimenté un moteur de recherche par un robot d’indexation.

Le robot d’indexation

Le robot d’indexation de Google, mais aussi ceux des autres moteurs de recherche, se nourri d’url, les adresses des pages internet. Il dispose donc d’une base de données d’url. Il lit donc cette base de données d’une façon séquentielle :

  1. Lire une url dans la base de données
  2. visiter cette url
  3. lire le code source de cette page
  4. inserer le code source dans une base de données
  5. Lire l’url suivante dans la base de données.

Un autre robot va pendant ce temps

  1. lire la base de données des nouveaux codes sources
  2. extraire les données interessantes
  3. les stocker dans une autre base de données selon des critères spécifiques.
  4. lire le code source suivant

Enfin un troisième robot entre en action pour attribuer des points à chaque mot clé d’une url.

Un quatrième robot va scruter les urls des bases de données pour calculer les liens d’une url et leur attribue des points qui vont servir à pondérer les points la base de données de mot clé. 

Tous ces points vont servir à établir un classement dans le moteur de recherche.

Bien évidement l’analyse de fonctionnement de Google et des moteurs de recherche est plus complexe en réalité et le moteur de recherche dispose de bien plus de robots et de bases de données. Vous trouverez sur le site d’abondance d’Olivier Andrieu une vaste lecture sur le sujet des moteurs des moteurs de recherche.

Ce que l’on peut voir ici cependant est l’automatisation de la génération de contenu pour Google et son traitement. Le contenu c’est le votre qui est retravaillé par l’intelligence artificielle pour servir Google de contenu.

 

Sur Facebook aussi les bases de données et les robots sont la pour traiter l’information. 

 

Gilbert Wayenborgh
Suivez moi