Net Concept était au WebCampDay. On vous raconte

Vous ne connaissez pas le WebCampDay et pourtant tout ce qui touche de près ou de loin au digital vous botte bien, alors découvrez ce que vous avez manqué pour cette édition 2018.

Le WebCampDay c’est quoi ? Un événement web marketing à Angers avec des conférences sur le SEO, le SEA, l’UX, la RGPD, l’e-mailing et tout et tout. Leur objectif : devenir les Vieilles Charrues de l’événement web marketing. Ambitieux ! Net Concept, en tant qu’agence angevine spécialisée dans la création et la refonte de sites web institutionnels, se devait d’y être.

Dès l’arrivée on est chouchouté avec un tote bague fourni (avec même de bons chocolats dedans) et un petit déjeuner pour bien commencer la journée. On vous fait un petit résumé des conférences auxquelles on a assisté. 1ère conférence : Tout savoir sur le modèle RoPo (Research Online Purchase Offline) dans le tourisme William Reynaert est le fondateur dirigeant de Terres Lointaines, tour opérateur spécialiste de voyages sur-mesure dans le monde entier. Avec un ticket moyen à 2700€ (soit en moyenne le dixième du salaire annuel des clients), Terres Lointaines ne peut pas n’être qu’un pure player. Il faut mettre de l’humain dans leur business model !   Google, via le SEA et Google Adwords, est leur premier levier d’acquisition de trafic avec plusieurs dizaines de milliers d’euros investis mensuellement. Mais être doué dans l’acquisition, grâce au web, ne suffit pas ! Il faut ensuite savoir vendre un voyage pour transformer et c’est là que l’humain entre en piste. Terres Lointaines ne peut donc pas se passer de l’agence de voyage à l’ancienne, ayant pignon sur rue. Et ne peut pas se passer de bons vendeurs. Preuve en est, il y a beaucoup plus aujourd’hui d’appels de clients qui ont besoin d’être rassurés. L’humain serait-il en train de reprendre le dessus ? Pour résumer, technologie + humain = mix parfait.   2ème conférence : La casa SEO : les questions SEO à se poser pour un casse SEO parfait !

C’est Aymeric Bouillat, consultant SEO Sénior, qui a animé la conférence. Pour en savoir plus sur lui, ça se passe ici. L’idée de la conférence est de comprendre l’algorithme de Google.     Plusieurs sujets ont été abordés :

  • Les pages vides peuvent nuire au SEO. Comment les traiter ? Dans un premier temps en utilisant un outil comme screaming frog pour les localiser
  • Faire la chasse aux pages non pertinentes indexées
  • Trouver tous les sous-domaines qui peuvent être parasites parfois. Car ils peuvent être source de contenu dupliqué par exemple
  • L’Outil transparency report de Google répertorie tous les certificats SSL liés à un site web
  • Utiliser le crawl pour savoir ce qu’il y a à l’intérieur de l’algorithme. Il est d’ailleurs intéressant de savoir que Google Crawl les pages en deux temps
  • Toute analyse de log est bonne à faire, même pour les petits sites.
  • Optimiser les performances en identifiant ce qui pourrait ralentir le site. Les pires ennemis sont les ressources tierces. Un test sur le site requestmap peut être intéressant. Par exemple un widget Facebook peut, sur certains sites, générer 50 requêtes ou une vidéo embed 30 requêtes…

Quelques conseils en vrac :

  • Si on fait de l’infinite scroll il faut que ce soit SEO friendly, c’est-à-dire qu’au fur et à mesure qu’on scroll, l’URL doit être changée. Le meilleur site d’exemple est appspot.com
  • Utiliser du lazyloading pour le chargement des pages
  • Dernier outil Google de test en date : lighthouse
  • Méfiance avec l’utilisation des fichiers htacess qui peuvent pénaliser les performances

  3ème conférence : Automatisation d’une stratégie SEO par Rémi Bacha et Vincent Terrasi

Aujourd’hui on a conçu des intelligences artificielles capables de résoudre des problèmes complexes sans intervention humaine. Dans le SEO, on peut utiliser le machine learning à notre avantage. Les intervenants ont développé un outil, avec le langage de programmation R, permettant de déterminer si une page a des chances de se positionner en première page de résultats de Google. Vous l’aurez compris, il a été sujet lors de cette conférence d’un SEO 2.0, d’un SEO nouvelle génération qui puise dans la data science. La méthode utilisée pour construire cet outil est la suivante: 1/ Récupération de toutes les requêtes (en machine learning, plus on a de data mieux c’est) : l’objectif est de constituer une base avec toutes les requêtes qui vont constituer notre thématique 2/ Récupération des top 100 pour chaque requête : cela va servir à voir ce qu’il faut faire et ne pas faire 3/ Enrichissement des données avec les outils SEO : enrichir chaque URL sélectionnés (un très grand nombre de préférence) avec sémantique, backlinks, webperfs, RS, domain whois, UX etc 4/ Enfin prédire ses positions avec le machine learning. Le tableau généré permettra, entre autres, de repérer les pages qui auront du mal à se positionner Il faut savoir que les facteurs de ranking ne sont pas les mêmes en fonction des thématiques. Le machine learning pourra permettre de déterminer les critères les plus importants dans le secteur d’activité en question pour performer en SEO. Le code source de cet outil est disponible ici  Ce qui fonctionne bien pour performer en SEO est la création de nouvelles pages, la fameux contenu, clef de voûte du référencement naturel. L’inconvénient c’est que c’est long. Ils ont donc réussi à automatiser :

  • L’étude des requêtes d’internautes
  • La recherche de pages à créer
  • Calculer le potentiel de chaque nouvelle page

La méthode a été la suivante : 1/ récupération de toutes les requêtes 2/ nettoyage : déduplication, mots clefs des concurrents, termes inappropriés et parasites 3/ préparation de la clusterisation (= regroupement) : regrouper les mots clefs entre eux 4/ créer des familles de mots clefs 5/ création d’un fichier thématique 6/ croisement de données : prise en compte du positionnement actuel du site, prise en compte des données analytics pour voir la rentabilité Le code pour clustériser vos mots clefs est disponible ici  En toute logique, leur dernier projet en cours est la génération automatique de contenu.   4ème conférence : Parcours client : ce que ça change dans la conception des écosystèmes digitaux par François Houste

Il faut penser étapes du parcours utilisateur. Le problème c’est que l’internaute n’a souvent pas d’objectif et pas de chemin… La question à se poser est : mes consommateurs sont à la recherche de quoi et à quel moment ? Il faut donc connaître le comportement de ma cible pour définir des moments qui sont pour moi des moments opportuns de prendre la parole. A quel moment est-il intéressant pour moi de prendre la parole auprès de mes consommateurs ? On parle d’un cycle de moments de vie et à chaque moment de vie il faut définir un objectif (considérer, connaître, connecter, convertir). Un autre conseil donné est de ne pas combattre les comportements utilisateurs. Est-il intéressant pour une marque alimentaire de créer une section recette alors que les internautes vont chercher des recettes sur Marmitton, cuisine AZ etc. ?

  • L’écosystème doit dépendre des habitudes des internautes.

Il a également été abordé le problème de l’abondance de contenu aujourd’hui sur internet. Si je vois le même contenu plusieurs fois, même écrit de manière différente, je ne serai pas capable de faire la différence entre les marques. Il faut donc clairement se différencier et choisir un angle particulier.   Pour finir, petite exclu : l’édition 2019 du WebCampDay sera tiendra à Angers le 17 mai 2019. On espère vous y croiser ! En tous cas nous on y sera 😊

Sur le même sujet