SEO rentablité

Pourquoi le référencement naturel serait-il rentable !?

Contrairement à la publicité payante où vous devez continuellement payer pour chaque clic ou impression 💰 , le SEO demande un investissement initial dans l’optimisation du contenu et des techniques de référencement, mais une fois que votre site est bien positionné dans les résultats de recherche, le trafic organique qu’il génère ne nécessite pas de paiement continu.

Les sites bien positionnés dans les résultats de recherche sont souvent perçus comme plus fiables et dignes de confiance par les utilisateurs. Avoir une forte présence dans les résultats de recherche renforce la crédibilité de votre marque 👍.

Les résultats du référencement naturel peuvent durer des mois, voire des années. Une fois que votre site Web est bien classé pour les mots clés pertinents, vous continuerez à générer du trafic organique avec peu de travail supplémentaire. 📈

Les utilisateurs qui arrivent sur votre site via des résultats de recherche organique sont souvent plus qualifiés et plus susceptibles de convertir, car ils ont recherché activement les informations ou les produits que vous proposez. 🎯

Contrairement à d’autres sources de trafic qui peuvent fluctuer en fonction des budgets publicitaires ou des tendances du marché, le trafic organique provenant des résultats de recherche reste relativement stable une fois que votre site est bien classé. ➡

Il est important de noter que le SEO n’est pas une solution miracle. Il faut du temps et des efforts pour obtenir des résultats. Cependant, si vous êtes patient et persistant, le SEO vous aidera à atteindre vos objectifs commerciaux au bout de quelques mois. 📅

Bien que les moteurs de recherche mettent à jour leurs algorithmes régulièrement, les principes fondamentaux du référencement naturel restent relativement stables. En suivant les meilleures pratiques et en fournissant un contenu de qualité, votre site peut continuer à bien se positionner malgré les changements d’algorithme. 〰

Le coût du SEO peut varier considérablement en fonction de plusieurs facteurs. Un site web plus volumineux et complexe aura besoin de plus de travail de référencement qu’un site web plus petit et plus simple. Si vous opérez dans un secteur très concurrentiel, vous aurez besoin d’investir davantage dans le SEO pour vous démarquer de vos concurrents. Si vous souhaitez simplement améliorer votre visibilité en ligne, vous pouvez vous contenter d’une stratégie SEO basique. En revanche, si vous souhaitez atteindre la première page des résultats de recherche pour des mots clés concurrentiels, vous aurez besoin d’une stratégie SEO plus élaborée et donc plus coûteuse. En général, les coûts du référencement naturel peuvent varier de quelques centaines à plusieurs milliers d’euros par mois, en fonction de ces facteurs. 💶

J’espère que certaines de ces informations vous seront utiles.

Intelligence artificielle : compétition entre Bing et Microsoft

Vous reprendrez bien un peu de ChatGPT ? Depuis le début de l’année, difficile de passer à côté de ChatGPT, l’intelligence artificielle du laboratoire de recherche OpenAI dont l’un des présidents n’est autre que Elon Musk. Ses performances sont telles que Google et Microsoft ont multiplié les annonces à sujet, de peur d’être dépassé dans un futur proche par cette technologie.

L’intelligence artificielle ChatGPT est issue d’une technologie qui n’est pas nouvelle. A titre d’exemple, cela fait des années que Google a injecté de l’intelligence artificielle dans son moteur de recherche avec le machine learning (apprentissage automatique), que ce soit pour nous aider à trouver plus facilement ce que nous cherchons ou repérer des sites pirates. Il existe aujourd’hui de nombreux outils sur Internet qui fonctionnent déjà avec de l’intelligence artificielle, notamment dans le domaine de la reconnaissance vocale et dans la recherche.
Mais, ce qui a étonné tout le monde c’est la qualité des informations ainsi que le déroulé naturel opéré par ChatGPT dans des dialogues machine à humain. Bien qu’il comporte encore quelques imperfections, la mise à disposition auprès du grand public d’une intelligence artificielle d’une telle performance va certainement bouleverser la façon dont nous faisons des recherches sur Internet. On pourrait penser que dans un futur proche, la recherche sur Internet sera plus conversationnelle.

Bing et Microsoft vont proposer leur intelligence artificielle

Les deux géants du net, Microsoft et Google, ne veulent pas se faire distancer par OpenAI, relançant par la même occasion la compétition entre eux. Ils ont tous les deux fait part de leur intention de s’emparer de cette technologie du futur qu’est l’intelligence artificielle :
Microsoft souhaite injecter un peu de ChatGPT dans Bing avec certainement pour objectif de tenter de supplanter l’hégémonie de Chrome, le moteur de recherche de Google. C’est un investissement qui lui a tout de même coûté la coquette somme de 10 milliards d’euros.
Du côté de Google, son PDG Sundar Pichai, a déclaré que leur IA pourrait être proposée au grand public dans les mois voire les semaines à venir. Une conférence de 40 minutes sera diffusée sur YouTube le 8 février à 14h30. Y aura t-il des annonces à ce sujet ? Affaire à suivre…

Google : mise à jour du contenu utile achevée

Pour Google, cette mise à jour du contenu utile, débutée le 5 décembre 2022, a duré près de 38 jours.

Qu’est-ce qu’un contenu utile ?

Google, avec cette mise à jour, va détecter les contenus de mauvaise qualité créés avant tout pour les moteurs de recherche et non pour les internautes en analysant de manière automatique l’ensemble d’un site internet. Si les contenus du site sont repérés comme étant sans valeur ajoutée, ils seront moins bien classés dans la SERP.

Comment fonctionne l’indicateur de contenu utile de Google ?

C’est un indicateur ou signal qui fonctionne de manière permanente dans l’algorithme du moteur de recherche de Google qui a pour but de mettre en avant les contenus les meilleurs, en fonction d’une requête, en haut de page dans les résultats de recherche. Ce n’est pas une pénalité manuelle à cause du spam ou autres, tout est entièrement automatisée.
Google indique que l’indicateur peut rester plusieurs mois sur un site dès lors qu’un contenu de piètre qualité y a été repéré.

Que faire si on est déclassé ?

Si vous avez constaté une chute dans le classement de recherche, peut-être êtes vous touché par Google et cette mise à jour. Voici le lien qui pourrait peut-être vous aider à créer du contenu de meilleure qualité, plus axée sur l’humain.

Aucun lien entre un trafic web élevé et contenu de qualité

Beaucoup de personnes pensent qu’avoir beaucoup de trafic web sur une page signifie que celle-ci est de qualité. Google vient de démentir cette croyance sur Twitter.

Selon John Mueller, le trafic web n’est pas une mesure de la qualité d’une page ou d’un site. Il peut arriver que le contenu soit très bon mais tellement spécialisé qu’il ne rapporte pas visites mais, cela n’a rien à voir avec la richesse ou la pauvreté de son contenu texte ou média.

Si une page web ne reçoit pas le nombre de visites espéré, il faudrait peut-être revoir certaines choses sur le site, notamment la stratégie de référencement, en reconsidérant les attentes et questionnements des utilisateurs via les requêtes et mots-clés.
En tous cas, le trafic web ne doit pas être le seul indicateur pour juger de la qualité d’un site internet.

Rappelons que la dernière mise à jour de Google concernant son algorithme de recherche appelée la mise à jour du contenu utile (helpful content update en anglais), a justement pour but de repérer les contenus de faible qualité et jugés peu utiles par rapport à d’autres contenus similaires.
Dans son blog pour développeurs, Google donne des indications pour nous aider à créer et évaluer soi-même un contenu de qualité.

Mise à jour Google : la helpful content lancée en décembre est toujours en cours

Nous voici de retour de vacances de fin d’année et apparemment Google n’a toujours pas fini de déployer la mise à jour du contenu utile lancée en décembre 2022.

Cette confirmation faite sur Twitter nous apprend que la mise à jour Google sur le contenu utile (helpful content en anglais) a pris deux semaines de retard alors qu’elle aurait dû être terminée fin décembre. Apparemment, c’est pour des raisons de sécurité que Google a préféré retarder cette mise à jour effectuée en même que la link spam update qui concerne les spams de liens.

Qu’est-ce que la mise à jour Google sur le contenu utile ?

La mise à jour du contenu utile ou the helpful content en est à son second lancement ; le premier avait été fait en août 2022. Elle concerne les systèmes de classement automatique de Google (machine learning) qui passent au criblent les centaines de milliards de pages web indexées dans le moteur de recherche afin d’offrir aux internautes des résultats de recherche les plus pertinents possibles. Pour cela, les algorithmes de Google vont utiliser des facteurs dits essentiels à savoir les mots-clés, la géolocalisation, le degré de qualité et d’accessibilité des informations, etc. et ce, selon les paramètres de recherche de chaque internaute.

Cette mise à jour Google sur le contenu utile est mondiale puisqu’elle est entrain d’être déployée dans toutes les langues.

Conséquence éventuelle

Selon nos confrères, seuls 20% des référenceurs avaient constaté un impact sur les classements des sites à la suite de la mise à jour du contenu utile du mois d’août 2022. En revanche, celle de décembre 2022 parait plus importante, alors il faudra attendre un peu après la fin de cette mise à jour pour savoir si elle chamboulera fortement le classement des sites web.

La durée de visite sur une page web ou le taux de rebond n’est pas un critère de classement

C’est la question qui a été posté dans un récent tweet à John Mueller de Google.

C’est pour répondre à un SEO sur Twitter qui lui a posé la question suivante : » Comment Google peut-il savoir combien de temps les utilisateurs passent sur mon site ? Via Chrome ? Clairement, Google s’en soucie. » Et John Muller lui dit : »Ce n’est pas le cas – c’est pourquoi il n’y a pas de numéro. »

En fait, à travers ce bref tweet, Google par la voix de son analyste sénior en charge de la partie Search, confirme ce qui avait déjà dit des années auparavant, à savoir que les données comportementales des utilisateurs comme le temps passé sur une page, le taux de rebond, etc. ne sont pas utilisé pour classer, positionner une page web dans les résultats de recherche.

Par contre, la seule donnée comportementale qui compte est le récent critère SEO qu’est le signal d’expérience sur la page qui mesure l’expérience utilisateur sur une page web. A l’intérieur de ce critère, il y a 3 indicateurs principaux qui sont la vitesse de chargement de la page, la qualité de son interactivité c’est-à-dire le délai de réponse de la page à partir du clic de l’utilisateur et sa stabilité visuelle. Sont également pris en compte le mobile friendly, la présence ou non du protocole HTTPS et l’absence de pop-ups.

Petit rappel sur le taux de rebond

Le taux de rebond est mesuré quand une visite n’aboutit à aucune interaction (clics sur un lien, visite sur une autre page, etc.) de la part d’un visiteur sur une page web et qu’une seule demande est enregistrée au niveau du serveur de Google Analytics. Le taux de rebond correspond au ratio entre le nombre de visites sans interaction sur le total des visites sur le site. Pour visualiser le taux de rebond sur une page web, il faut consulter le tableau de bord Google Analytics du site qui attribue une durée de 0 secondes aux visites à fort taux de rebond.

Le taux de rebond n’est significatif que pour les sites qui ont beaucoup de pages et beaucoup de visites. Par exemple, un taux de rebond élevé sur un site one-page n’est en rien significatif. On considère un taux de rebond comme négatif quand il dépasse les 50%.

Astuces Google sur PC

Astuces Google : ces nouveautés amélioreront votre recherche

Avez-vous remarqué que la dernière version de Google Chrome vous donne la possibilité de comparer des résultats de recherche ? Pour utiliser cette astuce Google et mettre en oeuvre cette nouvelle fonctionnalité, voici la marche à suivre :

1-Taper votre requête dans la barre d’adresse de l’url (et non dans la zone de recherche de Google, sinon cela ne fonctionnera pas),

2-Cliquer sur un des résultats qui s’affiche, par exemple le 1er,

3-Cliquer sur le G aux couleurs de Google qui s’affiche à droite dans la barre d’url, 

4-À droite, s’affiche tous les résultats issus de votre requête tandis que vous êtes entrain de consulter une page.

L’avantage de cette nouvelle fonctionnalité est que vous n’avez plus besoin d’ouvrir de nouveaux onglets pour consulter plusieurs sites, ni de faire précédent pour voir votre page de résultats.
Cette nouvelle astuce Google sera vraiment utile pour comparer les sites entre eux et nous épargner de nombreux va-et-vient entre la page de résultats de recherche et les sites proposés.

Pour l’instant, cette fonctionnalité n’est active que sur PC.

Le défilement continu des résultats de recherche

Cette possibilité, déjà en œuvre sur mobile, est actuellement en cours de déploiement aux USA. Bon, ce n’est pas vraiment une astuce Google mais, elle est tout de même plutôt astucieuse. 

Très bientôt, en France, nous n’aurons plus besoin de cliquer sur les pages 1, 2, 3, … pour pouvoir consulter les autres résultats de notre recherche. Une fois arrivé en bas de page, les résultats vont s’afficher en continu et ce, jusqu’à la sixième page de résultats. C’est seulement au terme de cette sixième page que nous serons obligés de cliquer sur le bouton “Plus de résultats”.

L’avantage : les résultats situés plus loin dans la SERP, c’est-à-dire la page de résultats, pourraient recevoir plus de clics qu’avant.

Des résultats de recherche affinés grâce aux filtres

Cette astuce Google créée par les ingénieurs de la firme de Mountain View va aussi nous faciliter nos recherches et notre surf. En effet, en plus des filtres classiques du moteur de recherche que nous connaissons déjà, à savoir Images, Actualités, Maps, Vidéos, etc., il y a aura des filtres qui apparaîtront selon les requêtes tapées. 

Par exemple, si vous tapez “idées de dîner », les filtres “sain” et “facile” feront leur apparition. Le moteur de recherche affichera de manière automatique les filtres selon des requêtes pertinentes spécifiques.

L’avantage : cette astuce Google, une fois déployée en France, pourrait détourner le trafic de certains sites web et en créer vers d’autres selon les filtres créés par le moteur de recherche.

liens moins importants dans le futur

Les liens pourraient avoir moins de poids pour le SEO à l’avenir

Avec un algorithme basé sur l’intelligence artificiel de plus en plus perfectionné, Google pourrait accorder moins d’importance aux liens à l’avenir. C’est en tout cas ce qu’a laissé entendre le porte-parole de Google, John Mueller, dans son dernier podcast.

Dans un dernier enregistrement audio, Google réaffirme, par la voix de son porte-parole, que les liens sont importants puisque c’est eux qui permettent l’accès aux pages web mais il « suppose qu’avec le temps, ce ne sera pas un facteur aussi important qu’il l’est parfois aujourd’hui » et il ajoute que « c’est quelque chose qui a pas mal changé ».

Les liens pèsent moins qu’auparavant

Il ne fait qu’attester une tendance qui est visible depuis plusieurs années déjà dans le monde du SEO et plus précisément dans le netlinking : les liens sont moins importants qu’auparavant, par exemple, ils le sont moins qu’au début d’internet.
En effet, Google a fait et continue de faire la chasse aux faux liens, aux ancres de liens suroptimisés, aux fermes de liens et autres sites satellites qui ont été crée juste pour booster le SEO et tromper le moteur de recherche sans apporter de plus value à l’internaute. Ceci pourrait donc expliqué pourquoi les liens sont de moins en moins importants.

Actuellement, les liens ne se suffisent pas à eux mêmes. Pour être efficace, une stratégie de netlinking SEO doit intégrer des liens de qualité c’est-à-dire qu’ils doivent avoir une ancre de lien qui comporte le mot-clé, renvoie vers une page de même thématique et, de surcroît, d’autorité. Cependant, ils ne doivent pas être mis de côté ou oubliés dans une stratégie SEO.

Spam update d’octobre 2022 : Google fait une mise à jour contre le spam

Fin de semaine dernière, Google a déclaré procéder au déploiement de la spam update d’octobre 2022,  une mise à jour de son algorithme pour lutter contre le spam. La dernière mise à jour de ce type remonte à novembre 2021.

La lutte contre les contenus frauduleux, une priorité pour Google

Face à la recrudescence des sites pirates qui font appel à des techniques de plus en plus sophistiquées pour piéger les internautes, Google a fait de la lutte contre le spam une priorité pour garantir à ses utilisateurs une navigation sur internet plus sécurisée et de meilleure qualité.

C’est en 2018 que le moteur de recherche a lancé SpamBrain, un algorithme basé sur l’intelligence artificiel pour repérer facilement les faux sites, les redirections frauduleuses, les spams contenus dans des liens artificiels, les contenus malveillants, etc..

Les mises à jours régulières contre le spam ou spam update du moteur de recherche ont aussi pour but d’empêcher l’apparition dans les résultats de recherche des contenus frauduleux conçus pour manipuler le classement des résultats de recherche comme par exemple les faux avis de produits.

Grâce aux trois spam update effectués en 2021, Google a pu détecté 200 fois plus de sites de spams que par rapport il y a 20 ans, soit à ses débuts.

Ainsi, cette dernière spam update peut avoir des conséquences dans le classement des résultats de recherche notamment pour les sites internet qui utilisent des techniques prohibées comme des liens artificiels ou des contenus pirates.

Veille SEO by Mediadvance : les dernières nouveautés en SEO

Dans sa dernière vidéo, John Mueller, webmaster analyste en charge de la Search chez Google, a passé en revue les dernières améliorations du moteur de recherche de la firme de Mountain View. 

La mise à jour des données structurées

Dans sa dernière mise à jour, Google élargit l’éligibilité à l’utilisation de données structurées pour certains produits. Les fonctionnalités incluent les informations détaillées sur les produits, les produits populaires et les fonctionnalités de Google Images et Lens qui permettent d’avoir les informations détaillées d’un produit ou de trouver des images similaires grâce à sa photo.

Les Youtube Shorts

Ces vidéos au format court sont disponibles pour les e-commerçants pour les aider à améliorer leur référencement durant leur déplacement.

La recherche dans Google

. La mise à jour du contenu utile
Fin août 2022, Google a fait une mise à jour très importante de son algorithme appelée la mise à jour du contenu utile ou Helpful Content Update en anglais, dont l’objectif est d’aider les internautes à trouver du contenu informatif de qualité créé par et pour des humains. Pour rester fidèle à ses recommandations SEO, avec cette mise à jour, Google va privilégier dans son classement, les pages web dont le contenu à forte valeur ajoutée est pensé pour les internautes et non pour les moteurs de recherche. Pour l’instant, elle n’est disponible que sur la version anglaise du moteur.

. La Search Console
Cet outil mis à disposition par Google explique aux propriétaires de sites internet comment leur site apparaît dans la recherche Google et quels sont les problèmes potentiels rencontrés ainsi que les améliorations à apporter. La nouveauté concerne :

  1. les vidéos présentes sur un site internet. Ce nouveau rapport d’indexation qui apparaît si des vidéos sont détectées sur le site internet donne des informations sur les vidéos qui ont été indexées et sur ce qui pourrait empêcher les autres d’être indexées. L’outil d’inspection d’Url fournit aussi des informations sur les vidéos.

  2. la façon dont Google classe les pages, les éléments et les problèmes dans la Search Console est simplifiée pour mieux mettre en avant les problèmes critiques qui affectent la visibilité d’un site dans le classement de recherche. Le but est de nous aider à mieux nous organiser dans la résolution des problèmes signalés.

  3. la suppression du paramètre de ciblage géographique et du rapport Hreflange dans la Search Console. Les annotations Hreflange continuent d’être supportées dans la documentation de Google, de même que toutes les recommandations pour gérer les sites multilingues et multi régionaux.

Source : https://www.youtube.com/

E-commerce : l’encart Produits Populaires est désormais accessible à tous les sites

Google vient de l’annoncer : désormais, tous les sites e-commerce peuvent augmenter le trafic de leurs pages Produit via l’encart “Produits populaires” en utilisant les données structurées et ce, sans faire partie du programme Merchant Center. Mais, qu’est ce qu’une donnée structurée et comment la mettre en place ?

Qu’est-ce que les données structurées ?

Les données structurées sont utiles aux moteurs de recherche pour les aider à bien comprendre de manière précise le contenu spécifique d’une page web pour mieux la classer dans les résultats de recherche.

Pour faire simple, il s’agit de fournir aux moteurs de recherche des informations précises de la page web à l’aide d’un fichier normalisé basé sur un référentiel commun aux principaux moteurs de recherche (Bing, Google, Yahoo, Yandex…) appelé Schéma.org. Ce fichier est intégré au niveau des balises Html du site internet.

Les données structurées peuvent être utilisées pour mettre en avant par exemple un article de blog, un livre, un film ou une série, un fil d’Ariane, un carrousel, une formation, une Faq, un événement, une recette, une entreprise, un système de notation, une estimation de salaire, etc.

Ils concernent donc tous les sites internet, qu’ils soient e-commerce ou non.

Quels avantages à utiliser les données structurées pour un site e-commerce

La mise en place de données structurées peut s’avérer particulièrement intéressant pour les sites e-commerce car cela peut améliorer la visibilité des fiches Produits.

En complétant alors la balise Product des données structurées d’une page produit, la fiche produit apparaît, non seulement dans Google Image et Google Lens, mais aussi de manière plus spécifique et détaillée dans les résultats de recherche. Sa visibilité sera alors augmentée puisqu’elle apparaîtra sous deux types d’affichage spécifiques :

– Extraits produit. L’extrait produit donne des informations détaillées dans les résultats de recherche : détails techniques du produit, avis, prix, disponibilité, vendeurs et depuis peu, l’efficacité énergétique.

– Fiche marchand. La fiche Marchand, elle, ne concerne que les fiches produit avec achat direct possible, (sans plateforme intermédiaire donc comme Amazon ou Ebay). Elle donne aussi des informations sur le prix et la disponibilité du produit.

Compléter les données structurées Produit

Tout d’abord, dans son blog pour développeurs web, Google met à disposition de la documentation et un atelier en ligne pour mieux comprendre et mettre en place les données structurées car cela nécessite de modifier directement le code Html du site web.

Si l’on dispose d’un site web conçu avec un CMS comme WordPress, l’intégration peut être possible en installant un module spécifique.

Ensuite, pour suivre l’état des données structurées après implémentation, un rapport est disponible dans la Section Achats, rubrique Extraits de produits de la Search Console. Certains outils d’analyse SEO permettent également de voir l’état des données structurées présentes sur un site et donnent des conseils pour les optimiser.

Conclusion
Mettre en place les données structurées pour les fiches Produits n’est pas une chose aisée car cela nécessite d’implémenter la balise Schéma.org accessible dans les codes source du site internet. Pour ce qui est des CMS, ils n’offrent pas tous cette possibilité…de manière simple.

Dans tous les cas, il vaut mieux se faire accompagner d’un développeur web qui connait le référencement technique ou d’un expert SEO voire des deux et sauvegarder son site au préalable.

Bien que cela peut être fastidieux, le jeu en vaut la chandelle car les bénéfices en termes de visibilité se feront ressentir à moyen et long terme.

Sources : https://developers.google.com/

ne pas copié : contenu dupliqué

SEO : c’est quoi exactement un contenu dupliqué pour Google ?

Créer des contenus originaux, que ce soit dans la rédaction d’articles web ou de vidéos, est un vrai casse-tête pour ceux qui gèrent et animent un site internet. Il est vrai qu’il est souvent difficile de trouver l’inspiration tant on a l’impression que tout existe ou a déjà été dit sur Internet. Cependant, si l’on souhaite attirer des visiteurs avec le SEO, l’on sait pertinemment que Google n’aime pas les contenus dupliqués, au risque de subir une pénalité. Mais au fait, c’est quoi au juste un contenu dupliqué pour Google et par extension en SEO ?

Définition du contenu dupliqué ou duplicate content, en anglais, pour Google 

Un contenu dupliqué est :

– un contenu dont les images, textes, vidéos, documents,.. sont issus d’un contenu protégé par des droits d’auteurs ;

– un site qui copie et publie le contenu d’autres sites, sans y ajouter son propre contenu et qui n’apporte finalement aucune valeur supplémentaire au lecteur et/ou visiteur. Par exemple, celui-ci se contente de réécrire manuellement les articles originaux en remplaçant les mots par des synonymes ou par des techniques automatisées comme avec les outils de rédaction automatisée, avant de les republier. Ainsi, avec peu ou pas de modifications du tout, c’est un site qui reprend les contenus d’autres sites et qui devient par là sans réel intérêt pour les utilisateurs.

Contre les contenus dupliqués : ce que veut Google 

Créer des contenus “ maison “

Pour éviter que vos pages web soient perçues comme du contenu dupliqué par Google, il est essentiel de créer des contenus “ maison ”, signe de votre originalité et de votre expertise. Cela peut être : un retour sur votre expérience personnelle, une histoire drôle ou encore vos propres idées, une critique personnelle ou bien l’analyse de vos propres contenus, etc.. Ces contenus doivent être uniques et non une copie d’autres sites. 

Éviter de cannibaliser votre propre site

Mais un contenu dupliqué peut aussi provenir de votre propre site internet. C’est le cas lorsque un même contenu est répété sur la même page ou sur plusieurs pages de votre site internet.
Dans le SEO, quand il s’agit d’optimiser un site on se rend compte souvent que beaucoup de pages sont identiques ou ont un contenu qui se ressemble beaucoup. Dans ce cas, il faut choisir entre se concentrer sur le développement et l’enrichissement de chaque page ou  fusionner ces pages en une seule. 

Mettre en place des Urls canoniques

Il n’est pas rare que deux pages web aient des contenus copiés, l’une en version www et l’autre en https ://, par exemple. Il ne s’agit pas là forcément d’une tromperie délibérée à l’encontre du moteur de recherche ; peut-être que le but recherché est tout simplement de les rendre accessibles en fonction de la version d’url tapée par l’internaute. Cependant, avoir beaucoup de copies d’une même page risque de compliquer l’indexation de ces pages par le moteur de recherche qui peut hésiter dans le choix de la page à mettre en avant pour répondre aux recherches.
Si le site a plusieurs copies d’une même page, il faut aider Google dans le choix de l’url à privilégier à l’aide d’une page canonique.

Éviter le même contenu sur plusieurs domaines ou sites internet différents

Cela est bien souvent fait dans le but de manipuler les moteurs de recherche ou pour avoir plus de trafic. Ces contenus n’apportent rien de nouveau aux visiteurs s’ils tombent sur des contenus vus et répétés plusieurs fois dans les résultats de recherche.

En résumé, pour créer du contenu sur son site qui apporte de la valeur à l’internaute, il ne faut pas perdre de vue qu’il est important de :

– créer du contenu original et d’éviter de plagier d’autres sites;

– veiller à supprimer les contenus en double sur son site web pour ne pas compliquer l’indexation des pages de notre site par le moteur de recherche;

– éviter les doublons de contenus sur plusieurs domaines qui risquent d’impacter négativement notre performance dans les résultats naturels mais aussi dans une stratégie de monétisation, s’il y a lieu;

– privilégier un contenu unique.

Source : https://developers.google.com/

Audit SEO gratuit - analyse globale du référencement naturel

Meta-description : Google publie un document d’aide

Google a mis en ligne sur son blog pour développeurs un article sur la meilleure façon de rédiger une description dans une balise Meta description.

Le rôle de la balise Meta description

La balise Meta description sert à informer les internautes sur le contenu de la page de manière succincte tout en leur donnant envie de cliquer sur la page pour la visiter.
Google rappelle que la balise Meta description n’a pas vraiment de limite de caractères mais si elle est trop longue, elle n’apparaîtra pas en entier dans les résultats de recherche. 

Pour éviter cela, il est recommandé de limiter sa longueur à 160 caractères.

Rédiger une bonne Meta description 

Exemple à l’appui, il indique la méthode adéquate pour rédiger une description de page susceptible d’obtenir du trafic :

-une description par page

-chaque description doit être unique

-la description est un résumé de la page

-les informations spécifiques de la page y sont détaillées

-la description doit être pertinente

Cet article de Google n’apporte rien de nouveau sur le SEO mais c’est plutôt un rappel des bonnes pratiques à adopter aussi bien pour ceux qui découvrent l’univers du SEO que les expérimentés.

Source : https://developers.google.com/

Veille SEO by Mediadvance : améliorations SEO en vue

Le SEO évolue au gré des modifications des moteurs de recherche, Google en tête. Lors du dernier SEODay 2022, John Mueller de Google Suisse a apporté de nombreux éclairages sur la méthode de classement du moteur de recherche et de l’impact du critère SEO Expérience sur la page (Signal Page Utilisateur) dans le classement des résultats de recherche. 

Mobile First

Il a de nouveau confirmé le fait que les résultats de recherche qui s’affichent sur ordinateur ET sur mobile sont classés par rapport à l’expérience faite depuis les mobiles. L’une des raisons est que dans le monde, France y compris, il y a plus d’utilisateurs d’internet sur smartphone que sur ordinateur.

L’expérience utilisateur

En plus des trois indicateurs clés du Core Web Vitals pour calculer le score de l’expérience utilisateur que sont le LCP, le FID ou le CLS, Google va bientôt ajouter le INP soit l’interactivité vers la page suivante. L’INP sera potentiellement un indicateur clé dans l’avenir.

Les images et vidéos

Compte tenu du fait que la recherche d’images et de vidéos est de plus en plus importante, Google a crée Web Stories, un plug-in WordPress pour aider les utilisateurs à créer des histoires plus visuelles avec des animations attractives et des interactions tactiles.

Les avis authentiques

Les vrais avis sur les produits doivent être mis en évidence.  Selon John Mueller, les prochaines mises à jour de l’algorithme de Google seront beaucoup plus axées sur le classement des avis des utilisateurs sur les produits.

8 problèmes SEO en entreprise et leur solution possible

La mise en place d’une stratégie de référencement naturel en entreprise relève souvent du challenge. Même lorsqu’il existe des équipes dédiées à cette tâche, il n’est pas rare que des divergences de point de vue surviennent sur les priorités, les méthodes et les moyens nécessaires pour obtenir un référencement naturel efficace, surtout quand le site internet n’a pas été créé par l’équipe en place ou si les outils pour y parvenir sont inadaptés voire inexistants. Voici les différents problèmes dont on entend souvent parlés dans les entreprises que nous rencontrons en tant qu’expert en référencement naturel et nos conseils SEO pour y résoudre.

L’héritage d’un site internet

Qu’ils soient propriétaires ou CMS, les sites internet de l’ancienne équipe dirigeante ou informatique sont souvent sources de problèmes. Certains sites auront une potentialité de référencement naturel, d’autres non et bien souvent le degré d’appropriation peut être élevé.

Conseil SEO :

Décrire les tâches et les potentialités du site internet tel que vous l’avez obtenu. Il peut s’agir par exemple des :

-différents modules ou plug-in possibles

-modèles de conception

-types de redirections possibles

-des données structurées

-les liens internes

-modifications du site

S’il s’avère impossible de réaliser ces tâches, il faudrait envisager de mettre à jour le CMS ou de migrer vers un nouveau site.

Ne pas utiliser des outils de travail efficaces

Malgré leurs promesses marketing, certains outils de travail (logiciels, plateformes internet…) peuvent se révéler inefficaces ou inappropriés à vos méthodes de travail. En cela, ils vous font donc perdre du temps ET de l’argent.

Conseil SEO :
Analyser et répertorier les outils efficaces et ceux qui vous freinent dans le développement de votre activité.
Consultez ou reconsultez vos fournisseurs pour discuter des options possibles et supprimez les outils dont les fonctionnalités ne permettent pas une optimisation pour les moteurs de recherche.

Un déploiement de contenus inappropriés qui vous pénalisent

Une stratégie de contenu qui ne répond pas aux attentes de votre cible peut être synonyme de perte d’opportunités pour l’entreprise. 

Conseil SEO :
Mettre en place une procédure pour aligner vos différentes équipes sur une même stratégie pour élaborer des contenus plus efficaces. Vous pouvez commencer par :

-mettre en place une stratégie de référencement naturel globale, à l’échelle de l’entreprise 

-créer un calendrier de contenus ou éditorial pour l’ensemble de l’entreprise

-élaborer des workflows et veiller à leur mise à jour régulière

-désigner les responsables et les intermédiaires de chaque tâche (éditeurs, rédacteurs et valideurs) avant le déploiement des contenus

-veiller à ne pas cannibaliser vos propres contenus avec, par exemple des titres de page en double, des copié-collé, etc.

Plusieurs mini sites web qui demandent du temps et des moyens

Il peut arriver qu’une entreprise gère plusieurs petits sites conçus au fil du temps. Mais voilà, la gestion de ces mini-sites peut devenir compliquée.

Conseil SEO :
Même s’ils sont gourmands en ressources, faites de ces mini sites web une source d’informations plus ciblées et un moyen d’avoir des backlinks de qualité vers votre site internet principal.

Des développeurs web qui n’adhèrent pas à la stratégie SEO de l’entreprise

Ce n’est pas souvent le cas et pourtant,  le développeur web / service informatique et le référenceur / service marketing doivent s’approprier la stratégie SEO de l’entreprise pour travailler main dans la main.

Conseil SEO :
Ces deux parties sont indispensables pour le référencement technique du site internet de l’entreprise. 
Référenceur web et développeur web doivent étroitement collaborer pour :

-discuter des projets 

-parler des problèmes rencontrés par l’une et l’autre des parties

-étudier les solutions possibles

-partager et se féliciter des réussites comme lorsque les évolutions informatiques mises en place ont permis d’optimiser la vitesse du site et améliorer son positionnement dans les résultats de recherche. 

Le manque d’adhésion en interne

Les résultats sont bons grâce à la stratégie mise en place et au travail de tous, mais malheureusement, la direction ne veut pas modifier ou augmenter le budget marketing car ce qui est déjà mis en place “marche“, alors à quoi bon ? C’est exactement ce genre d’état d’esprit qui à tendance à nuire à l’esprit d’équipe et au manque d’adhésion.

Conseil SEO :
Pour pousser les collaborateurs à adhérer à la stratégie de l’entreprise, il faudrait davantage les impliquer et communiquer sur :

-les résultat obtenus

-l’impact des résultats des différentes campagnes de référencement naturel sur l’entreprise 

-partager les expériences des différents collaborateurs impliqués ou non dans le dossier

Parce que les collaborateurs, plus qu’avant, désirent savoir comment par leur travail ils contribuent à l’essor de leur entreprise.

Faire fi des problèmes de référencement technique

Bien souvent les entreprises ont tendance à laisser les soucis techniques s’accumuler dans le temps :

-lenteur de la vitesse du site

-structure de liens internes manquante

-présence de contenus dupliqués

-balises canoniques absentes

-temps de réponse du serveur trop long

-…

Conseil SEO :
Si ces problèmes sont réglés au fur et à mesure, les objectifs SEO seront plus facilement et rapidement atteints.

Les erreurs de redirections multiples

Les redirections peuvent vite devenir incontrôlables et causer beaucoup de tort à une campagne d’optimisation de référencement naturel.

Solution SEO :
Pour éviter l’anarchie, il faut très tôt s’attacher à :

-corriger les redirections et les liens brisés 

-corriger les chaînes de redirections

-automatiser la recherche de redirections

-mettre en place une base de données de redirections

-mettre en place une politique de gestion des redirections 

Source : Searchengineland

May Core Update 2022 : la mise à jour est finie

Par le biais de Twitter, Google a annoncé que le déploiement de la mise à jour principale de son algorithme était achevée.

Cette mise à jour a commencé le 25 mai pour finir le 9 juin 2022. 

Vers le 10ème jour de son déploiement, des changements ont commencé à se faire sentir, notamment au niveau de la volatilité des positionnements. Maintenant, il reste à voir, dans la durée, son impact exact sur le SEO et les positions des sites internet.

Source : Google Search Central

May Core update : une importante mise à jour de Google Search

Google a annoncé le 25 mai dernier, soit la veille du jour férié de l’Ascension, le début d’une mise à jour substantielle de son moteur de recherche.

Cette mise à jour dite de base concerne l’algorithme même du moteur de recherche. Elle a pour but d’améliorer la pertinence globale des résultats de recherche.

Elle est actuellement en cours de déploiement puisque selon Google le processus durera environ 1 à 2 semaines.

Conséquences de la May Core Update sur les sites internet

En règle général, durant le déploiement de mises à jour algorithmiques d’importance, la position des sites internet est susceptible d’être instable à la hausse comme à la baisse.
Une analyse SEO sera pertinente après le déploiement complet de la May Core Update pour voir si un site web a gagné ou perdu de manière définitive des positions afin de rectifier le tir.

Sources : Google Search Central

Consultant SEO liens entrants back link

Combien de temps durent les liens hypertextes sur un site web ?

Les liens sur et vers les pages web d’un site internet ne sont pas éternels. Même si l’on s’en doutait, il est toujours intéressant de savoir à quoi s’attendre surtout quand on pratique du netlinking. La conclusion de l’étude sur la durée de vie des liens menée par Ahref depuis 2013 nous éclaire quelque peu sur la question.

Internet évolue constamment et la configuration des sites internet a beaucoup changée ces dernières années, ne serait-ce que si l’on prend en considération le passage de HTTP vers HTTPS qui a modifié et rendu obsolète bon nombre d’Url. 

Ainsi, selon cette étude, il apparait que depuis janvier 2013 :

  • 74,5% des liens hypertextes analysés ne fonctionnent plus (dont 6,45% avec un code d’erreur temporaire), moins de 10 ans suivant leur création, autrement dit la page web sur laquelle pointe le lien est introuvable et affiche un code d’erreur 404.
    Une page web apparait en 404 si la page web a été déplacée, supprimée ou réorientée ; le lien menant vers nulle part est alors considéré comme mort ou pourrit.
  • Plus un site est gros (avec plus de 10 liens hypertextes), plus il est susceptible d’être touché par ce phénomène de pourriture de liens.

Les causes les plus fréquentes de pourriture de liens 

  • 47,7% des liens sont abandonnés car les pages web n’existent plus. Le domaine n’existant plus, ces pages web ne peuvent donc être ni explorées ni indexées ;
  • 34,2% sont supprimés : la page est bien là mais le lien sur la page a disparu ;
  • 6,45% affichent des erreur de crawl (les moteurs de recherche ne parviennent pas à lire la page correctement)
  • 5,99% des liens redirigent la page web vers un autre emplacement donc vers une autre URL. C’est le cas des redirections 301 ou 302 qui sont mises en place lors d’une migration web par exemple ;
  • 4,11% sont non trouvés (erreur 404 ou 410), tout simplement parce que la page a disparu ou le contenu du lien est manquant ;
  • 0,82% des liens sont considérés comme canonicalisés : la page web est redirigée vers une Url canonical par exemple, mais celle-ci peut encore avoir le lien ;
  • 0,73% sont en no index :  la page est en « noindex » au niveau de la balise meta « robots » (non inclus dans les liens pourris car techniquement le lien existe mais c’est la page sur laquelle il se situe qui n’est pas trouvée par les moteurs de recherche).
  • Quelques liens sont perdus à cause de redirections en chaine rompue, modifiée ou inexistante.

La bonne pratique face aux liens pourris

Pour réparer des liens hypertextes sur son site internet, il faut déjà les repérer. Certains outils d’analyse de site permettent d’identifier facilement les liens brisés. Il faut ensuite les supprimer ou les mettre à jour vers les pages pertinentes de votre site web ou qui pointent vers d’autres sites web.
Votre consultant SEO peut vous accompagner dans cette démarche surtout si vous avez beaucoup de liens présents sur votre site internet.

Sources : Ahrefs

Référencement Google - avis client

Avis en ligne : quel impact sur votre business ?

Les outils en ligne donnent de plus en plus la possibilité aux personnes de donner leurs avis sur les entreprises. Tandis que certains établissements les redoutent, d’autres en font un levier majeur de leur stratégie commerciale. Mais, quel est l’impact réel des avis en ligne sur la réputation voire le business d’une entreprise ? Une récente étude de la société Partoo vient nous apporter quelques éléments de réponses. 

Bien que parfois l’on peut être amené à douter de leur véracité, une chose est sûre : les avis en ligne sont lus. C’est ce que révèle cette étude :

-2 français sur 3  déclarent regarder les avis en ligne ; la proportion est de 25% chez les 18-24 ans qui disent toujours les lire.

 -70% utilisent les avis avant d’aller dans un établissement et 3 personnes sur 5 (60%) ignorent un établissement qui a une note en-dessous de 3,5/5, l’estimant être un facteur suffisamment bloquant.

Ainsi, de plus en plus de personnes tendent à lire les avis en ligne avant de faire leur achat ou de visiter un établissement.
Mais, ce sont surtout les jeunes entre 18 et 24 ans qui laissent le plus leurs avis en ligne, parfois jusqu’à une dizaine par mois pour 14% d’entre eux !

Quels types d’établissements sont concernés par les avis en ligne ?

Avec la multiplication des outils en ligne donnant la possibilité de donner son avis comme la fiche Google My Business (ex fiche Google entreprise), tous les établissements, quelque soit leur activité, sont concernés par les avis en ligne mais les secteurs de la restauration, des loisirs et du médical sont les plus impactés.

C’est pour la restauration (bars /restaurants) que 23% des répondants estiment que les avis comptent le plus ; pour les hôtels (14%) et les établissements de santé (13%). Notons que les 25-34 ans sont plus sensibles aux avis en ligne concernant la restauration alors que les 55-64 ans le sont plus pour les hôtels à 35%.

A quoi les internautes font-ils attention en particulier ?

93% regardent les réponses des propriétaires aux avis négatifs, d’où l’importance de ne pas laisser les avis négatifs en suspend. D’ailleurs, 68% des internautes sont prêts à modifier leurs avis suite à une réponse adaptée des propriétaires des établissements concernés. 

Comment avoir des avis en ligne ?

Visiblement en le demandant, mais sans être toutefois trop envahissant. 46% des répondants sont prêts à laisser un avis si on le leur demande : 35% suite à une demande verbale et 27% par SMS. 

Que nous apprend cette enquête ?

D’une part, les entreprises ne doivent pas négliger l’impact que pourrait avoir les avis en ligne sur leur business et d’autre part, c’est une erreur de ne pas prendre en considération les avis clients négatifs en leur apportant une réponse adaptée. 

Référencement google et avis en ligne : impact business

Source : Partoo

Référencement Google - Pack local carte interactive Mediadvance

Pack local Google : la carte est maintenant interactive

Google a procédé à une mise à jour de la carte dans le pack local qui apparait dans les résultats de recherche. La nouvelle carte est maintenant interactive alors qu’auparavant, il fallait cliquer pour simplement accéder à Google Maps.

Pour rappel, le pack local de Google est l’ensemble des informations sur une entreprise locale présentes dans Google Maps et la fiche Business entreprise (appelée maintenant Google business profile).

Ce qui change
Avec cette nouvelle mise à jour, la carte dans Google Maps est interactive. Il est désormais possible, juste en passant la souris sur la carte, de voir plus de détails sur l’établissement recherché : les avis, le secteur d’activité, les horaires d’ouverture, etc.. On peut aussi zoomer et dézoomer pour voir les autres entreprises à proximité avec les mêmes informations.

Un impact sur le référencement local
Cette mise à jour risque d’avoir un impact encore plus important sur le référencement google, au niveau du référencement local, car même les entreprises qui ne sont pas classées en première position en local deviennent visibles sur la carte. De ce fait, les avis clients prennent plus d’importance qu’auparavant. Or, ce sont souvent ces derniers qui donnent envient aux internautes de cliquer ou non sur le site internet d’une entreprise.

Referencement Google - service médical en ligne - réservations médicales en ligne

Doctolib bientôt concurrencé par Google ?

A travers son moteur de recherche, Google investit beaucoup de secteurs. Après le e-commerce avec Google Shopping, les annonces d’emplois, la réservation de billets d’avions avec Google Flights, etc., voici venue la réservation de consultations médicales en ligne.

Ce service a pour but d’aider les internautes à trouver et à réserver simplement des rendez-vous auprès des professionnels de santé, que ce soit pour une consultation ou un examen. Nul besoin de passer par une plateforme en ligne puisque la prise de rdv se fait directement sur le moteur de recherche de Google.   

Actuellement en test aux Etats-Unis, ce service pourrait être déployé en Europe et en France s’il s’avère concluant et venir concurrencer notre pépite française.

Le moteur de recherche russe Yandex dans la tourmente depuis l’invasion ukrainienne

Le moteur de recherche russe Yandex dans la tourmente depuis l’invasion ukrainienne

Depuis le début de l’invasion de l’Ukraine par la Russie le 24 février dernier, le moteur de recherche russe Yandex, ne cesse de subir les revers.

Le Google russe
Celui que l’on surnomme le Google russe est le second moteur de recherche le plus utilisé en Russie juste après Google. Tout comme lui, il fournit aux russes pas moins de 70 services internet, allant de la cartographie, la messagerie électronique, jusqu’au paiement en ligne et la fourniture de service de télémédecine.

Une série de revers
Seulement quatre jours après l’invasion russe, sa cotation à la bourse de New-York a été suspendu et le cours de son action divisé par 5.
Uber, associé de Yandex pour la fourniture d’un service de VTC en Russie, a annoncé sa sortie imminente de son capital et la démission de ses trois cadres au conseil d’administration.

En interne, ce n’est pas mieux : les employés de Yandex ont très vite reproché aux dirigeants du groupe leur position ambiguë vis-à-vis des événements puisque le moteur de recherche filtre tous les articles d’actualités mentionnant le terme de « guerre » et affiche un bandeau sur son portail invitant les internautes russes à se méfier des fausses informations.

Le dernier revers en date vient de l’Union européenne qui, dans la foulée des nombreuses sanctions prises à l’égard de la Russie, vient appliquer une sanction individuelle (et non sur le groupe) sur Tigran Khoudaverdian, le patron arménien du groupe le poussant à démissionner.

Voici les 5 stats sur le SEO que vous devriez connaître

Si vous gérez un site web, vitrine ou e-commerce, et que vous vous demandez si optimiser le référencement naturel est si important que cela, alors les statistiques SEO qui vont suivre devraient vous intéresser.

93% des expériences en ligne débute avec un moteur de recherche

Internet a pris tellement de place dans nos vies que la première chose que nous faisons quand nous voulons une information c’est de lancer un moteur de recherche.

60% des internautes cliquent sur un des 3 premiers résultats

Il s’agit là des résultats organiques et non des résultats sponsorisés. Le premier résultat organique, soit celui positionné de manière naturelle, truste près de 32% des taux de clics. Il a 10 fois plus de chances d’obtenir un clic que le résultat en position 10.
La dernière étude sur ce sujet menée par Seoclarity et parue en novembre 2021 montre que :

-sur PC, le taux de clic est de 8,17% pour le premier résultat naturel, 3,82% pour le second et de 2,43% pour le troisième. Le dixième ne récolte que 0,44%.

-sur mobile, la première position en référencement naturel collecte 6,74% des clics, 3,41% pour la seconde position et 2,50% pour la troisième. La dixième est à 0,48%, légèrement plus que sur PC.

Rédiger une balise description attractive est plus que jamais primordial pour favoriser les clics des internautes.

Une requête c’est 2 ou 3 mots

Une autre statistique SEO intéressante concerne la longueur des requêtes. 2 ou 3 mots, c’est le nombre de mots contenus dans une requête. Les mots-clés à plus de 10.000 recherches par mois ne comportent que 2 mots, d’où l’importance de faire une analyse de mots-clés bien ciblée.
Pour info, seuls 8% des recherches sont faites sous forme de questions.

La première page de résultat drainent plus de clics

75% des internautes ne vont pas plus loin que la première page de résultat quand ils font une recherche sur un moteur de recherche tandis que 59% ne vont visiter qu’une seule page et seulement 9% iront scroller jusqu’en bas de la première page.

Les moteurs de recherche, vecteurs de trafic

Les moteurs de recherche créent 300% plus de trafic visiteurs que les réseaux sociaux et quant aux publicités ciblées, 4 personnes sur 5 préfèrent ne pas cliquer dessus et ça, c’est une statistique SEO qui doit nous aider quant à la meilleure stratégie webmarketing à adopter pour drainer des visiteurs vers notre site internet.

Ces statistiques SEO démontrent combien ce serait une erreur en 2022 de ne pas mettre en place de stratégie de référencement naturel pour votre site internet.

Source : https://www.webfx.com/blog/marketing/marketing-stats/

Google page experience pour un bon referencement google

Mise en service imminente sur PC du critère SEO Google Page expérience

Après son déploiement sur mobile, la Google Page Experience est actuellement entrain d’être intégrée sur PC  et ce jusqu’en mars 2022.

C’est une mise à jour d’importance majeure dans le SEO (l’optimisation du référencement naturel) puisque le moteur de recherche intègrera désormais l’expérience utilisateur sur une page web comme critère SEO. C’est donc une nouvelle étape dans l’évolution de l’algorithme de Google.

Elle mesure la manière dont les visiteurs perçoivent les interactions sur une page web. C’est un critère qualitatif qui ne tient toutefois pas compte de la valeur purement informative de la page.

Pour mesurer l’expérience utilisateur sur une page web, Google prend en compte 3 indicateurs que sont les signaux web essentiels à savoir :

  1. La vitesse de chargement par le biais de l’indicateur LCP dès les 2,5 premières secondes de chargement
  2. l’interactivité avec l’indicateur FID qui mesure le temps entre le moment où le visiteur clique pour interagir la première fois sur une page web, sur un lien ou sur un bouton, et le moment où le navigateur est prêt à traiter cette action.
  3. la stabilité visuelle de la page (CLS) qui mesure les décalages de mise en page qui font que lorsque l’on clique sur une page, les éléments sautent et notre clic se fait sur autre chose.

Au-delà de cela, d’autres éléments rentrent dans ce métrique comme :

  • l’adaptation sur mobile ou mobile friendly
  • la sécurité du site internet avec la présence du protocole Https
  • l’absence de contenus intrusifs comme les bannières publicitaires qui prennent trop de place et empêchent d’accéder au contenu ou les interstitiels cookies mal placés, etc.

Il est possible de voir quels sont les signaux web essentiels de votre site internet qui pénalisent votre SEO avec l’outil gratuit de Google Lighthouse. Pour l’obtenir, il suffit de télécharger l’extension dans Chrome.

A voir dans le temps si un mauvais score d’expérience de Page peut suffire à pénaliser un site web dans le classement des résultats de recherche, soit le positionnement des résultats suite à l’optimisation du référencement naturel.

Comment bien rédiger la fiche produit de votre e-boutique

Pour avoir des fiches produit au top, le mieux est de faire appel à un consultant SEO. Au sein de notre agence SEO, nous optimisons pour vous vos principales fiches produit puis nous vous formons au remplissage de celles-ci. Voyons ensemble quels sont les écueils à éviter pour avoir une fiche Produit SEO friendly et intéressante pour les internautes.

La fiche Produit est une page stratégique de votre  boutique en ligne puisque c’est elle qui donne envie aux visiteurs de votre site d’acheter. Pour qu’elle remplisse pleinement sa fonction, elle doit être visible par les internautes qui recherchent votre produit mais aussi par les moteurs de recherche qui la place en première page des résultats de recherche si elle répond aux critères SEO.

Eviter de reprendre les descriptions de produit de votre fournisseur

Bon nombre de descriptions de fiches produit correspondent mot pour mot à celles données par le fournisseur ou le fabricant du produit en question. Or, celles-ci, données à titre indicatif, ne doivent pas être utilisées pour compléter vos fiches Produit. Et cela pour la simple et bonne raison que, pour les moteurs de recherche, votre description ne sera qu’un doublon de celle déjà indexée de votre fournisseur. 

Il faut savoir que depuis 2014, Google lutte contre les contenus en double dans le but de fournir des réponses de qualité à ses utilisateurs. Pour cela, il a intégré à son algorithme un filtre nommé Google Panda qui fait la chasse aux contenus dupliqués. Ce filtre concerne les contenus similaires présents sur :

-un même site y compris ceux présents sur une autre page de votre site et en faisant cela, vous « vampirisez » vos propres contenus!

-les contenus copiés collés issus d’un autre site web

-et les contenus ou commentaires générés automatiquement par des robots (content spinning). 

Le risque encouru à réutiliser un contenu copié collé d’un autre site est que le moteur de recherche pénalise votre page web ou votre fiche produit et qu’elle devienne invisible ou introuvable par les internautes parce qu’elle est reléguée en mauvaise position.

Eviter les fiches produits sans description

Des fiches produit sans description est le pire que l’on puisse faire pour pénaliser soi-même son site e-commerce ! Imaginez-vous à la place du visiteur : vous ne pouvez pas voir physiquement et encore moins toucher ou sentir le produit. Le seul moyen à votre disposition est d’avoir ses caractéristiques techniques mais aussi ses avantages lors de son utilisation.
Donc, une fois les caractéristiques techniques du produit renseignées, il vaut mieux  s’attacher surtout à donner envie d’acheter en expliquant les bénéfices apportées par le produit.

Comment bien rédiger sa fiche produit ?

Pour rédiger une description de fiche produit unique, il y a 2 possibilités :

1.partir de la fiche produit du fournisseur en utilisant des synonymes,

2.partir de votre propre connaissance du produit après l’avoir tester soi-même.  Cette dernière solution sera sans doute la plus intéressante pour l’internaute car, outre les caractéristiques techniques du produit, vous apporterez des arguments sur ses bénéfices à l’utilisation.

En rédigeant cette description, inclure des mots-clés pertinents donnera davantage envie d’acheter aux visiteurs et apportera du poids à la page au niveau du SEO. 

Pour accompagner cette description, il est fortement recommandé de l’accompagner de photos optimisées au niveau du référencement naturel pour le moteur de recherche et les internautes.

Le consultant seo, après avoir fait une analyse de mots-clés, effectue des optimisations on-page sur :

-les balises Title, Metas description et Hn

-les balises alt sont optimisées pour les images.

-Tout le contenu media (images, vidéos, …) est optimisé et compressé pour garantir un temps de chargement optimal de chaque fiche produit.

Rédiger correctement des fiches Produit en respectant les critères SEO prend du temps. Si vous en manquez justement, faites appel à un consultant SEO qui pourra vous accompagner dans l’optimisation du référencement naturel des fiches produit de votre e-boutique.

Comment Google envisage de rendre l’exploration de site web plus eco-friendly en 2022 ?

Dans un récent podcast dédié au moteur de recherche, John Mueller, Gary Illyes et Martin Splitt, développeurs en charge des relations entre Google et ses utilisateurs sur la partie SEO chez Google Suisse ont parlé des projets du groupe en 2022 pour son moteur de recherche, notamment sur le fait de le rendre plus respectueux de l’environnement.


Rendre l’exploration de sites internet plus efficace et plus eco-friendly

Une des pistes de Google pour l’environnement est d’aider le moteur de recherche à réduire son empreinte carbone sur l’environnement : les robots explorateurs ou crawlers passeront moins souvent sur une page web dont le contenu n’est pas susceptible de changer souvent comme les pages A propos ou Mentions légales d’un site.

Fin 2021, Sundar Pichai, le PDG du groupe avait annoncé son engagement à atteindre un fonctionnement complètement décarbonée d’ici à 2030. Cette action de Google pour l’environnement est-elle vraiment pertinente ? A-t-elle une chance d’aboutir ? Ce serait bien que Google montre l’exemple pour l’environnement, tant l’enjeu pour la planète est important.
Le rendez-vous est pris donc pour faire le bilan des actions visant une décarbonation complète de Google pour l’environnement…

Autres projets Google pour 2022 : le protocole Indexnow

Ils ont confirmé que Google est bien entrain de tester le protocole IndexNow de Bing Microsoft. IndexNow est un protocole qui permet l’indexation instantanée de pages web. Cependant, si la firme adopte ce protocole ce serait sous un format différent. A suivre…

Le point sur : le plan de site XML

La date de la dernière modification n’est pas prise en compte parce que bien souvent le plan de site XML est mal utilisé : la date est modifiée dans le sitemap XML alors que l’url n’a pas changé.

Le point sur : exploration de sites internet et classement

Ils ont fait le point sur l’idée reçue que plus une page web est explorée, mieux elle serait classée. Cela est évidemment faux, c’est la qualité de la page qui déterminera son classement dans les résultats de recherche.

Toutes ces annonces sont à suivre car si elles sont adoptées, elles risquent d’avoir un impact sur le SEO des sites internet.

Faites indexer vos pages web instantanément avec IndexNow de Microsoft Bing

60.000 sites web présents sur la plateforme Cloudflare ont déjà activé IndexNow, le protocole open source lancé en octobre dernier par Microsoft et le moteur de recherche russe Yandex.

Qu’est ce que c’est ?

IndexNow est un protocole ouvert qui permet le crawl et l’indexation instantanée des pages web et de leurs contenus. 

Grâce à ce protocole, les propriétaires de site web informent directement et simplement les moteurs de recherche participants au protocole que leur site internet a été créé, mis à jour ou supprimé. Cela évite d’attendre, parfois plusieurs semaines, que le moteur de recherche explore le site internet pour prendre en compte ses mises à jour et cela représente une économie de ressources tant pour eux que pour les moteurs de recherche.  

Comment fonctionne IndexNow de Microsoft ?

Toute la démarche pour soumettre les urls d’un site web est expliquée sur Bing.com/indexnow. Il suffit de suivre les différentes étapes décrites sur la page dédiée. Il faut :

  1. générer un clé API
  2. héberger la clé API sur le répertoire racine au format txt
  3. soumettre les urls 

N’importe quel moteur de recherche peut participer. De nombreuses entreprises du numérique comme Wix, Akamai, Botify, etc. ont fait savoir qu’elles utiliseraient IndexNow. Dernièrement, c’est Google qui a confirmé son souhait de tester ce nouveau protocole pour crawler et indexer ses pages web. 

En tant que référenceur, IndexNow présente un intérêt particulier pour l’indexation instantanée des nouveaux contenus de pages web car cela pourrait favoriser un positionnement plus rapide des pages optimisées, ce qui serait un gain de temps et de productivité non négligeable dans l’optimisation du référencement naturel des sites internet.

Affaire Wish : c’est quoi le déréférencement sur les moteurs de recherche ?

C’est une information qui n’est pas passée inaperçue dans le microcosme du référencement :  le ministre de l’économie Bruno Lemaire a révélé avoir demandé aux moteurs de recherche (dont Google et Bing) de déréférencer le site de e-commerce américain Wish dont le siège social est basé à San Francisco.

Selon le ministre de l’économie, Wish fait partie des « acteurs qui bafouent la réglementation sur la sécurité des produits et c’est inacceptable. Il n’y a pas de raison de tolérer en ligne ce que nous n’acceptons pas dans les commerces physiques ». 

En effet, la DGCCRF a identifié sur ce site e-commerce de nombreux produits dont des jouets et appareils électriques “non conformes voire dangereux”. Cette demande de déréférencement fait suite à l’absence de réponse positive des demandes de mises  en conformité de la DGCCRF (Direction Générale du commerce, de la Concurrence et de la Répression des Fraudes). 

Qu’est-ce que le référencement exactement ?

Pour bien comprendre cette affaire et la notion de déréférencement, il faut déjà savoir ce qu’est le référencement d’une page web. Le référencement d’une page web est obtenu quand un robot d’exploration ou crawler en anglais parcourt régulièrement les sites internet pour rechercher de nouvelles pages et d’éventuelles mises à jour à ajouter à sa base de données pour les indexer. 

Il ne faut pas confondre le référencement avec le positionnement (SEO) qui consiste à classer les résultats de recherche dans le moteur de recherche de manière automatique suivant son algorithme et selon des critères de pertinence prédéterminées.

Alors, le déréférencement, c’est quoi ?

Le déréférencement consiste à faire supprimer un ou plusieurs résultats fournis par un moteur de recherche suite à une recherche effectuée à partir du nom et prénom d’une personne ou d’une entité. 
Cette suppression n’efface pas complètement le contenu litigieux (urls, vidéos, photos, etc.) car celui-ci peut être accessible en faisant des recherches avec d’autres critères ou en allant directement sur le site de l’entité. Si le contenu litigieux est présent sur un réseau social, la demande de déréférencement doit se faire auprès du réseau social directement.

La Cour de justice européenne, dans son arrêt du 24/09/2019, a limité géographiquement la portée du déréférencement dans le mesure où celui-ci n’est valable que dans l’Union européen  rendant les contenus litigieux toujours visibles en dehors de l’UE.

Elle oblige également les moteurs de recherche à prendre toutes les mesures efficaces possibles pour appliquer le déréférencement dans l’U.E même si celui-ci peut refuser le déréférencement s’il estime que l’information concernée doit être portée à la connaissance des internautes.

Le déréférencement et le droit à l’oubli, c’est pareil ?

Le droit à l’oubli existe depuis 2014 mais, c’est le Conseil d’Etat qui précise vraiment son champ d’application dans son arrêt du 06/12/2019. Ainsi, un particulier peut demander le déréférencement ou le droit à l’oubli sur internet suite à la parution de données personnelles le concernant sur Internet. Il peut faire sa demande aux moteurs de recherche via des formulaires mis à dispositions par les moteur de recherche eux-mêmes, en saisissant la CNIL ou le juge judiciaire. Les types de données personnelles concernées sont :

1-les données dites sensibles ou les plus intrusives dans la vie d’une personne (santé, vie sexuelle, opinions politiques, convictions religieuses …),

2-les données pénales (procédure judiciaire ou une condamnation pénale), les données relatives à la vie privée sans être sensibles.

Par ailleurs, la manière dont ces données ont été divulguées au public, par l’intéressé lui-même par exemple et dont elles restent accessibles.

 

Existe t-il vraiment un droit à l’oubli ou un déréférencement pour les entreprises ?

Le droit à l’oubli concerne uniquement les données personnelles des personnes physiques. Donc, pour protéger leur e-réputation, les entreprises ne peuvent faire une demande de droit à l’oubli ou de déréférencement comme c’est le cas pour le citoyen européen depuis 2014. En revanche, les dirigeants d’entreprises, les mandataires sociaux et les salariés peuvent tout à fait faire valoir leur droit à l’oubli sur Internet en tant que personnes physiques.

 

Quels outils sont à disposition des entreprises pour protéger leur e-réputation ?

Il n’y a pas de formulaire de droit à l’oubli ou de déréférencement pour les entreprises.

Si une entreprise veut faire disparaître un contenu qu’elle juge néfaste à sa réputation sur Internet, le mieux qu’elle est à faire est :

-contacter l’éditeur du site du contenu litigieux afin de lui demander de supprimer celui-ci, de le corriger ou au minimum de publier un droit de réponse. Le risque c’est qu’il peut refuser de le faire, voire, au contraire, utiliser cette demande de suppression/ correction/droit de réponse pour en rajouter, c’est ce qu’on appelle l’effet Streisand (souhait d’interdire la révélation d’informations mais qui aboutit à des conséquences inverses). 

-faire appel à une agence de SEO pour travailler son e-réputation pour nettoyer les contenus dérangeants et les remplacer petit à petit par d’autres publications jusqu’à ce que ces contenus soit invisibles dans les résultats de recherche des internautes. C’est une méthode qui prend du temps, certes mais rudement efficace.

-Sinon, faire de la veille avec des outils simples d’utilisation comme Google alertes est aussi un bon moyen pour savoir ce qui est dit et publié sur vous et votre entreprise.

 

Sinon, un déréférencement de Whish est-ce vraiment possible ?

C’est une première en France et un bon cas d’école d’autant que la demande émane d’une entité gouvernementale.

Après quelques jours de silence, Google et Apple se sont finalement exécutés en commençant par ôter l’application de leur store. Les FAI (fournisseurs d’accès à internet) devraient aussi bloquer l’accès à Whish. Pour ce qui est des moteurs de recherche, cela risque de prendre du temps au vu  des 10 200 000 pages de résultats indexées dans Google France et de la popularité de ce site. Affaire à suivre…

Votre fiche Google My Business s’appelle maintenant Google Business Profile

Cette fiche d’entreprise devient plus facile à gérer puisque maintenant nous pourrons l’administrer directement depuis les résultats de recherche qui apparaissent sous notre nom dans Google ou dans Google Maps.

L’outil d’administration qu’on utilise jusqu’à présent va être fermé pour laisser place à Google Business Profile ou  Business Profile Manager si l’on gère plusieurs sites pour son entreprise ou pour d’autres entreprises comme c’est le cas pour les référenceurs.

Pour la petite histoire, ce n’est pas la première fois que Google change le nom de cette fiche d’entreprise. Au début, en 2015, elle s’appelait Google local business center pour devenir en 2010, Google places, puis en 2012 : Google+ local et ensuite Google my business en 2014.

Cette fiche vous aidera à améliorer votre visibilité au niveau local, dans la mesure où votre entreprise devient visible pour tous ceux qui recherchent une entreprise dans votre domaine d’activité près de chez vous alors, n’hésitez pas à la mettre à jour vous-même.

Et si vous souhaitez un référencement local avancé ou plus poussé, faites appel à votre consultant SEO.

Référencement google - exemple de la fiole avec les ingrédients indispensables pour un bon seo

Le combo gagnant pour bien positionner son site internet

Aujourd’hui grâce aux CMS, créer un site internet est bien plus simple que le référencer sur les moteurs de recherche.

Face à la multitude de sites internet à indexer et à référencer les moteurs de recherche sont obligés de réviser et d’affiner sans cesse leur algorithme pour proposer à leurs utilisateurs des résultats de recherche de plus en plus précis.

De ce fait, le référencement naturel qui était simple au début d’internet (l’indexation seule suffisait) est de plus en plus compliquée et technique aujourd’hui.

Alors, quel est le combo gagnant pour un bon référencement google ?

On pourrait comparer l’optimisation SEO d’un site internet à une mixture composée de 3 éléments fondamentaux et indispensable pour obtenir un référencement google de qualité :

1.De la technique
Oui, le SEO est un travail très technique. Il ne suffit pas de savoir créer un site internet pour bien le référencer ou le positionner. Il faut bien entendu connaître les bases du SEO et avoir de l’expérience pour savoir dès l’audit SEO ce qu’il faudra retravailler sur le site internet pour bien le positionner. Ces bases fondamentales sont :

  • les Hn
  • les balises
  • le maillage interne
  • le contenu dupliqué
  • le poids des images
  • l’hébergement web
  • l’expérience utilisateur

2.Un contenu de qualité
Le mantra de l’expert SEO est « content is king » (le contenu est roi, en français). C’est un critère primordial pour être bien positionné sur les moteurs de recherche. Vos textes, vos images, vos photos, vos publications, etc. , tous vos contenus sont pris en compte. Et cela se comprend aisément puisque la mission première d’un moteur de recherche est d’apporter des réponses aux recherches et questions de ses utilisateurs.
Mais, votre contenu ne se suffit pas à lui-même. Il doit être :

  • de qualité avec à la fois du texte, des images et/ou des vidéos, de l’audio avec des podcasts par exemple
  • optimisé
  • hiérarchisé
  • non dupliqué
  • et bien sûr, correspondre aux intentions de recherche

3.Un netlinking de qualité
Pour parfaire votre SEO, il vous faudra mettre en place une politique de liens entrants. Ces backlinks doit provenir de sites web ayant les caractéristiques suivantes au risque de vous desservir. 

  • même thématique que la page de destination
  • d’autorité ou populaires
  • vos ancres sont optimisées
  • et non issus de fermes de liens. Attention, car la présence de trop de backlinks peuvent induire en erreur le moteur de recherche.
  • issus de pages indéxées et faisant partie d’un maillage interne

Si vous mettez en place ces 3 éléments fondamentaux, vous êtes assurés d’avoir un bon référencement google qui vous permettra d’augmenter le nombre de visiteurs sur votre site pour améliorer vos ventes.

C’est un travail technique certes mais qui demande beaucoup de temps, surtout pour les sites e-commerce. Le mieux est de faire appel à un consultant SEO expérimenté, ce qui pour le coup vous fera gagner du temps à consacrer à votre businnes en ligne.

Mum, la nouvelle mise à jour de Google boostée à l’IA

Baptisée Mum pour Multitask Unified Model (Modèle unifié multitâche en français), le nouvel algorithme du moteur de recherche de Google est conçu avec une bonne dose d’intelligence artificielle. Il a pour objectif de répondre de manière encore plus précise aux requêtes les plus complexes des internautes.

1 000 fois plus puissant que BERT (le précédent algorithme de recherche de Google déployé en 2019), MUM  ne comprend pas seulement le langage, mais il le génère également. Il est formé dans 75 langues différentes et est capable de répondre à de nombreuses tâches différentes à la fois, ce qui lui permet de développer une compréhension plus complète de l’information et de la connaissance du monde que les modèles précédents.

Actuellement, nous sommes amenés à devoir taper de nombreuses requêtes et effectuer de nombreuses recherches pour obtenir la réponse dont nous avons besoin.

En général, quand nous effectuons une recherche sur Google, nous émettons en moyenne huit requêtes pour obtenir le résultat souhaité. Désormais, avec Google MUM, nous aurons besoin de faire moins de recherches pour répondre à des recherches complexes.

 

MUM est multimodal

Google Mum est multimodal dans le sens où il comprend simultanément les informations qui proviennent de différentes sources de différents formats tels que du texte, des images et des pages web et, à l’avenir, il prendra en compte celles qui viennent des vidéos et de l’audio.

 

Il a le potentiel de briser les frontières en transférant les connaissances entre les langues. Il peut apprendre et transférer des informations qui proviennent de sources de langues différentes de la nôtre pour nous fournir les informations les plus précises et pertinentes dans notre langue préférée.

 

Notons que ce nouvel algorithme est déployé petit à petit et donnera lieu à de nouveaux produits et fonctionnalités.

 

Google Mum aura très certainement un impact significatif sur le référencement naturel Google et le SEO, notamment sur les recherches complexes. 

La base du SEO

Pour placer votre site internet dans les premiers résultats de Google, il est impératif de maîtriser les techniques SEO recommandées par les moteurs de recherche.

Définition du SEO

Le SEO ou Search Engine Optimization en anglais regroupe l’ensemble des techniques pour améliorer le trafic des visites sur un site internet et le placer dans les premiers résultats des moteurs de recherche.

Travailler pleinement le SEO de votre boutique en ligne, page web après page web, prend beaucoup de temps. Cependant, il vous est possible d’obtenir des résultats en optimisant quelques critères comme :

  • les balises Metas
  • les liens entrants et sortants
  • le maillage interne

Ceci accompagné d’un contenu riche à destination de votre cible devrait bien vous positionner sur les moteurs de recherche et normalement, le nombre de visites devrait augmenter.

Soigner son e-réputation avec le SEO en 2021

Beaucoup des polémiques et des sujets de société qui ont fait l’actualité en 2020 prennent leur source sur Internet et plus précisément, sur les réseaux sociaux : les mouvements Me Too et Black Lives Matter, la vaccination, le bien-être animal, l’égalité hommes/femmes, les violences policières, etc., Internet est devenu un lieu d’expression incontournable où l’on hésite pas à revendiquer et donner son avis. Gérer la e-réputation de son entreprise et de sa marque est devenu essentiel. Mais, quels sont les moyens à disposition et comment le SEO peut-il contribuer à restaurer une bonne e-réputation ?

La crise du Covid-19 à pousser beaucoup d’entreprises à se digitaliser et à s’emparer d’internet pour se faire connaitre et sauver leur activité : création d’un site internet ou d’une boutique en ligne, ouverture d’un compte professionnel sur une market-place ou les réseaux sociaux, …. . Mais Internet peut être un outil à double tranchant pour les marques et les entreprises qui ne peuvent plus ignorer les avis et les sujets de société brûlants sans prendre le risque que cela ait un impact négatif ou positif sur leur e-réputation.

Dans l’infographie ci-contre, nous vous donnons des indications sur les points de vigilance nécessaires pour maîtriser au mieux l’image de son entreprise et de sa marque sur Internet. Comment le SEO peut-il être utiliser pour surveiller et restaurer son e-réputation ?

Les avantages et les inconvénients du SEO et du SEA

Voici une petite comparaison sous forme d’infographie qui explique les avantages et les inconvénients des deux principales stratégies marketing sur les moteurs de recherche, le SEO et le SEA :

Le SEA

Le SEA pour Search Engine Advertising en anglais désigne les campagnes publicitaires sur les moteurs de recherche qui se font principalement sur Google (Adwords) et Bing (bings Ad).
Plus éphémère, le SEA peut être réservé à de l’évènementiel (lancement de produit, fêtes, etc.) ou pour booster vos campagnes e-marketing.

Le SEO

Le SEO (Search Engine Optimization) fait référence aux techniques pour optimiser le classement des sites internet sur les moteurs de recherche.
Le SEO est une technique faite pour améliorer le positionnement d’un site internet dans la durée, c’est pour cette raison que l’on dit qu’il est plus rentable à moyen et long terme que le SEA.

Cependant, on a souvent tendance à opposer ces deux stratégies alors qu’elles sont plutôt complémentaires pour améliorer la visibilité d’un site internet sur les moteurs de recherche comme Google et acquérir plus de trafic.

Voici ci-dessous une infographie pour vous donner une idée des avantages et des inconvénients du SEO et du SEA.

référencement Google - SEO et SEA comparatif
Audit SEO gratuit - analyse globale du référencement naturel

Le signal Page Experience, nouveau critère SEO pour mai 2021

Le 10 novembre 2020 a été la date du top départ pour le déploiement de la mise à jour majeure de Google qui aura lieu en mai 2021 et qui s’appelle l’Expérience sur la page Google ou Signal Page Experience en anglais .

Qu’est ce que ce critère, l’Expérience sur la page Google ?

Le critère l’expérience sur la page de Google est un nouveau facteur de classement qui regroupe des critères de classement axés sur l’expérience utilisateur. Concrètement, chaque critère produira un score qui donnera un score final d’expérience de page. C’est une approche évolutive qui permettra d’agir sur chaque facteur de manière isolée afin de les affiner au mieux.

La confirmation de l’Expérience Utilisateur (UX)

Google prend en compte, depuis quelques années déjà, l’expérience utilisateur comme critère de classement avec, par exemple, la compatibilité mobile pour un site adapté qui s’affiche sur les smartphones et tablettes ou le Https pour sécuriser les données utilisateurs.

De nouveaux critères

Des critères existants déjà donc seront intégrés dans l’expérience sur la page de Google, mais d’autres critères vont faire leur entrée. Voici les critères qui seront incluent dans le critère l’expérience sur la page de Google :

  1. Les signaux web essentiels (Core web vitals) qui comprend 3 indicateurs : les performances de chargement des pages (LCP). Le LCP doit se faire 2,5 secondes après le début du  chargement de la page;  l’interactivité (FID) qui doit être de moins de 100 millisecondes; la stabilité visuelle (CLS) à moins de 0,1.
    Les signaux web essentiels d’un site peuvent être mesurés avec la Search Console ou le rapport d’expérience utilisateur de Chrome.
  2. Le mobile friendly
  3. Une navigation sûre
  4. Le Https
  5. L’absence de pop-ups mobiles et de publicités de sites irruptives. En 2018, Google a commencé à filtrer les sites ayant des publicités agressives.

Le critère SEO l’Expérience sur la page Google sera t-il un critère prépondérant ?

Google, par le biais de Gary Ilyes, a déjà confirmé que le Signal Page experience ou l’expérience sur la page est un facteur de classement qu’il faudra prendre en compte même s’il ne deviendra pas LE facteur préponderant : le contenu est et restera toujours roi. En effet, s’il existe une page avec un contenu de tueur et que c’est la page avec le contenu le plus pertinent pour l’utilisateur, elle sera toujours bien classée même si son score d’expérience de page est faible. Cela vaut aussi pour les marques.

Quelle puissance de signal ?

On a hâte de voir ce facteur enfin déployé car on ne sait pas quelle sera l’intensité du Signal envoyé. Sera t-il faible ou puissant ? Sera t-il fort vis-à-vis des sites web qui ruinent notre expérience utilisateur avec des pratiques abusives telles que les redirections vers une autre page quand on ne s’y attend pas, des liens déguisés en boutons vers des sites tiers, des superpositions transparentes pour capter les clics, les publicités qui consomment tellement de ressources que cela abime notre appareil à notre insu, les notifications abusives,… .

Les propriétaires de sites internet ont jusqu’au mois de mai 2021 pour se préparer à cette nouvelle mise à jour qui aura des conséquences sur le SEO.

Sources : Semrush

Conférence : « Améliorez son référencement naturel en temps de crise »

Venez nombreux assister à notre conférence :
« PME-PMI, la crise du COVID-19 a rendu nécessaire l’accélération de votre transformation digitale, la visibilité de votre site Internet devient indispensable ! « 
Animée par : Jean-Pierre MEROUZE et Robert FORTUN – MEDIADVANCE
  • Jeudi 22 octobre 2020 de 18h à 20h00 – Salle AGORA à TEMIS, 17 F rue Alain Savary à Besançon
  • Réservée aux chefs d’entreprise
  • Participation possible en présentiel ou en visioconférence
  • Inscription obligatoire quel que soit votre choix : https://lnkd.in/dckEPRM

Les 7 types de SEO

Vous souhaitez mieux comprendre le référencement naturel mais entre le SEO white hat, le SEO black hat ou encore le SEO on-page ou off-page, sans oublier le SEO local, vous avez du mal à vous y retrouver.
Pour vous aider à mieux comprendre, nous vous avons élaboré une  infographie qui résume les différents types de SEO qui existent actuellement pour optimiser le référencement naturel d’un site internet et faire monter votre site web dans les premiers résultats des moteurs de recherche.

 

Voici les 5 erreurs à ne pas faire pour bien optimiser son contenu web

Pour être bien référencé sur Google, il faut du contenu pertinent (textes et images) qui respecte les critères de référencement naturel. Toutefois, certains facteurs ne doivent pas être négligés, même si le contenu est de qualité. Voici les 5 erreurs à ne pas commettre pour ne pas entraver le référencement naturel de vos pages web et être bien référencé dans Google :

Un site internet qui n’est pas mobile friendly et mobile-first

Désormais, depuis juillet 2019, Google se base sur la version mobile de votre site internet pour positionner celui-ci. Un petit conseil : si vous tenez à être bien référencé sur Google, le n°1 des moteurs de recherche, vérifiez sur la Search Console que votre site web est visible sur les tablettes et les smartphones et suivez les conseils de Google pour corriger les éventuelles erreurs qui empêcheraient leur indexation par les robots de Google.
En effet, certains contenus, bien que visibles sur la version PC, sont difficilement cliquables ou visibles sur mobile, autrement dit : ils ne sont pas responsive. C’est souvent le cas des formulaires ou des boutons cliquables qui se chevauchent sur la version mobile.

Un site qui n’est pas en html

Les développeurs privilégient bien souvent le Javascript pour générer le style et le contenu des pages web. Or, cela peut rendre ces dernières moins performantes voire inaccessibles, sans parler du fait que certains navigateurs n’affichent pas certaines fonctionnalités selon les utilisateurs.
Même si le site s’affiche correctement sur ordinateur, il peut y avoir des soucis de responsive design empêchant l’affichage sur mobile, ce qui vous prive d’un grand nombre de visiteurs potentiels. Il faut garder en tête que les robots ou crawlers des moteurs de recherche privilégient les contenus développés directement en Html. Il vaut mieux réserver le Javascript pour les applications.

Indexer vos pages web en mode preprod

Si lors de la création de sites web, la version test ou preprod est indispensable, indexer cette version preprod nuit gravement au référencement naturel de votre site internet.
Pour éviter cela, il vaut mieux utiliser les balises noindex et nofollow durant le processus de création de site internet et avec un accès restreint par mot de passe. Cela évitera que les crawlers des moteurs de recherche indexent plusieurs versions de votre site internet. Par contre, une fois le travail terminé, n’oubliez pas d’enlever les noindex/nofollow pour indexer le contenu définitif mis en ligne et faciliter le travail des crawlers (robots) pour être bien référencé dans Google.

Ne pas utiliser la pagination pour vos contenus

Quand on a grande quantité de contenus à présenter, la pagination est conseillée pour améliorer l’expérience utilisateur. Elle a pour avantage de faciliter la navigation sur votre site internet car, le visiteur de votre site web pourra décider soit d’afficher plus de résultats, soit de décider du nombre de pages qu’il souhaite voir. Mais, elle ne doit pas être systématique au risque d’avoir certaines pages avec peu de contenus à présenter aux moteurs de recherche.

Négliger le temps de chargement des pages web

La vitesse de chargement d’une page web est un critère primordial en SEO, ne serait-ce que pour l’expérience utilisateur qu’il propose. Pour optimiser le chargement d’une page web, il faut mettre l’accent sur un hébergement web et une configuration serveur au top. Eviter aussi le trop plein de publicités, de carrousels et autres contenus media qui vont venir grignoter sur la vitesse de chargement de vos pages et faire fuir les visiteurs de votre site. Optimiser la vitesse de chargement de ses pages web est le BA-ba pour être bien référencé sur Google.

Avant d’envisager tout travail d’optimisation de référencement naturel sur votre site internet, faites appel à un expert SEO ou à un de nos consultants SEO pour un audit SEO préalable de votre site web.

Sources : Journal du net

Bing lance un outil de vérification des Urls

Bing Webmaster Tools a développé et mis en place un outil pour vérifier la qualité des Urls d’un site internet.

L’outil est simple d’utilisation : il suffit d’indiquer l’Url d’une page web pour obtenir des précisions sur la page en question ainsi que des conseils sur les améliorations possibles. L’outil analyse :

  1. l’indexation : il donne des précisions sur l’état de l’indexation de la page web et les détails de l’Url à savoir la date et le lieu où l’Url a été explorée et indexée. Il est également possible de voir sa version Html ainsi que les détails de la réponse HTTP;
  2. le SEO : il vous dit quelles sont les erreurs et les avertissements relatifs au référencement naturel de la page web. Il analyse 15 critères SEO et vous donne les erreurs potentiels avec le code Html correspondant et les différentes étapes pour les rectifier. On peut aussi avoir les erreurs qui apparaissent telles qu’elles apparaissent sur Bing;
  3. les détails du MarkUp : cela concerne les balises structurées (schéma.org, microdonnées Html, Json-LD, etc.) présents dans le code source de la page web afin que Bing puisse lire les informations correctement;
  4. la validation en direct : cela peut-être utile si l’on souhaite juste savoir si la page web est explorable ou non, sans forcément vouloir demander son indexation.

Cette outil est mis à disposition des webmasters mais aussi à tous ceux qui sont chargés du SEO d’un site web comme les consultants SEO. Cela leur permet d’avoir des informations structurées et précises pour les aider à mettre à jour le contenu d’une page et pour améliorer son positionnement dans les résultats du moteur de recherche.

Sources : https://blogs.bing.com/

Référencement naturel SEO Besançon, Dijon, Paris et Lyon - infographie SEO

SEO : le taux de clic varie selon la composition de la SERP

Le taux de clic ou CTR est un sujet récurrent lorsque l’on travaille le SEO d’un site internet. Comme tout bon expert SEO qui se respecte, nous visons toujours la 1ère page des résultats de recherche et tant qu’à faire la 1ère place car nous savons pertinemment que la 2ème page de résultats, et encore moins la 3ème page, est peu visitée par les internautes et donc reçoit peu de CTR.

Un CTR max pour la 1ère position

Une analyse récente sur plus de 80 millions de mots-clés faite par la société Sistrix confirme qu’en 2020, après les multiples mises à jour algorithmiques de Google, c’est toujours le résultat affiché en 1er dans les pages de résultats (SERP) de Google qui récolte le plus de clics (28,5%).

Pour résumé :

  • la première place récolte 28,5% des clics
  • la 2nde position, 15,7% de clics
  • pour la 3ème position, le pourcentage de clics n’est plus qu’à 11%
  • et le résultat situé à la 10ème position ne récolte que 2,5% de clic en moyenne

Le CTR est sensible à la composition de la page de résultats de recherche

Mais, la grande révélation de cette étude est que le CTR peut varier selon la composition de la page de résultats de recherche. Or, ces dernières années, Google a enrichit la page de résultats de recherche avec de nombreux éléments comme les featured snippets, les sitelink (liens annexes vers des sous-pages), les FAQ (questions-réponses), les annonces publicitaires, etc.. Tous ces éléments sont autant de distractions pour les internautes et qui vont venir diluer le CTR dans Google.

Ce constat est flagrant :

  • quand une SERP ne contient que les 10 liens organiques classiques (sans autre distraction) qui la constitue, le CTR dans Google monte à 34,2% pour la 1ère position, à 17,1% pour la 2nde position et à 11,4% pour la 3ème position.
  • Si des sitelinks sont présents dans la SERP, le pourcentage de CTR dans Google augmente puisque les sitelinks ont pour but d’attirer l’œil du visiteur vers les autres pages et sous-pages du site. Le CTR Google pour celui qui est premier sera ici de 46,9%, 14% pour le 2nde alors que les positions entre 3 et 10 passeront sous la barre des 5%.
  • En revanche, l’analyse révèle que la présence de featured snippets dans la SERP ne bénéficie pas à la 1ère position, son CTR dans Google diminue même de 5,3%. Il profite davantage à la 2nde et à la 3ème position.
  • C’est le même constat pour les knowledge panels qui font baisser le taux de clic moyen de 12 points pour la 1ère position. A l’inverse, ce sont les sites web situés à la 2nde et 3ème place qui remportent le plus de clics avec respectivement 20,5% et 13,3% de clics.

Ces variations s’expliquent facilement : les featured snippets et les knowledge panels apportent des informations à l’internaute qui n’a plus besoin de cliquer sur le 1er lien pour avoir sa réponse, sachant que sur mobile, ces éléments prennent beaucoup de place sur l’écran et dissuade l’internaute de cliquer.

Le CTR diminue avec la présence de Google Shopping et des publicités

Quand Google Shopping est présent dans la page de résultat de recherche, le CTR dans Google pour le premier n’est plus que de 13,7%, c’est le CTR dans Google le plus bas constaté dans cette étude.
C’est à peu près la même chose pour les Ads de Google qui, quand elles sont présentes, réduisent le CTR Google de 10% avec 18,9% pour la 1ère position.

Sistrix analyse aussi le CTR Google en présence d’autres éléments dans la SERP :

  • avec des apps : 16,3% pour la P1, 16,7% pour la P2 et 13,2% pour la P3
  • avec des images : 18,5% pour P1, 12,6% pour P2 et 9,1% pour P3
  • avec des vidéos : 32,5% pour P1, 16% pour P2 et 10,6% pour P3
  • avec des résultats de recherche locaux : 17,7% pour P1, 14,2% pour P2 et 9,1% pour P3

Pour conclure, le volume de recherche pour déterminer le nombre de clics potentiel d’un mot-clé n’est plus suffisant. Il faut aussi tenir compte de la composition de la page de résultats de recherche pour évaluer le taux de clics potentiels qu’un mot-clé peut obtenir de manière organique.

Source : www.sistrix.com

Ecosia : presque 100 millions d’arbres plantés!

Ecosia est un moteur de recherche solidaire et écologique crée en 2009 dont le modèle économique repose sur la plantation d’arbres financée par les revenus publicitaires dégagés lors des recherches de ses utilisateurs.

Pour un monde plus responsable et solidaire

Ainsi, le moteur de recherche Ecosia s’engage à planter des arbres sur tous les continents, et là où c’est vraiment nécessaire, pour un monde et un futur plus vert.
Il vient d’annoncer avoir planté à ce jour plus 99,1 millions d’arbres soit presque 100 millions depuis son création.

En 2018, le moteur de recherche Ecosia a construit ses propres centrales photovoltaïques qui l’alimente désormais à 100% en énergie solaire renouvelable. Grâce à cela, ses utilisateurs peuvent affirmer faire des recherches neutres en bilan carbone. Pourquoi ne pas le tester si l’on veut surfer utile ?

Source : https://fr.blog.ecosia.org/100-millions/

Google affiche des annuaires dans les résultats de recherche en local

Une dernière mise à jour de Google met en avant les annuaires tels que Pages Jaunes, Yelp, Mappy ou encore Buyyers dans les résultats de recherche affichés en local. Comment se matérialise l’annuaire local dans la page des résultats de recherche Google ?

Annuaire local dans la page de résultat local

L’annuaire local apparait en haut de la page de résultats, juste après les annonces de publicité payante, comme montré dans la photo ci-contre.

S’il donne satisfaction, l’affichage de l’annuaire local, actuellement en test en France sera pérennisé.

Une obligation pour Google

En fait, Google répond à une injonction de la Commission Européenne suite à une enquête pour concurrence déloyale dans les recherches liées au shopping en ligne. Il a été accusé à maintes reprises de favoriser ses propres services, comme Google Shopping, au détriment de ceux de ses concurrents dans l’affichage des résultats. Ainsi, même s’il a fait appel, il doit se conformer à la Réglementation Européenne et faire preuve de bonne volonté.

En attendant les jugements liés à ces affaires dans lesquelles il risque, tout de même, plusieurs milliards de d’euros d’amende, il propose aux internautes un accès aux annuaires en local les plus pertinents lors de leurs recherches locales, c’est-à-dire celles qui comportent une ville ou une région.

Maintenant, reste à savoir si la Commission Européenne ainsi que ses concurrents trouveront suffisant cet effort de l’affichage de l’annuaire local.

Pour cela, il faudrait que le trafic généré par ces liens soit positif en terme de visibilité gratuite donc pour ses concurrents puisque les annuaires sont choisis librement par les algorithmes du moteur de recherche et non par l’achat de publicité payante (SEA).

Si vous souhaitez optimiser votre référencement naturel dans votre zone de chalandise, n’hésitez pas à contacter notre agence de consultant SEO afin de choisir avec vous les meilleurs mots-clés en référencement local ainsi que l’annuaire local le plus approprié pour votre activité.


Source : Journal du net

Agence SEO Besançon, Dijon, Paris, Lyon - SEO optimisation, texte surligné avec un stylo-feutre jaune

Selon Google, le SEO doit être pensé dès la conception du site web

Nous partageons avec vous une interview parue dans le JDN fin février de Martin Splitt, développeur web et chargé des relations dev/ingé chez Google Suisse. Il nous parle de l’importance pour un développeur web de prendre en compte le SEO d’un site web dès la création de celui-ci.

Intégrer le mobile dès la conception

Il nous conforte dans notre idée qu’il est important de penser et privilégier le SEO d’un site web dès sa conception car  » beaucoup de professionnels pensent d’abord au site, notamment au niveau graphisme, en considérant qu’il sera toujours temps d’ajouter une couche de mobile plus tard. »

Ne pas faire une version mobile « c’est la plus grosse erreur, car les deux devraient être pensés ensemble dès le départ, sinon cela engendre des problèmes plus tard. »

Pour rappel, depuis 2018, l’index « mobile-first » de Google privilégie les recherches effectuées sur mobile pour afficher les résultats de recherche sur mobile mais aussi PC.
Martin Splitt prend aussi l’exemple du « no index » sur mobile ou la présence des données structurées uniquement sur PC.

De plus, en l’absence de tests, notamment sur la version mobile, on prend le risque de se retrouver avec un site qui peut être long à charger ou avec une partie du contenu invisible ».

Faire une recherche de mots-clés avant de créer les pages web

Beaucoup se disent qu’il faut d’abord faire le site internet puis l’optimiser au niveau du SEO.

Quand un client veut créer ou refaire son site web, nos consultant SEO procèdent en amont à la recherche des bons mots-clés afin de créer les pages web. Ceci permettra une meilleure indexation des pages dès leur mise en ligne.

Penser à la vitesse de chargement des pages web

Il parle également de la vitesse de chargement de pages web qui peut être ralentie par trop de Javascript sur la page.

C’est selon lui, « l’un des principaux problèmes, car les développeurs ne sont pas toujours bien formés sur les attentes des moteurs de recherche. Ils n’ont donc pas le SEO en tête au moment de prendre des décisions techniques. »

Référencement naturel SEO Besançon, Dijon, Paris et Lyon - infographie SEO

Veille SEO by Mediadvance, votre consultant SEO

Mediadvance, votre consultant SEO vous fait régulièrement un petit topo sur les dernières actualités sur le SEO et le référencement naturel de sites internet, que ce soit sur les améliorations des moteurs de recherches (algorithmes, mises à jour…), les dernières pratiques SEO recommandées (white hat) par les professionnels ou encore les dernières rumeurs en cours.
La première news concerne la Faq Google (Foire Aux Questions) qui apparait en haut de page dans les résultats de recherche. Sa position dans la SERP permet d’augmenter la visibilité d’une page web et potentiellement son trafic. Alors, que faut-il savoir avant de mettre en place une Faq Google. Voici quelques éléments de réponses.

Faq Google : voici ce que conseille Google

Si vous envisagez de mettre en place une Faq pour donner de la visibilité à votre page web dans les résultats de recherche de Google, voici ce que vous devez savoir sur les Faq Google. Pour que vos FAQ apparaissent dans les résultats de recherche de Google, ils doivent respecter les critères des Faq Google comme :

– la mention de la balise schema.org <FAQ> dans la page
– il ne peut y avoir la présence concomitante d’avis sur la page parce que google privilégiera les avis
– l’existence de questions sur la page
– être en première page sur le mot-clé en question
– les FAQ doivent correspondre à une Url

Ces précisions ont été donné dans les consignes pour webmasters de Google.

Nouvelles fonctionnalités de Google My Business

Une nouvelle fonctionnalité est apparue dans certaines fiches Google My Business : les catégories suggérées pour indiquer vos produits.
26/02/2020 : Source : www.seroundtable.com

Mises à jour Bing

Bing confirme effectuer constamment des mises à jour de son algorithme. Cette mise au point a été nécessaire suite à des rumeurs sur des changements significatifs de classement dans ses résultats de recherche les 1er et 7 février dernier
26/02/2020 : Source : www.seroundtable.com)

Export Search Console

La Search Console permet désormais d’exporter plus de contenus de données pour des rapports plus complets.
26/02/2020 : Source : https://webmasters.googleblog.com/

Indexation Mobile First

Barry Schwartz de Google affirme que l’indexation mobile-First concernera tous les sites web d’ici 6 mois à 1 an. Pour rappel, l’indexation mobile-First affiche les résultats des recherches provenant des recherches effectuées sur mobile uniquement, et non plus sur ordinateur.
26/02/2020 : Source : https://searchengineland.com/

Agenca SEO Besançon, Dijon, Paris, Lyon - Logo Google

La longueur d’une Url n’a pas d’impact sur le positionnement, selon Google

Dans un tweet récent, John Mueller, webmaster de Google, affirme que la longueur de l’Url n’est pas un facteur clé en SEO.

En fait, cette affirmation est plutôt juste car, Google est capable de traiter une Url d’environ 2000 caractères mais il privilégiera une version courte de l’Url si celle-ci existe. En outre, une Url plus courte sera plus facile à mémoriser pour un internaute.

Donc, Google reste plutôt cohérent par rapport à ses critères de pertinence SEO qui doivent être mis en place pour le moteur de recherche mais aussi pour l’internaute.

Ce n’est pas parce que l’Url de votre page est trop longue qu’il va la déclasser dans les résultats de recherche.

Source : www.seroundtable.com

Google conseille de faire appel à un consultant SEO pour optimiser son site web

Dans une récente vidéo postée sur une de ses chaines YouTube intitulée « Les cinq choses principales à considérer pour votre site web », les webmasters de Google conseillent entre autres de confier son site internet à un consultant SEO pour optimiser son site web et bien le positionner.

Optimiser son site web : les conseils de base de Google aux débutants en SEO

Oui, vous avez bien lu et c’est assez rare pour être signalé : dans cette vidéo, très intéressante, à destination des débutants en SEO, Google conseille pour optimiser son site web de faire les choses suivantes pour bien le classer en bonne position dans le moteur de recherche :

  1. Voir si votre site internet peut être indexé par le moteur de recherche
    Avant d’être positionné, Google doit prendre connaissance de l’existence de votre site internet : s’il ne sait pas qu’il existe, il y a peu de chances qu’il le positionne en 1ère page, surtout si votre site est tout récent.
    Pour savoir si Google a indexé votre site internet, taper la commande suivante dans le moteur de recherche : « site: www.votrenomdedomaine.com ». Vous pouvez aussi aller dans la Search Console pour cela.
  2. Disposer d’une page Google My Business est aussi intéressante en terme de SEO.
  3. Fournir des contenus de qualité.
  4. Le contenu de votre site doit être rapide à charger et accessible sur tous les appareils, surtout mobiles.
  5. Sécuriser le site avec le protocole Https.
  6. Faire appel aux services d’un consultant SEO pour optimiser votre site web.
    Selon Google, un consultant SEO est un professionnel capable d’améliorer la visibilité et le classement de votre site web.

    Alors, si c’est Google qui le dit, il n’y a plus de raison que vous hésitiez à optimiser votre site web. Et pourquoi ne pas faire appel à notre équipe d’experts en SEO depuis 20 ans?


    Sources : 5 choses principales à considérer pour votre site internet

Référencement d’une image : ce que veut Google

Quand on fait de l’optimisation de référencement naturel, on ne peut plus se contenter comme avant de s’occuper uniquement du texte et de passer à côté du référencement naturel des images ou des photos de notre site internet.
Depuis son lancement en 2001, le moteur de recherche Google Image a beaucoup évolué et la recherche d’images sur Internet est en constante progression.


Lire la suite

Google a (encore) des problèmes de (dés)indexation

Le bug de désindexation qui s’étend à la Search Console avec des résultats erronés du rapport d’inspection d’URL et de celui sur la couverture de l’index.

Deux nouveaux problèmes techniques pour le moteur de recherche majeur. Après le bug de désindexation il y a 10 jours de cela, c’est au tour de la Search Console de donner parfois des résultats erronés. Et, un malheur n’arrivant jamais seul, c’est Google News qui connaît maintenant des soucis de désindexation…

Lire la suite

Qwant Junior est disponible sur mobile

Le moteur de recherche franco-allemand, Qwant, a sorti une version de son moteur de recherche dédié aux enfants Qwant Junior en application pour smartphones et tablettes. Qwant Junior est téléchargeable sur Ios et Android.

Sécuriser le surf des jeunes enfants et adolescents

Depuis 2015, Qwant est un des premiers à avoir décliné son moteur de recherche en version Junior pour sécuriser la recherche sur internet des enfants et pré-adolescents entre 6 et 13 ans mais jusqu’à présent, il n’était disponible que sur PC.

Cette version junior est vraiment  faite pour rassurer les parents dont les enfants surfent sur internet puisqu’il ôte des résultats de recherche tout contenu inadapté à cette tranche d’âge : violences, drogue, pornographie ou encore discours haineux.

Recommandé par l’Education Nationale (il existe un onglet Education), Qwant Junior proposera aussi des versions pour la musique, la science et les jeux vidéos. Une messagerie pour concurrencer Gmail est également prévue.

Qwant, le moteur de recherche français racheté par les allemands

Pour rappel, Qwant est un moteur de recherche français crée en France en 2013 et soutenu par la Caisse des dépôts et consignations.
En 2014, le groupe allemand Axel Springer acquiert 20 % de son capital. Son ambition est claire : concurrencer voire supplanter Google, notamment à coup de campagnes publicitaires. Pour cela, il met en avant la protection de la vie privée de ses utilisateurs sans traçage publicitaire.

Pour l’instant, son taux de pénétration en France reste marginal (part de marché estimé en juillet 2017 : 0,08%), même s’il fait partie de la liste 2018 des logiciels libres recommandés par l’État.
Mais, nul doute que la nouvelle application Qwant junior devrait attirer de nombreux parents inquiets pour leurs enfants.




Source : Cnet

Google Lighthouse pour le SEO vient de sortir

Google vient de sortir pour son navigateur Chrome une extension nommée LightHouse qui consiste à fournir à l’internaute un audit lui permettant de savoir si son site web est bien optimisé. Autant vous dire que ce petit module « made in Google » fait déjà beaucoup parlé dans le microcosme du SEO. Mais que vaut-il exactement ?

Qu’est-ce que Google Lighthouse ?

En résumé, Google LightHouse donne une petite idée de l’optimisation faite ou à faire sur un site web en repérant les erreurs SEO de base. L’audit fournit, bien que complet, n’est cependant pas trop poussé et ne constitue pas à lui seul une garantie d’optimisation.
Par contre, l’avantage de Google LightHouse c’est qu’il est à la portée de tous, développeurs comme référenceurs, et donne des conseils SEO ainsi qu’une vision générale du site internet.

L’avis des experts SEO

Voici le retour des consultants SEO qui ont testé cet outil d’audit de site qu’est Google Lighthouse :

  • Ce n’est pas un « vrai » audit tel qu’il est proposé dans les « vraies » agences SEO
  • Il est automatisé
  • Il est plutôt succinct

Même si Google LightHouse est amenée à évoluer au fil du temps, il existe actuellement sur le marché des outils d’audit SEO bien plus performants.



Source : Jdn

Récap SEO sur la dernière vidéo du webmaster Google, John Mueller

John Mueller, webmaster chez Google, a l’habitude de faire des vidéos pour répondre aux questions des internautes sur les bonnes pratiques SEO sur Google.

Dans sa dernière vidéo du 6 mars dernier, voici ses conseils SEO à suivre pour aider à l’amélioration de son positionnement sur Google :

La fréquence de publication sur un site web n’est plus un facteur pertinent de référencement naturel

Mieux vaut publier moins mais mieux en terme de qualité.

Google peut identifier des pages dupliquées sans les avoir crawlé

C’est le cas, par exemple, des pages dont les Urls ne changent pas le contenu de la page, comme les pages traduites avec les urls comportant la  valeur de type : « language=English »/ »language=French ».

Eviter le duplicate content au niveau des Pdf

Un même PDF sur plusieurs pages et même avec des Urls différents est considéré comme du contenu dupliqué.

SEO international

Google donne un petit coup de pouce au noms de domaine avec l’extension rattachée au pays concerné.

Insérer des Hreflangs directement dans le Sitemap

Pour les développeurs, mieux vaut insérer des Hreflangs directement dans le Sitemap plutôt que dans les pages.

La vitesse de chargement des pages web sur mobile sera bientôt un critère de référencement naturel

En début d’année, Google a annoncé un changement majeur dans la façon dont il classe les résultats de recherches sur mobile.

La vitesse de chargement d’un site : prise en compte des appareils mobiles

Désormais, sur ce support, la vitesse de chargement d’un site deviendra un critère de référencement naturel majeur et ce, à partir du mois de juillet 2018. Ce changement aura un impact sur les sites web très lents mais, selon certaines conditions.
Bien que la vitesse de chargement d’un site internet devienne un critère majeur de référencement naturel, cela aura un impact limité dans le classement des résultats de recherche sur mobile. Par exemple, certaines pages web très lentes pourraient être bien classées si elles proposent un contenu pertinent pour l’internaute.
Selon Google, cette mise à jour n’affectera que les pages qui “offrent la plus faible expérience utilisateur” et cela ne concernera qu’un faible pourcentage des recherches.

La vitesse de chargement d’un site : déjà un critère SEO majeur

Cela fait déjà un moment que Google accorde de plus en plus d’importance à la vitesse de chargement d’un site.
En 2016 déjà, avec les sites (surtout média) utilisant la technologie AMP (Accelerate Mobile Page). Plus récemment, avec le déploiement de l’Index Mobile First qui favorise le contenu d’un site sur mobile par rapport au PC.

Notons que cette mise à jour de la vitesse de chargement d’un site sur mobile concerne plutôt la performance de la page web en générale pour offrir aux internautes la meilleure expérience utilisateur possible sur mobile.

Comment mesurer la vitesse de chargement d’un site web ?

Pour aider à mesurer ce critère, il y a à disposition l’outil de Google PageSpeed ​​Insights qui montre à quel point une page est performante et propose des pistes d’ amélioration de performances.
Par le passé Google mesurait la vitesse de chargement d’un site mais ne l’avait jamais intégré comme critère pertinent de référencement web. Maintenant c’est chose faite car depuis 2016, le nombre de recherches sur mobile a dépassé le nombre de recherches sur PC.

 

Sources : techcrunch.com