YourTextGuru, c’est fait pour vous

yourtextguruAujourd’hui, je fais le commercial de choc, pour vous présenter notre nouvel outil, disponible en mode SAAS (Software As A Service) : YourTextGuru.

TL;DR : YourTextGuru est un outil d’aide à la rédaction, qui vous fournit des guides de rédaction pour coller à un besoin informationnel que vous donnez sous la forme d’une requête (=phrase raisonnablement longue et raisonnablement courte). Il est disponible à l’adresse https://yourtext.guru, il est efficace, il donne des résultats de qualité et il est à un prix défiant toute concurrence.

La version plus longue et romancée commence naturellement par une belle histoire et une belle rencontre 😉 Après nos formations, et après un live des ix-labs par Guillaume (mon frère pour ceux du dernier rang qui ne suivent pas) sur la notion de corpus sémantique, nous avons eu l’occasion de discuter avec Benoit et Frédérick, qui avaient dans l’idée de faire un outil. J’avoue que ma mémoire est vacillante et donc je ne sais plus trop si les choses se sont cristallisés à Lyon pendant le teknseo ou à Genève pendant le seocamp day (devenu cette année performance web), mais c’était autour de ce moment là, il y a donc environ 1 an.

Très rapidement, nous nous sommes rendu compte que la notion même de corpus était d’une certaine manière dangereuse, en plus d’être difficile à utiliser : quels mots utiliser ? y a t-il danger de suroptimisation ? Bref, pas facile et souvent en plus la réalisation du corpus en lui même était assez coûteuse.

C’est pour cela que nous avons mis en place un système comprenant un modèle génératif de la langue afférente à votre besoin informationnel. Oulala ça à l’air compliqué ? Pas du tout:

  • Un besoin informationnel, c’est ce que vous voulez mettre dans le texte que vous allez rédiger. Votre besoin est d’écrire un texte sur « comment gagner à tous les coups au poker texas hold’hem » ? Et bien votre besoin informationnel c’est un dérivé directe, du type « comment gagner au poker texas hold’hem à chaque fois » ou « comment gagner au poker texas hold’hem facilement » ou «  »comment gagner au poker texas hold’hem ». Si vous êtes SEO (oui, je sais qu’il y en a dans mes lecteurs), vous vous demandez pourquoi pas la requête « poker texas hold’hem » et sur quoi le moteur va mettre un texte fait avec le besoin informationnel précédent ? La réponse est sur toute les requêtes proches car le moteur fait de la reformulation de requête, donc de toute façon les requêtes que vous travaillez pour Google ne sont pas toujours celles qui sont utilisées par le moteur au final.
  • Un modèle génératif. Quand vous rédiger un texte sur un sujet, puis un deuxième, les deux ne contiennent pas QUE les mêmes mots, les deux n’ont pas le même langage interne. Le modèle génératif capture cette diversité et la restitue : si vous générez 23 guides sur un même besoin informationnel, alors vous pourrez rédigez 23 textes qui seront naturels, qui seront en phase avec le sujet, et qui ne seront pas en duplication !

Vous voyez, au final ce n’est pas très compliqué 😉

Au final, on génère donc au moins un guide pour faire un texte, et on gagne du temps car on découvre ce qu’on doit mettre dans le texte sans trop réfléchir, et rapidement en plus. Cerise sur le gâteau, tout ça est dispo pour un prix modique (avec le premier pack 60 centimes le guide, mais vous pouvez faire baisser ce prix assez vite).

Une fois le guide en main, vous verrez donc que c’est très normé, avec des choses du type (pour la requête « vidange voiture soi-meme comment »)

TITRE : vidange voiture soi-meme comment (je mets le guide en italique)

Est-ce qu’il est difficile de faire la vidange de sa voiture soi-même ?

CHAPO : vidange voiture soi-meme comment + retirez bouchon + bidon huile + carnet entretien

Comment réaliser soi-même la vidange de sa voiture : Le TL;DR c’est de regarder dans le carnet d’entretien où se trouve le bouchon, de le retirer et de remplir avec un bidon d’huile !
SOUS-TITRE :  vidange + niveau huile + entretien voiture

La vidange, c’est un des points cruciaux de l’entretien de sa voiture, et ça commence par vérifier le niveau d’huile, mais pas que…
PARAGRAPHE
 carter cle + lubrifier joint + lubrification moteur
 maximum + boite + astuces

Le carter d’huile est l’un des points clés du moteur, en effet c’est là que commence le circuit de lubrification du moteur, qui vous ne le savez peut-être pas lubrifie aussi les joints, pour éviter l’asséchement et donc la fuite.

Aujourd’hui, nous allons voir comment faire une vidange, et nous allons vous donner un maximum d’astuces, comme par exemple utiliser une vieille boîte de conserve « familiale » pour récupérer l’huile usagée sous la voiture 😉

J’imagine que vous avez compris le principe, et il est maintenant temps pour vous de poursuivre vous-même la route de la découverte. Pour tester l’outil, et profiter en plus des 3 jetons de génération offerts pour le lancement, c’est par là : https://yourtext.guru

Comme d’habitude, les commentaires sont ouverts, dans la joie, la bonne humeur et la courtoisie 😉

Trois livres intéressants

Parmi tous les livres que j’ai lu récemment, je vais vous parler plus particulièrement de trois d’entre eux, qui pour moi partagent une volonté commune, même si l’un est nettement au dessus des autres. Comme d’habitude, je suis franc avec vous : les liens sont taggés avec mon affiliation amazon 😉

Ces trois livre ont une chose en commun : ils nous font vivre l’innovation via la vie de ceux qui la guide. Au programme, le livre de William Réjault sur Melty, celui de Jean-Baptiste Rudelle sur Criteo, et enfin le topissime livre de Walter Isaacson sur la « révolution numérique ».

 

Il était une fois… Melty par William Réjault

Premier de ma liste du jour, et celui sur lequel je suis le plus mitigé. Ce livre n’est pas une biographie, ni une analyse de l’aventure Melty, ni une analyse de la stratégie de la boite, ni… Il s’agit d’un livre d’entretiens, et je mets bien un « s » car il y a des entretiens entre Alexandre Malsch et l’auteur, mais aussi entre ce dernier et d’autres acteurs de la vie présente et passée de Melty.

Ne vous y trompez pas, le livre est intéressant, on y découvre un peu le cheminement de Melty dans ses premières années, mais j’ai été déçu par la qualité rédactionnelle globale. Les questions ne sont pas toujours à la hauteur, et les réponses auraient mérité d’être retravaillées. Par ailleurs, même si les états d’âme d’Alexandre Malsch sont mis en évidence, et si ce dernier est plutôt transparent, le choix des questions place le bouquin dans le domaine des hagiographies, on est loin de la grande objectivité.

Ceci étant, même si j’ai pas mal hésité je conseille la lecture de ce livre, car les réponses d’Alexandre Malsch restent intéressantes, et le point de vue d’autres personnes impliquées à certains moments de la vie de Melty est édifiant.

 

On m’avait dit que c’était impossible: Le manifeste du fondateur de Criteo par Jean-Baptiste Rudelle.

Sur ce deuxième livre, effet inverse. Je l’ai acheté par hasard au détour de la tête de gondole de mon libraire habituel (l’Armitière à Rouen), mais sans grand espoir d’une bonne lecture. Et ce fut totalement l’inverse, j’ai trouvé le livre vraiment passionnant. JB Rudelle se montre sous un jour que je n’imaginais pas : il a une vrai réflexion qui va au delà de Criteo, et il tient un discours à la fois sincère, optimiste mais aussi très réaliste. Toute personne qui monte une boite, startup ou pas, devrait lire ce livre, ce qui n’est pas nécessairement le cas du précédent (qui est plus pour le grand public).

Bref, je conseille ce livre, dont le seul point faible est le titre, qui à mon avis n’a pas été choisi par l’auteur vu comment est écrit le reste.

 

Les innovateurs par Walter Isaacson.

Avec ce livre, on passe très clairement dans la gamme supérieure. Vous connaissez sans doute Walter Isaacson, qui est l’auteur de la biographie de Steve Jobs. Le livre est un vrai panorama des pionniers de la révolution numérique. On commence par les « anciens », depuis Ada Lovelave, Turing et cie… Puis ensuite on découvre la genèse des ordinateurs, des interfaces utilisateurs, etc. Le livre finit bien sûr par évoquer le web et les grosses entreprises du secteur, celles qui nous font travailler indirectement lorsque l’on bosse dans le web.

Là où les deux autres livres de ce billet sont des témoignages plus ou moins direct, ici on rentre vraiment dans l’histoire. L’auteur essaye d’être le plus objectif possible (les chapitres sur la paternité du transistor et de l’ordinateur sont à ce titre des modèles du genre), et ses recherches sont vraiment extrêmement documentées, et la seule bibliographie vaut à elle seule l’achat du livre.

Je vous recommande donc très chaudement ce dernier livre, qui est pour moins un incontournable.

 

Voilà, c’est fini pour aujourd’hui, bonne lecture !

Amusement permanent et sens de la vie

C’est après avoir lu les billets de Victor, Laurent et Bertrand que j’ai eu à mon tour envie d’écrire sur le sens de mon travail, sur la perception des autres et sur le plaisir que j’ai à faire ce que je fais au jour le jour. En plus, la période de Noël est généralement assez propice à cela.

Ce n’est pas un secret, j’ai un parcours très différent des trois cocos mentionnés au début de ce billet. J’ai fait des études longues, pas tant parce que c’était mon plan à l’origine, mais parce que j’ai bossé pendant tous les week-ends comme poissonnier, ce qui m’a motivé à étudier pour trouver un travail que je serais susceptible de ne jamais regretter. Après ma thèse, je suis donc devenu enseignant-chercheur (tout en faisant des « ménages » en tant que consultant à coté). J’ai découvert le SEO en 2003/2004, en dilettante et principalement parce qu’avec Guillaume on gérait le site krinein. En tant qu’enseignant-chercheur, j’ai choisi un de ces métiers qui sont, en théorie au moins, utiles à la société. Dans la quête de sens que certains mettent en avant (comme Victor) par exemple, ce genre de job est en haut de la liste, avec la satisfaction double de faire avancer la science, et de former les jeunes.

Pourtant, au fur et à mesure des années, j’ai été de moins en moins heureux dans le milieu académique et j’ai choisi d’en partir (au moins provisoirement) en 2014. En même temps, le milieu SEO (et plus globalement le milieu du web), qui est moins porteur de sens d’une certaine manière, est beaucoup plus satisfaisant. Pourquoi ? parce qu’il y a une composante très importante : l’amusement au travail. Le milieu académique a perdu le « fun », les contraintes administratives et financières rendent les journées bien longues et bien loin du diptyque science & enseignement. A contrario, dans le SEO/web tout est amusant, on passe son temps à jouer avec des gros jouets : Google et le web, et c’est fun.

Actuellement, je m’occupe des ix-labs, et de mon point de vue j’ai le meilleur des deux mondes. Je fais de la recherche et je contribue donc toujours à l’avancée de la science (même si les applications sont plus importantes pour moi qu’auparavant), et en plus cette recherche c’est moi qui en choisit les objectifs, et je n’ai pas à quémander des moyens à des institutions totalement déconnectées des priorités de recherche, mais aussi des priorités de la société civile, des entreprises, etc. Par ailleurs, j’ai toujours une activité de formation, de dissémination, de vulgarisation, et de conseil. Bref, c’est le fun et le sens à tous les étages !

Voilà en vrac quelques uns de mes (petites) réflexions sur tout cela :

  • Il faut être égoïste d’abord pour s’épanouir dans son travail. 
    Avant de chercher à être utile à la société ou à son entreprise, il faut trouver une satisfaction personnelle qui va pousser à continuer dans son travail. Pour moi, c’est le challenge de la nouveauté : trouver des solutions (algorithmiques généralement) à des problèmes divers, apprendre et voir des nouvelles choses, etc. Pour d’autres cela sera peut-être un tout autre objectif qui sera important comme voyager beaucoup, être au grand air, etc. Mais dans tous les cas il faut trouver le « fun » au travail.
  • On ne peut pas plaire à tout le monde.
    Vous aurez toujours des gens qui ne vous aiment pas, quelle que soit la raison qui les poussent à cela. Dans le milieu de la recherche certains collègues m’ont accusé de vénalité, d’être trop près de l’industrie, de faire du clientélisme (car les étudiants étaient plutôt positifs concernant mes cours). Ailleurs on m’a reproché d’être chercheur, et donc d’être quelqu’un incapable de faire quelque chose d’applicable. Dans tous les domaines, toutes les communautés (pareil chez les SEOs, les datascientists, etc.) il y aura toujours une poignée de personnes qui ne vous aimeront pas, ne vous en préoccupez pas.
  • « J’aime mieux avoir des remords que des regrets. » Oscar Wilde
    Ne vous limitez pas vous-même. Si votre situation ne vous convient pas, agissez pour qu’elle change. Ce sera peut-être long et difficile, ça sera peut-être un échec, mais vivre tristement toute sa vie n’est sans doute pas la meilleure des choses.
  • Donnez vous les moyens de vos ambitions.
    Je suis en phase avec Laurent : « c’est le plus acharné qui gagne » et « t’iras te chercher le respect ». Votre « devoir » vis à vis de vous-même est une obligation de moyens. Il faut bosser, il faut rebosser, et il faut rerebosser. Après, si un projet foire alors que vous avez bosser dur, et bien bosser, et bien c’est la vie, et c’est pas grave, ni pour vous, ni vis à vis des autres.
  • C’est vous qui décidez du sens de votre vie, pas les autres.
    Dans son billet, Victor dit « Ma vie est dénuée de sens car mon job ne fait tout simplement pas progresser la société et les gens qui m’entourent« . C’est une manière particulière de donner du sens à sa vie, mais elle est loin d’être unique. C’est à chacun d’avoir sa propre quête de sens, d’autant plus la notion même de progrès de la société est loin d’être claire, et est souvent propre à chacun.

Voilà, j’en ai fini avec mon billet approuvé par l’institut des philosophes et psychologues de comptoir^^. A ma décharge, 2015 fût une année compliquée, ceci expliquant cela.

Sur ce, un joyeux noël et n’abusez pas trop lors des repas !

 

 

[books] Les livres pour apprendre R

Avec le buzz actuel autour de la data science, de nouveaux outils arrivent sur le devant de la scène. Quand je dis « nouveaux » c’est un peu une exagération car la plupart existaient déjà, mais ils deviennent très visibles et populaires. Parmi ceux-ci, il y a R, un logiciel d’analyse statistique, qui permet de faire du traitement de données, de la visualisation. R est gratuit, R est plein de fonctionnalités grâce à une communauté très active qui release de nombreux packages.

Bref, vous devinez que pour moi R est un outil indispensable, et à vrai dire je m’en sers intensivement, quotidiennement, pour faire du prototypage mais aussi des outils qui sont en production.

Apprendre R, c’est facile quand on est informaticien, mais c’est facile aussi dès qu’on a l’habitude de l’outil informatique (vous remarquez la nuance), ce qui est par exemple le cas de beaucoup de webmasters et webmarketeurs. Il n’y a pas vraiment besoin de suivre des cours, il suffit d’avoir les bons bouquins et de prendre du temps pour apprendre.

Voici donc mon avis sur quelques livres utiles pour apprendre R, que vous pouvez mettre sur votre liste au gros barbu qui mets des paquets au pied du sapin (et en plus, j’ai mis mes liens d’affiliation^^).

R in action
Il s’agit d’après moi d’un des meilleurs livres pour apprendre à se servir de R. Édité par Manning, qui est sans doute l’un des meilleurs éditeurs de livres techniques en anglais, ce bouquin vous mènera de l’installation jusqu’à une utilisation très correcte de l’outil. Rien que pour les chapitres de la partie I il vaut le coup, ensuite les sujets sont plus orientés statistiques que outils pour le web, mais c’est quand même à lire.

Practical Data Science with R
Toujours chez Manning, il s’agit d’un livre que j’ai beaucoup apprécié car il est structuré « par l’exemple », une démarche appréciable pour la plupart des praticiens de R. Même si vous n’êtes pas un statisticien, même si vous avez appris l’informatique sur le tas, ou encore même si vous êtes encore étudiant, vous pourrez résoudre des problèmes intéressants, vous pourrez faire des visualisations au top en étant guidé. Certains chapitres sont vraiment au top, c’est par exemple le cas de celui sur le clustering, qui est très clair et utile.

Initiation à la statistique avec R
Voici un livre en français qui introduit R rapidement, et qui est ensuite plus un cours de statistique pour les étudiants de licence avec un soutien informatique en R. J’en parle principalement parce qu’il est facile à lire, mais ce n’est pas celui que je vous conseille si vous êtes dans le web.

R for everyone
Ce livre là est clairement en compétition avec « R in action » proposé plus haut. Un livre d’excellente tenue, et qui a le bon goût d’être basé sur ggplot2 pour la réalisation des visualisations de données, ce qui est bienvenue car il s’agit de très loin du meilleur package pour faire les graphiques en R.

Voilà, avec ça vous avez de quoi vous occuper pendant un petit moment 😉 Si vous ne devez en prendre qu’un : prenez R in action ou R for everyone, avec peut-être une préférence pour le second.

Sur mon bureau…

Aujourd’hui je vous propose un billet léger et pas très intéressant, pour vous divertir un petit peu.
A chaque fois qu’un visiteur arrive dans nos bureaux des ix-labs, il y a quelques commentaires incontournables. Le premier est généralement : « ils sont grands ces bureaux, et ils sont top », ce qui est vrai pour le premier point, et un plaisir à entendre pour le deuxième. Ensuite on a le droit à « wow, vous avez une sacré bibliothèque », et puis ensuite il y a un léger silence, remplacé par un « je suis sur que TON bureau c’est celui avec tout le bordel^^ » quand le visiteur me connait bien. Est-ce vrai ? On va dire oui et non, je vous laisse juge^^ :

bureauOui, je sais que la photo est floue, mais si je range vous ne voyez pas l’état du bureau, et si je ne range pas, il faut que je floute^^

Alors oui, le rangement n’est pas mon fort, mais tout ce qui est sur mon bureau est indispensable, et je vais vous en faire la liste incomplète, et aussi vous parler ainsi de certaines choses importantes pour bien bosser.

  • Un ordinateur. Quelle surprise, je suis dans l’informatique et j’ai un ordinateur… Mon choix s’est porté sur un mac, grand écran et assez puissant. Il y a toujours des discussions sans fin à ce sujet, mais c’est pour moi un bon compromis : il y a toutes les fonctionnalités d’une machine sous linux (ligne de commande, serveur X, emacs, etc.), une interface graphique ergonomique et tous les outils de développement modernes. Perso je fais principalement du R, du Python et du latex, donc tout est OK. Par ailleurs, la suite office fonctionne très bien sur le mac, ce qui me permet d’être compatible avec les rageux sous Windows.
  • Des cahiers, plein de cahiers. Au moment où j’écris ces lignes j’ai 12 cahiers différents sur mon bureau !
    photo (7)Mes cahiers préférés j’en parlerais dans un billet spécial un jour, mais j’utilise surtout des cahiers leuchtturm A5. C’est un peu comme des moleskine, mais en beaucoup mieux (si vous voulez en acheter pour Noël, passez donc par ma version en affiliation amazon).
    J’aime aussi beaucoup les SOS Notes d’Oxford, si ils étaient en A5 plutôt qu’A4 ce serait encore mieux (lien amazon).
    Chaque cahier son utilité : un pour un gros projet, un pour plusieurs petits projets, un pour les idées, un pour les lectures, etc. Travailler sur un cahier plutôt qu’à l’écran est fondamental car cela libère la créativité. Si vous utilisez un outil textuel logiciel pour noter vos idées, vous ne ferez pas de schémas, vous aurez une pensée linéaire et pauvre, et oui j’exagère un peu pour faire passer mon idée.
  • Des stylos de toutes les couleurs. Si il y a des cahiers, il faut des stylos. J’ai des plumes jetables de toutes les couleurs, un roller Dupont offert par un client (ahah, si des clients passent par là, n’hésitez pas), un beau plume offert par ma douce, des feutres, des crayons, etc. J’utilise plein de couleurs pour mettre en évidence les choses importantes, et pour faire des schémas « temporels » (en noir ce qui reste stable, en rose l’évolution au temps 1, en vert au temps 2, en … etc.).
  • Des lunettes. Bon, de base je suis déjà myope et astigmate, donc j’ai des lunettes. Comme je suis coquet j’ai des belles lunettes pour sortir et tout, mais j’ai toujours eu en plus une paire supplémentaire au bureau. Cette paire avait jusqu’ici comme fonctionnalité d’être à ma vue et d’être plus légère que l’autre.
    Mais après avoir discuté avec mon pote Julien qui fait du SEO pour Clearly, j’ai appris l’existence de lunettes avec un traitement anti-fatigue pour ceux qui travaillent devant un écran toute la journée.
    photo (9)J’ai honteusement soudoyé Julien et j’ai donc obtenu une paire (celle de la photo) et je dois bien dire que j’ai été surpris : ça change vraiment la vie de bosser avec ces lunettes. En revanche, je ne m’en sers pas en dehors du bureau car le traitement modifie légèrement les couleurs. Si vous êtes au Canada, jetez donc un coup d’oeil au site de lunettes de Clearly (peut-être qu’on peux acheter depuis la France aussi, je ne sais pas).
  • Un casque audio. Je ne suis pas tout seul dans le bureau, et pour une raison que j’ignore mes compagnons de bureau ne partage pas mes goûts pour l’eurodance et la makina. J’ai donc un casque. J’en ai testé (comprendre cassé) pas mal, comme le Parrot Zik qui a survécu 3 mois… Au final les casques anti-bruit sont rangés et je les sors pour prendre l’avion, et je suis parti sur du robuste pour le bureau.
    photo (8)Le casque qui me sert désormais est mon casque de running : le Trainer de chez Gibson (bluetooth uniquement, lien amazon). Il tient parfaitement (normal on peut courir avec), il est étanche (croyez moi sur mon bureau c’est un plus) et sans fil ce qui fait que quand je me lève je n’emmène pas avec moi l’ordinateur…
  • Des livres. Qu’est ce qui est mieux qu’un livre ? DEUX livres ! Bref, en ce moment sur mon bureau il y a « Python for finance », « Practical data science with R » (bouquin vraiment au top, lien sur amazon), « statistiques avec R » et « doing data science ».
    livres2Pourquoi des livres en vrai papier ? Parce que ça se lit partout, parce qu’on peut ECRIRE dessus. Un livre c’est fait pour vivre et donc on peut annoter ses livres, on peut les lire n’importe où, et on peut le laisser dans le bureau pour les petits camarades, alors que si le bouquin est sur la tablette, c’est plus compliqué.

Voilà, c’était mon billet plus léger du moment, n’hésitez pas à me dire comment sont vos bureaux dans les commentaires ^^

 

Mesure la force induite d’un lien : plus d’explications

Je vous ai parlé dans un précédent billet d’une nouvelle métrique pour estimer la force contextuelle d’un lien. Aujourd’hui je vais vous donner plus de détails, et un exemple pour illustrer l’apport de différents types de liens sur une même cible.

Pour commencer, voyons ce qui caractérise un lien puissant. Mais avant, une remarque très importante doit être fait : il faut différencier la puissance d’un lien de sa capacité à passer entre les gouttes de la team webspam. La métrique dont je vous parle aujourd’hui permet de donner une valeur à un lien, mais si vous voulez en plus éviter les balles, il faut faire des analyses supplémentaires (reverse engineering de penguin notamment).

Bref, voici donc les trois caractéristiques importantes d’un bon lien :

  1. Un bon lien vient d’une page qui transmet de la popularité. Dans les algos les plus important pour un moteur, il y a celui de calcul de la popularité (pour Google c’est le pagerank). Il faut donc prendre en compte la popularité qui fait le lien lorsque l’on mesure la valeur de ce lien.
  2. Un bon lien est thématisé. Il est donc indispensable de s’assurer que le lien provient d’une page dont les thématiques sont compatibles avec celles de la page cible.
  3. Un bon lien ne vient pas du dernier dépotoir à la mode, et notamment sa popularité et sa confiance doivent être corrélées. Si elles ne le sont pas, le lien perd de la valeur.

Aux ix-labs, nous avons mis au point une métrique, et comme on est pas des génies du marketing, on l’appelle pour l’instant la force SEO, ou la puissance SEO, ou la force SEO induite, ou… Bref, la force SEO est calculée par une formule qui ressemble de loin à ça :

Force (a\rightarrow b) = F(compatibilité, popularité, anticorrélation(confiance,popularité))

  • La compatibilité va être mesuré par un mécanisme similaire à un clustering dans l’espace des thématiques des pages web
  • La popularité reste un grand standard
  • La déviation confiance versus popularité est ce que son nom indique
  • La fonction F est une composition des trois éléments du dessus à l’aide de log, de multiplications, max, divisions, sommes, etc. Le tout pour avoir une mesure entre 0 et 100, avec un effet d’amplification (il est plus dur de passer de 50 à 51 que de 10 à 11, par exemple).

Comment utiliser cette métrique ? Il y a deux cas typiques :

  • Pour auditer les liens existants, notamment lorsque vous faites un audit d’un site client, ou que vous allez bientôt faire du désaveu de liens. Par exemple, imaginons que vous faisiez un désaveu post penguin. Il faut dans ce cas désavouer des liens à ancres exactes, mais vous pouvez en garder quelques-uns. La décision sera facilité par l’utilisation de la force SEO : vous ne garderez que les plus puissants.
  • On vous propose d’acheter un lien ? Hop, un coup de force SEO et vous pouvez voir si le prix est en phase avec le lien.

Bon, comme le mieux c’est toujours de prendre un exemple, je vais prendre le site de Clearly. Pourquoi ce site ? Parce que c’est mon pote Julien qui bosse pour le site, et que je me suis un peu moqué de lui dans un précédent post^^. Bref, imaginons que Julien donne du boulot à ses stagiaires : faire du lien vers la page du site qui parle de lunettes.

Panique à bord pour les stagiaires ! heureusement, il y en a une qui est plus dégourdie que ses comparses et qui va utiliser la force SEO. Et c’est parti pour quelques mesures avant de tenter de choper des liens.

 

1ere possibilité : http://sante-medecine.journaldesfemmes.com/forum

Force SEO vers la page spéciale lunettes : 37

Objectivement, un thread avec un lien vers la page serait une plutôt bonne opération, même si il y aura une déperdition de force en créant un thread. Ce n’est pas non plus le lien du siècle.

 

2eme possibilité : http://www.infolunettes.com/News/nws_38/votre-lunette-n-est-pas-un-objet-comme-les-autres.html

Force SEO vers la page spéciale lunettes : 1

Et oui, ce n’est pas parce que la thématique semble en adéquation que ça marche à tout les coups. Ce lien ne vaut rien du tout.

 

3eme possibilité : http://www.pointwc.com/fr

Force SEO vers la page spéciale lunettes : 14

Visiblement on ne doit pas parler des mêmes lunettes ! Un lien moyennement intéressant.

 

4eme possibilité : http://www.optical-center.fr/lunettes-de-vue et http://www.direct-optic.fr/lunettes-de-vue

Ces deux sites sont en première et deuxième position pour une requête du sujet.

Force SEO du premier : 44
Force SEO du deuxième : 32

Et si on regarde le troisième des SERPs, il vaut 38. Incroyable, si les concurrents faisaient des liens vers le site, ces liens seraient assez puissant^^

Combien vaut le lien que j’ai fait à Julien un peu plus haut ? A peine 20, mon pauvre Julien, j’en suis bien désolé^^

 

Voilà, vous pourrez bientôt faire la même chose, car nous espérons finaliser un outil disponible en ligne dans pas trop longtemps.

Mesurer la force d’un lien, selon le contexte

Voici un billet qui est un prélude à un autre plus complet, avec beaucoup plus d’explications techniques. Aujourd’hui je vais me contenter de vous parler d’un problème, d’une solution sur laquelle on bosse et qui va être bientôt disponible pour tous via un nouvel outil en ligne (en plus ce sera pas cher ;)).

Bref, le problème est le suivant : comment déterminer la valeur SEO d’un lien, qu’il soit déjà en place et qu’on se pose la question de le désavouer pour des raisons plus ou moins valables, ou qu’il ne soit pas en place et qu’on hésite à tenter une approche du webmaster du site pouvant émettre le lien.

On peut utiliser les métriques diverses existantes, mais elles ne sont pas satisfaisantes car elles donnent une valeur à la page, mais pas au lien qui irait de cette page vers UNE PAGE DONNEE, la votre. Il faut donc trouver une mesure qui différencie la valeur d’un lien selon la page cible (avez-vous déjà entendu parler de pagerank thématique ?).

On peut aussi utiliser des outils de quantification thématique des pages (http://1.fr/ et son score sémantique, visiblis et son affinité sémantique). Ces outils, très utiles par ailleurs, se basent sur le contenu des pages et sur les requêtes, mais ils ne sont pas des outils permettant de caractériser l’apport d’un netlinking spécifique.

C’est pour cela que dans le secret des ix-labs, nous travaillons (Guillaume et moi) sur une nouvelle métrique, que nous appellons pour l’instant la force SEO induite. Cette métrique permet de donner un score SEO complet à un lien potentiel, complet voulant dire « prenant en compte la popularité et la confiance de la page source, ainsi que la compatibilité thématique entre source et cible ».

Voici quelques exemples de scores, à vous de me dire dans les commentaires ce que vous en pensez :

  • Julien (le muscle) est toujours rapide à donner son avis sur les billets de blog qui parlent de SEO. Est-il raisonnable d’avoir une stratégie qui consiste à le taquiner, pour obtenir un lien depuis son blog ? Il semble que oui, car si on regarde bien, la force SEO induite donnée par cette page du muscle vers ce post parlant (mal) de SEO est de 23, Mettant le BL en première position pour ce post de ce blog. Le deuxième, c’est scoop.it, avec une force de 14 !
  • Chez les frères Peyronnet, on a aussi des liens, par exemple celui qui part de cette page et pousse l’agence de référencement de Julien Jimenez a un score de 30.
  • Ma page pro vers le site de iSWAG 2016 ? Force SEO induite de 44.
  • Passons chez les très grands du SEO. Un lien depuis la home de Abondance vers celle de WebRankInfo, c’est une valeur de 60. Dans l’autre sens, le lien vaudrait 58.
  • Pour finir, et pour illustrer la dépendance au contexte source/cible, un lien depuis Abondance vers ma page pro vaudrait 68, ce qui est différent des 60 entre Abondance et WRI 😉

Voilà donc quelques exemples pour vous mettre l’eau à la bouche. Nous sommes en plein tests, dès qu’on aura stabilisé les formules, je ferais un billet plus clair, et ensuite vous aurez accès à l’outil 😉

Comme d’habitude, direction les commentaires pour donner votre avis. Et les deux olivier, si vous passez par là, je prends les liens depuis vos home sans souci^^

 

Quelques mots sur Qwant News

Aujourd’hui je vais vous parler d’un sujet qui me tient à coeur : Qwant. Si vous me suivez ici ou ici, vous savez que je travaille avec le moteur Qwant depuis maintenant plusieurs mois. Cette collaboration porte, naturellement, sur les aspects algorithmiques du moteur, et j’essaie plus précisément d’apporter mon aide et mes idées sur certaines problématiques telles que la gestion du webspam, le ranking, etc.

Lorsque j’ai commencé à discuter avec les équipe du moteur, une des premières briques dont on m’a parlé est Qwant News (Qwant actualités en Français^^). Et je vais vous l’avouer, dès le début j’ai été impressionné par le travail qui a été fait par la petite équipe de développement de Qwant sur ce sujet, mais dire cela dès le début du billet, c’est mettre la charrue avant les boeufs. Je vais donc commencer par le début, ou pas.

Présentation rapide de Qwant News

C’est en août, au milieu de l’été, qu’a été déployé le système de présentation des actualités qui est disponible à l’URL https://www.qwant.com/news. Visuellement, cela a déjà été commenté dans les médias web : 4 blocs présentent les grosses actus, quelques autres actus sont présentés à droite ou en dessous de ces 4 blocs selon votre résolution. Pour voir plus d’actus, il faut utiliser la boite de recherche.

qnews1

Si vous cliquez sur une des actus, vous verrez apparaitre un résultat de recherche qui permet d’obtenir tous les articles de l’actualité concernant le sujet en question. C’est là très différent de ce que peut faire le compétiteur de la vue sur la montagne (!). En effet, alors même que se pose la question des choix éditoriaux opérés par les algorithmes, une partie du problème est résolu par ce mécanisme : une fois que vous choisissez un sujet qui vous intéresse, Qwant vous propose toutes les sources qui en parlent en une seule fois là où d’autres moteurs vous emmènent directement sur la source principale selon l’algorithme.

Ce mécanisme vous permet aussi de raffiner via la boite de recherche la requête utilisée pour essayer de trouver des articles plus précis concernant une partie de cette actualité, ou des actualités relatives.

Les news, une problématique algorithmique différente du search

La plupart des gens pensent qu’un moteur de news est plus simple à réaliser qu’un moteur de recherche standard, c’est à la fois vrai et faux. Voici quelques éléments pour mieux comprendre les enjeux :

  • Le volume de données est plus petit. Là où pour le search l’index va faire des milliards de pages, pour les news le volume est plus restreint et les pages ont une durée de vie assez courte par ailleurs.
  • Le timing est très important. Dans le search le moteur peut prendre son temps pour indexer et traiter une page web, dans les news il faut coller à l’actu. Si il faut 2 heures pour parler d’un sujet là où twitter est présent au bout de 10 minutes il n’y a pas de vrai service à l’utilisateur. La problématique du « temps réel » oblige à avoir une chaîne de traitement algorithmique très rapide.
  • La précision et l’exhaustivité. Dans un ensemble de sources fixées, il ne faut laisser personne sur le carreau pour des raisons de multiplicité des points de vue. Dans le search, si trois pages expliquent comment changer une roue, ce n’est pas grave d’en perdre une dans le traitement. Dans les news, c’est très différent : si le Figaro, le Monde et l’Humanité traitent le même sujet, on ne peut pas perdre un des articles sans biaiser l’accès à l’information, il faut donc faire les choses avec précision.

Au final, les algorithmes qu’on utilise pour fournir des news sont différents de ceux du search, même si ils sont similaires sur certains points (par exemple l’analyse de texte va se faire de la même manière). Un gros point fort d’un moteur de news doit par exemple être sa capacité à créer des clusters d’articles qui parlent du même sujet le plus vite possible, pour traiter l’information par blocs.

Comment ça marche chez Qwant News ?

Bon, d’abord je ne vais pas vous mentir : je ne vous donnerais aucun secret de fabrication sensible^^. L’équipe News de Qwant a utilisé en partie des algorithmes de recherche d’information dont les principes sont connus (quoi, vous n’avez pas lu l’excellent livre Recherche d’information – Applications, modèles et algorithmes. Fouille de données, décisionnel et big data ?) et des algos maisons particulièrement rapide pour filtrer rapidement l’index des news du moment.

Je dois dire que j’ai été bluffé par un certain nombre d’idées mises en place par l’équipe, et par la qualité de la réalisation associée. Ce qui est d’ailleurs bien agréable : je n’ai pas eu trop de boulot à faire sur ce sujet ! Sans rentrer dans les détails (sinon je serais fouetté sur la plage à Nice ^^), voici les principaux algorithmes et briques de traitement utilisés :

  • Une brique de crawl et récupération des données (là c’est surtout technique).
  • Un système de création de l’index des news qui s’appellent Mozart.
  • La chaîne de traitement algorithmique principale, du nom de Tweezer, concentre les principaux algos. Tweezer va extraire le contenu des pages, faire l’analyse du texte pour déterminer de quoi parle l’article, va extraire les médias (videos, images) et va regrouper les articles qui parle de la même chose. Tweezer va également repérer les entités nommées, qui sont une brique très importantes en matière de news.
  • Un processus qui va déterminer quels sont les sujets les plus importants (c’est ainsi que sont choisis les 4 blocs ainsi que les actus supplémentaires)

Voilà, vous avez maintenant une idée de ce qui se passe (vu de loin). Dans le futur il y aura sans doute encore plus de choses excitantes, comme vous pouvez sans doute le deviner à la lecture de cet article.

Comme d’habitude, si vous avez des question ou des remarques, direction les commentaires, dans la courtoisie et la bonne humeur.

Champ lexical et positionnement

Avec la rentrée, un grand nombre d’outils pour les SEOs pointent le bout de leur nez (et je vais également y aller de mon outil d’ici quelques semaines^^), et parmi ceux-là, il y a des bonnes surprises.

Depuis quelques mois, j’ai l’occasion de discuter avec un développeur-webmaster, que je vais appeler ici Monsieur X, sur de nombreuses problématiques algorithmiques. Et pendant l’été, Monsieur X m’a fait une démo de son nouvel outil (disponible en beta sur le site 1.fr). Mon objectif ici n’est pas de faire de la retape pour cet outil, qui est à mon avis un bel outil, mais de vous parler de ce que j’ai pu retirer des données que Monsieur X a bien voulu me donner.

 

D’abord, une présentation rapide de 1.fr

Une fois inscrit sur 1.fr, vous pouvez renseigner l’URL de votre site, et définir un niveau de profondeur de crawl et une quantité de pages à crawler. Une fois que c’est fait, l’outil va vous donner plusieurs types de mesures, qui vont vous permettre de qualifier votre contenu.

1.fr est essentiellement un outil qui manipule la notion de champ lexical. Visiblement, un énorme crawl du web francophone a été effectué et a permis de créer des tables de co-occurences et de proximité d’usage entre mots. Cela permet de calculer l’adéquation d’un contenu au champ lexical d’une expression. J’ai eu l’occasion de tester l’outil, voici par exemple ce qu’il donne sur une partie des pages de l’excellente rubrique cinéma du site krinein.

analyseAvec les indicateurs chiffrés, on peut facilement vérifier la proximité entre le contenu et le champ lexical, et quand le chiffre est un peu faible, en cliquant sur le « + », on a des informations utiles qui apparaissent.

On peut faire le même type d’analyse sur les liens, avec une information sur la connexion sémantique entre la page cible et la page source (allez essayer, c’est parfois assez bluffant de voir que les connexions peuvent être très tordues). Enfin, une dernière fonctionnalité est de faire des suggestions d’adéquation entre titre et contenu.

1.fr propose également un outil supplémentaire très intéressant : le calcul du score sémantique sur un texte qui est donné en entrée à l’outil. Cela permet de tester les textes pour savoir si le contenu est à la hauteur des espérances (vous achetez des textes ? essayez donc de les passer dans l’outil).

texteBref, un outil qui donne des infos importantes sur vos contenus. Mais ce qui vous intéresse le plus aujourd’hui, c’est la suite de ce billet 😉

 

Analyse de la correspondance entre champ lexical et positionnement

J’ai eu la chance de recevoir de la part de Monsieur X un gros blocs de données bien utiles. Voilà ma base de travail :

  • Les informations de score sémantique pour plus de 4,6 millions de pages, toutes thématiques, avec en plus les informations de positionnement (toutes ces pages sont sur la première page des SERPs Google) sur des requêtes spécifiques.
  • La même chose mais pour des blocs de pages correspondant à des requêtes avec un grand nombres d’annonceurs, avec un nombre moyen et un nombre faible.
  • La même chose mais pour les CPC au dessous de 0,1, pour les CPC entre 0,1 et 0,5, puis pour les CPC au dessus de 0,5.
  • Les infos de score sémantique sur presque 5 millions de pages, mises en regard avec le niveau de concurrence des requêtes. Cela permet d’avoir le score sémantique moyen pour une requête pour toutes les pages d’un même niveau de concurrence.
  • La même chose par volume de recherche annuel.
  • Toutes les infos pour deux ensembles de requêtes de deux thématiques différentes. Le premier bloc ne contient que des requêtes qui contiennent le mot « assurance », le deuxième des requêtes avec le mot « tarif ».

Pour travailler ces données, j’ai utilisé les grands classiques :

  • Corrélation de Pearson quand les valeurs avaient une importance et pour voir si il y a une corrélation affine.
  • Corrélation de Spearman quand je m’intéressais à corréler les rangs.
  • Estimateur de l’intervalle de confiance en fonction de la taille de l’échantillon (pour savoir si certaines conclusions sont réelles ou dues au hasard). La formule que j’utilise est le grand classique qui utilise la fonction de répartition de la loi normale centrée réduite. Ici pas besoin d’utiliser la borne de Chernoff, ce qui permet d’avoir des échantillons plus petits pour un intervalle de confiance raisonnable.

 

Les conclusions (un peu en vrac, mais bon)

  • Il y a de grandes variations selon les thématiques et les requêtes. Par exemple, sur mon groupe « tarif », la moyenne des scores thématiques est autour de 34,19 avec un minimum à 0,44 et un maximum à 93,95. Sur la thématique « assurance », on une moyenne a presque 35, un minimum à 0,52 et un max à 100. La différence sur la moyenne est significative, ainsi que celle sur le max (mais pas celle sur le min). Dans le cas présent, on peut dire que les contenus « assurance » de la première page des SERPs sont en moyenne plus optimisés que ceux de la thématique « tarif » (quelle surprise 😉 !).
  • Dans tous les cas, il y a une corrélation de Pearson négative qui va de moyenne à bonne entre score sémantique et positionnement : quand le score sémantique augmente, le positionnement descend (=il approche de la première position, le plus bas est le mieux, la position 1 est mieux que la position 10) et réciproquement (attention : corrélation, causalité, etc.).
  • Il y a une corrélation de Spearman très forte entre positionnement et rang de score sémantique : quand le rang en score sémantique augmente, c’est aussi le cas du positionnement, et réciproquement. Il semble donc qu’améliorer son score sémantique soit une bonne idée !
  • Pour les autres cas, je n’ai pas pu faire mieux que garantir le bon comportement statistique pour la première place. Le premier est meilleur, en moyenne, que les suivants, en matière de score sémantique.
  • Ca a l’air d’être une bonne idée, mais le résultat précédent est-il OK d’un point de vue statistiques ? Pour le global, pour les requêtes à petit nombre d’annonceurs, et pour celles à CPC faible, je peux garantir (avec les volumes étudiés) que les positions 1 et 2 sont clairement dessus en terme de score sémantique. Ce n’est pas un hasard que les deux premiers des SERPs soient plus en adéquation avec le champ lexical. Attention, on parle bien EN MOYENNE, chaque cas particulier peut être différent. Par ailleurs, cela ne veux pas dire que les autres positions soient indépendantes du contenu, on en peut juste pas garantir quoi que ce soit statistiquement avec les données étudiées.
  •  En terme de corrélation de Spearman, les cas nombre annonceurs faible ou moyen, et le cas CPC faible, sont moins corrélés au score sémantique. En regardant en détail les données, on s’aperçoit que c’est parce que les pages dans les dernières positions de la première page sont assez rarement classées par score sémantique. Mon hypothèse est que sur les requêtes finalement peu intéressantes pour les SEOs (qu’on repère via des indicateurs SEA faibles), seules les toutes premières pages ont été travaillé par des SEOs en terme de contenu. En revanche, dès que les indicateurs SEA montrent l’intérêt des webmasters, alors la corrélation est très proche de 1 (entre 0,95 et 0,98).
  • Volume de recherche et  niveau de concurrence ne sont pour ainsi dire pas corrélés au score sémantique. Ce n’est pas surprenant, la corrélation se retrouve au niveau des pages qui performent (les premières places des SERPs) mais pas ailleurs.

 

Voilà, vous savez tout, maintenant je vous laisse jouer avec l’outil, et si vous avez des questions concernant l’analyse des données (l’outil n’est pas le mien^^) les commentaires sont là pour ça.

Presque un an, on fait le bilan

Il y a maintenant presque un an, j’ouvrais ce blog et j’y annonçais que je prenais une disponibilité de mon poste de Professeur d’Université pour tenter totalement l’aventure de l’entreprise, avec une activité largement centrée autour de la R&D en algorithmique, sous le nom des ix-labs. C’était il y a un an, et il est donc temps de faire un point, pour voir ce que cela a donné.

Je dois dire que cela a été pour moi une très bonne année sur le plan professionnel, et je ne parle pas que de l’aspect financier, qui a été meilleur que mes prévisions (les curieux sur ce point devront attendre que mon bilan soit publié), mais surtout du reste.

La recherche privée est peut-être l’avenir de la recherche

C’est peut-être un cas particulier à l’Informatique, mais j’ai beaucoup plus de temps maintenant pour travailler sur mes propres projets que lorsque j’étais enseignant-chercheur à l’Université. Les aspects administratifs me prennent très peu de temps, d’autant plus que je suis largement assisté pour cela, et la partie commerciale est faite en mode communication/conférence et il y a donc peu de RDV de vente (mais il y en a quand même ;)).

Si je devais découper ma semaine, je dirais que 70% du temps je fais des tâches de R&D, 20% du temps je me consacre à des projets annexes (formations, audit,  conférences,livres, lives, etc.) et 10% du temps je fais la partie admin/gestion/commerce.

L’autre avantage, c’est que la R&D pour les clients est en grande intersection avec mes projets de recherche plus personnels, ce qui me permet d’être plus efficace et plus content 😉 Si on compare avec la situation des années précédentes, j’ai probablement désormais 3 fois plus de temps de R&D dans mon planning !

La différence principale est sur la partie « dissémination » (voir le post précédent sur le blog) : parce que mes activités ont un impact économique pour mes clients, tout ne peut pas être publié, sinon j’aurais facilement fait 5 ou 6 articles en plus cette année. En revanche, ce qui n’est pas publié est vraiment utilisé, et ça c’est une vraie source de satisfaction.

Dernier point, cette année m’a permis de voir qu’une petite équipe est souvent plus performante qu’une cohorte de personnes. Tout ce qui est sorti des ix-labs cette année est le fruit du travail (à temps complet pour moi, partiel voire très partiel pour les autres) de 4/5 personnes différentes. L’avantage d’une structure comme les ix-labs, c’est que chaque personne intervient sur son domaine de compétences, pas plus et pas moins, ce qui donne une efficacité redoutable.

La formation a remplacé les cours

J’ai toujours enseigné, et j’aime ça. Mon activité actuelle me permet de continuer cette transmission, de manière différente. Les formations des frères Peyronnet se sont élargies cette année avec l’habituelle formation moteurs+SEO qui a été étendue, et l’apparition de deux formations : l’une sur les outils statistiques pour le e-commerce principalement, et l’autre sur la performance des sites web. Je pense que ces deux nouvelles formations ont été des succès, auprès d’un public qui n’était pas forcément le notre jusqu’ici.

Autre vecteur de transmission de la connaissance : les lives des ix-labs. Comme toujours sur nos projets, on est à la bourre (pour l’instant 4 lives sur 12 ont eu lieu), mais nous avons eu de beaux sujets avec de beaux intervenants, et les prochains seront tout aussi qualitatifs : le webspam, les bandits manchots, comment bien utiliser analytics, la segmentation clientèle, etc.
Mon seul regret sur les lives est que l’audience est encore peu nombreuse, il y a largement de la place pour une vingtaine d’abonnés supplémentaires, ce qui augmenterait l’interaction sans dégrader le service. Le service est très peu cher, et on donne replays, code et slides sur un forum privé, il ne faut donc pas avoir peur de s’inscrire.

Plein de conférences : celles des autres et les miennes

Cette année je me suis déplacé à la plupart des conférences, souvent avec un exposé. Mon planning m’empêchera probablement d’en faire autant en tant qu’orateur l’année prochaine, mais j’essaierais d’être présent au maximum, car dans ces conférences, on fait de belle rencontre (et soyons honnête, on y fait aussi des affaires, ce qui est plus sympa que de faire du mailing ou du phoning pour vendre des prestas).

D’autre part, cette année nous avons organisé deux conférences : queduweb et iSWAG.  En 2016 nous remettons le couvert : queduweb aura lieu du 8 au 10 juin 2016 à Deauville, et hébergera iSWAG, qui aura lieu les 9 et 10 juin. En 2015 les deux conférences ont bien fonctionné, et en 2016 on triple la mise en mettant queduweb sur trois jours, avec plusieurs tracks : SEA, e-commerce, SEO, BH, e-tourisme, presse, algos, etc. Un premier planning et programme sera dévoilé à la rentrée, pour éviter l’effet « t’as deux semaines pour t’inscrire » 😉

Des belles rencontres, des clients au top, du travail qu’on fait avec plaisir et des sous

C’est un résumé un peu grossier, mais c’est vraiment pour moi la phrase qui qualifie le mieux cet exercice 2015-2016. Je n’avais pas évoqué les clients jusqu’ici, mais objectivement je trouve que j’ai vraiment beaucoup de chances, je bosse avec des gens motivés et investis dans leurs demandes. Je n’ai le droit explicite que de nommer Qwant (pour qui je fais le chief scientist) et le Crédit Agricole pour qui on (avec Guillaume) a fait une mission d’audit SEO algorithmique complexe, mais ils ne sont pas les seuls, et même je n’ai eu aucun « mauvais » client, top non^^

Les prochains mois

La R&D, les lives, Queduweb, iSWAG, mais aussi les formations et les audits avec Guillaume, tout cela continue. Mais si j’étais vous, je resterais attentif, car en septembre/octobre nous allons dévoiler deux projets sur lesquels nous sommes depuis longtemps, et qui ont le potentiel pour être des game-changer pour toutes les personnes qui gèrent des sites web (pas que pour les SEOs). Alors stay tuned pour nos prochaines aventures !

Des questions, des remarques -> direction les commentaires, dans la joie, la bonne humeur et la courtoisie^^