Category “Non classé”

[Good Books] Quelques livres pour l’été (4/X)

C’est déjà l’été et pour certains vous êtes sans doute déjà en vacances… Mais même en retard, voici ma petite sélection de livres pour l’été, avec comme d’habitude de la réflexion avec deux essais, des devoirs de vacances avec deux livres techniques, et un peu de rêve et d’aventures avec deux romans.

Comme je suis bien à la bourre je vais être le plus concis possible…

Réfléchir

Pour commencer l’été, rien de tel qu’un peu de réflexion. En ce moment le sujet chaud c’est l’intelligence artificielle et le transhumanisme, alors voici deux livres sur ces sujets. Les deux sont assez courts, et présentent deux visions plutôt opposés concernant le futur.

Le premier que je vous propose est « Les robots font-ils l’amour ? Le transhumanisme en 12 questions » par Laurent Alexandre et Jean-Michel Besnier. Un titre un peu racoleur pour un sujet d’actualité, présenté au travers d’un livre-discussion entre deux auteurs pas toujours d’accord. Le lien amazon pour commander : http://amzn.to/2tMiSZA.
Le second livre est « Le mythe de la Singularité – Faut-il craindre l’intelligence artificielle ? » par Jean-Gabriel Ganascia. Le discours de l’auteur est vraiment très différent de ce que l’on a l’habitude de voir sur le sujet de l’IA et la singularité. En effet, pour lui ça n’est pas prêt d’arriver… Le lien amazon pour commander : http://amzn.to/2vgdbRD.

Apprendre

Pour ne pas oublier les fondamentaux, ou pour progresser techniquement, rien ne vaut quelques exercices d’algo avant l’apéro. Je vous propose donc un livre assez scolaire sur l’algorithmique : « Conception d’algorithmes: Principes et 150 exercices corrigés », que vous pouvez voir là : http://amzn.to/2vgabEM. C’est plutôt pour les débutants en code qui veulent comprendre les algos.

Autre livre technique de l’été : « Apprentissage machine: De la théorie à la pratique. Concepts fondamentaux en Machine Learning« . Celui-là est plus en phase avec les intérêts actuels du public et sans surprise il vous explique de manière plutôt accessible le machine learning 😉 (le lien : http://amzn.to/2tMieek).

Rêver et se divertir

J’ai bien évidemment plein d’idées au chapitre de la lecture pour se divertir, je pensais d’ailleurs vous aiguiller vers une de mes grandes passions : le monde de Lovecraft, et en particulier son enrichissement par ses nombreux « suiveurs » (on parlerais de nos jours de fan fiction^^). Mais au final, je préfère vous proposer un écrivain français bourré de talent (que j’ai eu la chance d’interviewer pour Krinein il y a maintenant looongtemps), et mon écrivain de SF favori (et malheureusement décédé il y a 4 ans).

Je commence donc par Matthieu Gaborit, écrivain français créateur d’univers, ses écrits valent le détour de par la poésie qu’ils contiennent, et des idées toujours un peu barrées que l’auteur présente. Pour l’été je vous conseille l’excellent « abyme » qui nous relate les aventures de Maspalio le farfadet (et vous pouvez bien sûr le commander via le lien http://amzn.to/2tPIOnf).

Enfin, si vous ne devez en lire qu’un, c’est du coté de Iain Banks qu’il faut se tourner. Banks est un auteur pour qui la SF c’est plus que des vaisseaux, des lasers et des boums boums. Il a un vrai message (généralement politique) qu’il fait passer au travers de ses histoires de space opéra toujours centrées autour du destin assez vain de quelques personnages. Sa civilisation galactique, la culture, est affranchie du travail, est gérée par des IA (les mentaux), on peut digitaliser son esprit, on y est immortel si on le souhaite (mais personne ne le souhaite réellement)… Bref, il y a tous les ingrédients de la SF grandiose, pour nous faire comprendre qu’il y a des questions qui sont/seront les mêmes pour tous.

De Banks, je vous propose directement ce qui est pour moi son livre le moins accessible : les enfers virtuels (sur amazon c’est là : http://amzn.to/2ttR9tm). Attention, ça parle beaucoup de torture, c’est pas toujours « facile » à lire.

Voilà, et surtout revenez me dire dans les commentaires si vous avez lu, et si ça vous a plu ou pas 😉

 

Construire une machine pour faire du deep learning

Il ne vous a sans doute pas échappé qu’en ce moment il y a une grande effervescence autour de « l’intelligence artificielle » dans le grand public, principalement car il y a une grande fébrilité autour du machine learning.

Cette fébrilité a des effets sur le marché de l’emploi (il est très difficile de recruter des profils machine learning/data en ce moment, et quand on a ce profil on est assailli par une surenchère d’offres de plus en plus hautes), et plus prosaïquement sur le prix du matériel qui permet de faire tourner les algos associés (oui, j’ai des actions NVIDIA ^^).

La grande mode est aux techniques de deep learning. Mon objectif dans ce billet n’est pas d’expliquer le deep learning (pour débuter lisez déjà wikipedia, puis ensuite le livre de Goodfellow, bengio et Courville qui est dispo gratuitement ou payant sur amazon), mais de vous parler des éléments techniques permettant de mettre en place des réseaux profonds.

Il y a naturellement de très nombreuses bibliothèques pour faire du deep learning (voir ici) qui ont presque tout le support CUDA, et c’est pour cela qu’il vous faut du GPU de chez NVIDIA pour vous amuser sans avoir besoin d’attendre des jours pour entrainer le moindre réseau. Pour le dire plus clairement, sans GPU pas la peine de vous y mettre.

Nous allons voir maintenant deux machines pour faire du deep learning (et aussi la plupart des tâches liées à des GPUs puissants). J’ai casé partout mon lien d’affiliation, mais soyez prudent, amazon n’est pas toujours l’endroit le moins cher !

La machine pas chère.

Si vous n’avez pas un budget illimité, notamment si vous voulez juste vous amuser un peu mais pas rivaliser dans les compétitions Kaggle, ou faire de la presta, ou si vous n’avez pas un projet ambitieux, une machine avec un GPU vous permettra d’apprendre en toute quiétude.

  • Il faut d’abord un GPU, ce sera pour cette machine une GTX 1070 (elles sont toutes là sur amazon avec mon lien d’affil) ou une GTX 1080 (ici)
  • Il vous faut un CPU et une carte mère avec de la RAM. Un i5-6600 est largement suffisant (240 euros ici), auquel vous collez un peu de RAM (16G pour 140 euros) et vous mettez le tout sur une carte mère du type de la Gigabyte GA-Z170XP-SLI (je ne sais pas si elle se vend encore, mais un truc du genre).
  • Pour le disque dur, sans moyens prenez du SATA en 1TB, ça vous coutera 50 euros (56 pour celui là).
  • Il ne manque enfin que le boitier, auquel il faut rajouter une alimentation puissante car un GPU ça consomme (je mets celle là, mais c’est sans doute overkill).

Au final, vous en avez pour un peu plus de 1000 euros, et je suis prêt à parier que vous pouvez vous en tirer pour beaucoup moins en récupérant un peu de matos chez vous.

La machine puissante.

Si vous avez des besoins en calcul très fort ou bien si vous avez un portefeuille bien rempli et que vous voulez vous amuser, je vous propose une config de ce type :

  • Pour le CPU, on part sur plus puissant avec un core i7 5930K. 6 coeurs et 3,5GHz, ça laisse de la marge sachant que le deep learning sur GPU utilise peu ou pas le CPU. A noter qu’a priori avec celui là vous avez 40 lanes PCIe, donc vous pouvez mettre jusque 4 GPUs. Il est là sur Amazon.
    Pour ventiler le CPU, un Noctua comme celui-là. N’oubliez pas la pâte thermique pour mettre entre les deux !
  • Pour la carte mère, il y a un choix pléthorique, l’Asus X99 fait le job.
    Elle est dispo ici.
  • Il faut de la RAM, mais en théorie pas beaucoup car il n’y en a pas besoin pour le calcul sur le GPU. Ceci étant, avec une machine pareille vous aurez peut-être envie de faire d’autres choses aussi, et dans ce cas 64 GB ça semble OK. De la RAM DDR4 est alors l’idéal. Il y en a sur Amazon.
  • Le nerf de la guerre pour faire du calcul sur des GPUs, c’est les GPUs. Un bon rapport prix/puissance, c’est les Titan X (architecture Pascal). Je vous propose de prendre deux GeForce GTX Titan X 12 GB (bon courage pour en trouver elles sont en rupture un peu partout). Si vous abandonnez votre recherche, prenez des GTX 1080 (dispo ici). Elles sont moins chères, prenez en plus ^^.
  • Il faut ensuite un boitier et une alim. N’oubliez pas que vous faites une machine qui va consommer comme jamais de l’électricité. Visez donc une alimentation entre 850 et 1500 W selon les GPUs que vous aurez mis dans la machine. Il y a du choix chez Corsair, mais aussi du bon matos chez EVGA en 850 W ou en 1000 W.
    Pour le boitier, tout est bon du moment qu’il est assez grand et ventilable. Moi j’aime bien le Corsair Air 540, mais au bureau notre plus gros boitier c’est une grosse bouse moche qui fait le job !
  • Enfin, il vous faut du disque. Si vous faites bien les choses vous avez déjà un NAS de grande capacité pas loin, donc il vous fait un disque rapide mais pas forcément énorme. Prenez donc un SSD de 1 TB, ça ira parfaitement. Un très bn choix sera par exemple un Samsung 850 EVO de 1 TB.

Si vous faites le calcul, la facture est lourde, en TTC cela fait entre 4000 et 4500 euros (entre 3300 et 3750 HT donc). Mais là vous aurez une puissance de feu vraiment importante, et à vous la joie du deep learning au niveau des champions !

N’hésitez pas à commenter, avec votre courtoisie habituelle bien sûr.

 

 

 

 

Du nouveau aux ix-labs

Ce billet assez court est en fait un message de service à destination de tous ceux qui suivent l’aventure des ix-labs. Il y a effectivement de la nouveauté puisque Guillaume rejoint totalement les ix-labs. Cela étonnera peut-être certains qui pensaient que Guillaume était déjà 100% aux ix-labs, mais ce n’était pas le cas puisqu’il avait aussi un certains nombre d’activités dans la société Nalrem Medias dont il est le boss.

En fait, puisque nous dévoilons tout ici, Nalrem Medias et les ix-labs vont fusionner pour devenir une seule entité (qui portera le nom des ix-labs). Ainsi nous aurons trois pôles d’activités :

  • Un pôle R&D qui comme son nom l’indique portera toutes nos activités R&D avec notamment de la prestation de recherche/innovation pour des tiers, ainsi que le développement, la maintenance et la commercialisation des outils (comme https://yourtext.guru/ et d’autres sur lesquels nous ne communiquons pas).
  • Un pôle formation qui porte les formations des frères Peyronnet « habituelles », les formations R, Python, data science et les lives.
  • Un pôle édition, qui vous vous en doutez, est centré sur l’exploitation de nos sites avec des monétisations via publicité, affiliation et publications de « textes » 😉

Voilà, vous savez tout, à bientôt pour de nouvelles aventures !

Quelques bonnes raisons de quitter le milieu académique

Voici un billet que j’aurai mis beaucoup de temps à proposer. Beaucoup de temps car je ne voulais pas écrire un tel billet trop rapidement après ma mise en disponibilité. En effet, le temps aurait éventuellement pu faire évoluer mon point de vue sur le milieu académique. Au final, ce n’est pas le cas. Je souhaitais également attendre que mon dernier thésard soutienne, principalement pour éviter qu’il n’entende des commentaires stressants pour lui sur son directeur de thèse.

Pour rappel, je suis en disponibilité depuis le 1er septembre 2014, après 2 ans comme Professeur des Universités à la fac de Caen, 5 ans comme MCF à l’Université Paris-Sud, 1 an de « postdoc » à l’X, 2 ans comme enseignant-chercheur à l’EPITA, 1 an comme ATER à Paris 7 et 3 ans de thèse à Paris-Sud.

Depuis mon départ en 2014, j’ai eu de nombreuses occasions de rencontrer d’anciens collègues. On me pose beaucoup de questions, et je vois bien qu’implicitement la seule cause admise pour le départ du milieu académique est financière. L’argent, grand fantasme : si on part c’est pour gagner plus ^^. En fait ça n’a pas été mon cas. C’est pour cela que j’écris ce billet, afin de présenter quelques bonnes raisons pour quitter le milieu académique, ces raisons assemblées m’ont poussé à partir. Et maintenant, même si je peux dire que du point de vue financier je suis sans doute gagnant, c’est plus un effet du gain de productivité qu’on peut avoir dans une structure plus souple que de la richesse supposée du milieu privé.

Enfin, je parle ici du milieu académique (principalement universitaire) mais certains des points que j’évoque sont directement transposables dans d’autres fonctions publiques (parfois même en pire, comme par exemple lorsque qu’en plus d’un appareil administratif fort on se retrouve avec les désirs d’un élu tout puissant).

Voici donc quelques bonnes raisons pour quitter le milieu académique, sans hiérarchie particulière :

  • Il n’y a plus de définition claire des missions de l’enseignant-chercheur
    C’est le point le plus évident, et sans doute celui sur lequel tout le monde est d’accord. Il est désormais quasiment impossible de définir clairement quelles sont les missions réelles de l’enseignant-chercheur : l’enseignement et la recherche, c’est très clair. Mais est-ce que gérer les emplois du temps et les salles fait partie de l’enseignement ? Est-ce que gérer les contrats des vacataires est une mission pour un responsable pédagogique (plutôt qu’une mission des RH) ? Est-ce que la recherche de contrat fait partie de la recherche ? Est-ce que la gestion des bureaux, des fournitures, des capsules à café, des périodiques à la bibliothèque, fait partie du job ? Bref, vous l’aurez compris on demande de plus en plus aux seuls personnels qu’on ne peut pas « dégraisser », pour faire des économies, sans doute au prix d’un futur bien noir pour la qualité de la science française.
  • La fonction support perturbe désormais les missions légitimes
    La fonction support, c’est l’ensemble des personnes qui sont en théorie là pour servir la mission en délestant les enseignants-chercheurs de ce qui n’est pas tout à fait leur métier, mais qui est nécessaire à ce métier. Dans la fonction support il y a donc les différents secrétariat (pédagogique, labo, etc.), les administrateurs systèmes, les techniciens, les RH, la compta, etc.
    Soyons clairs : de nos jours, dans la plupart des facs c’est la fonction support qui de fait dirige la boutique avec des contraintes de plus en plus ubuesques. Savez-vous par exemple que dans certains labos d’informatique on ne peut pas être root sur sa machine, et que l’administration système n’hésite pas à discuter les choix techniques des chercheurs ? Que certaines administrations exigent des documents en couleur en plusieurs exemplaires manuscrits identiques pour lancer des remboursements ?
    Plus récemment une responsable d’un bureau des thèses voulait m’expliquer ce qu’est un directeur de thèse, inutile de dire que l’explication a plutôt été dans l’autre sens, pour recadrer la personne…
  • L’administration toute puissante a perdu de vue les êtres humains
    C’est un corollaire direct du problème précédent : les personnels support amers et désabusés (à raison) appliquent les règles sans faire de sentiments, au risque de pénaliser tout le monde, de stresser les étudiants, etc. Par exemple, que penser d’une fac qui interdit à une personne d’apparaître comme encadrant officiel d’une thèse, car « il fallait demander avant monsieur », et ce même si cette personne a contribué à tous les articles du thésard et l’a encadré de très près ?
  • Le système est dysfonctionnel par nature
    La nouvelle mode de la fonction publique c’est l’objectivisation (= le bean counting), par exemple on comptant le nombre de publications, le nombre d’étudiants dans un diplôme, le nombre de jurys, de séminaires, etc. Cette objectivisation vient du fantasme de « on va faire comme dans le privé » (ce qui montre à quel point la fonction publique ne connait pas le secteur privé d’ailleurs).
    Le problème de cette objectivisation, au delà de sa bêtise intrinsèque, est qu’une mesure de performance sans punition ni récompense possibles ne sert à rien d’autre qu’à créer du stress et de l’humiliation (car le seul moyen de punir est de mettre les personnes moins performantes au pilori en public).
  • Le manque de moyens récurrents
    Pas grand chose à dire là dessus, il n’y a plus d’argent pour les choses importantes comme par exemple les voyages en conférences (il n’est pas rare d’être de sa poche dans les facs « de province »), ou le matériel (sans contrats de recherche difficile d’avoir une machine de bureau ou un ordinateur portable performant à certains endroits).
  • Les surcoûts : un gaspillage permanent
    Mais en parallèle de ce manque de moyens, il y a un gaspillage permanent. Ce gaspillage est dû aux rackets de certains fournisseurs qui profitent des règles des marchés pour vendre plus cher des choses qu’on pourrait avoir moins cher ailleurs (très visible sur le matériel informatique par exemple). Mais la plus grosse source de gaspillage est sur les aspects humains : une réunion d’une heure avec 10 personnes de niveau MCF moyen, ça coûte quasiment 300 euros. Combien d’heures passez-vous dans des réunions inutiles ? Vous pouvez faire le calcul de l’argent perdu POUR la société facilement…

En plus de ces raisons avec lesquelles quelqu’un de très motivé peut sans doute composer, il y  des points beaucoup plus graves.

  • Les petits chefs
    Plus le système se dégrade plus certaines personnes vont essayer d’avoir des places de « pouvoir » (pour ce que ça vaut dans le milieu académique, où en fait il n’y a pas de vrai pouvoir) pour avoir la main sur les ressources ou être plus tranquilles. Une fois ces personnes en place, elles vont être au choix tyranniques, ou magouiller dur, ou faire payer à d’autres des offenses souvent imaginaires. Bien évidemment il n’y a pas que des petits chefs, mais soyons francs il y en a, chez les collègues, mais aussi dans le personnel administratif, ce qui entraine des souffrances au travail qui ont parfois des effets dramatiques sur les personnes.
  • Le manque de vision cohérente
    Aujourd’hui, il est très rare de rencontrer des visionnaires parmi les scientifiques. En effet, le bean couting favorise plutôt les aspects techniques, le micro-management et la recherche incrémentale, et donc les personnes avec une vision se taisent ou partent. Au niveau des directions de laboratoires les chefs vont se placer en gestionnaire d’une mosaïque de sujets, certains importants d’autres complètement has-been, mais personne n’aura le courage de « forcer » une vision cohérente sur le long terme. On attend toujours l’émergence d’une génération de chercheurs charismatiques que les autres suivront aveuglément, pour l’amélioration de la société (que ça marche ou pas c’est un autre sujet).
  • La pauvreté intellectuelle
    Histoire de continuer à ne pas me faire d’ami, je pose une question simple : vous qui êtes enseignant-chercheur et qui me lisez, combien avez vous lu de livres de pédagogie ? de livres sur la société, et sur sa relation à la technologie et la science ? sur les usages sociologiques de votre discipline ? sur l’éthique ? ou même plus simplement sur les autres sciences ? Il y a de moins en moins de réflexivité et de curiosité intellectuelle dans les facs, et ça va finir par se voir et avoir un impact.

    • La résignation
      Mon dernier point, celui qui m’a littéralement fait fuir : l’acceptation de la proximité de la mort du milieu académique français. Il est pour moi inacceptable d’accompagner un système à sa mort en croyant que c’est le seul moyen de le sauver (combien pensent que faire de l’admin « c’est normal » et que les choses vont s’arranger un jour ?).

Voilà donc une liste bien noire et que j’assume pleinement. Mais est-ce que tout cela est l’apanage de l’ESR, voire de la fonction publique ? Pour certains points oui, mais pour d’autres clairement non. La différence, c’est que les coûts indus sont ici supportés par la société, c’est-à-dire nous, la collectivité. Alors que dans le privé ce n’est pas le cas.

En revanche dans le public comme dans le privé, les travailleurs sont libres d’aller voir ailleurs, mais ce n’est pas toujours si facile que ça, loin de là, et même pour certains postes/métiers c’est en réalité impossible (il y a par exemple des postes dans la fonction publique qui n’existent nul part ailleurs, ce qui est d’ailleurs édifiant en tant que tel). Cela demande aussi un certain courage, voire une certaine absence de conscience du risque. Mais bon, quand on aura 90 ans et qu’on se retournera sur sa vie, qu’est ce qu’on veut voir ? Moi j’ai choisi.

Au final, pourquoi est-ce que je suis parti ? pour tout ça, mais surtout pour les 4 derniers points. Tous les autres sont pénibles et déprimants mais supportables si les gens travaillent ensemble « for the greater good ».

Voilà, vous êtes maintenant libres de commenter abondamment, dans la courtoisie de préférence.

4 livres pour Noël

img_2443Nous allons bientôt arriver à la trêve des confiseurs, quelques jours tranquilles, généralement en famille, avec des longs moment de repos entre des repas gargantuesques… Qui dit repos dit lecture, je vous propose donc 4 livres très différents pour vous étonner, réfléchir, vous amuser et vous faire peur.

Réfléchir : Eloge des mathématiques par Alain Badiou. (lien amazon pour l’acheter)

Le première livre que je vous conseille est de très loin le plus ardu des quatre. Il s’agit d’un entretien entre Gilles Haéri et Alain Badiou. Le philosophe y explique la beauté des mathématiques et l’émerveillement que cela lui procure. On commence par une ode à un beau théorème, on embraye sur les relations entre maths et philo et sur la raison pour laquelle les deux disciplines s’éloignent de plus en plus. Pour Badiou, les maths c’est une brique de base de la culture et pas un outil réservé aux élites.

S’étonner : Hunter S. Thompson journaliste & hors-la-loi par William McKeen. (lien amazon pour l’acheter)

J’avais entendu parler de Hunter Thompson via le film Las Vegas Parano. Intrigué, j’ai lu cette biographie et c’est réellement un must read qui vous montrera un homme brillant, fou, étonnant, choquant, etc. N’hésitez pas vous pouvez y aller les yeux fermés.
Sans rapport, j’en profite pour vous engager à lire des biographies. La vie des femmes et hommes qui ont fait de belles réalisations ou qui ont eu des vies extraordinaires est souvent très inspirant.

S’amuser : Player one par Ernest Cline. (lien amazon pour l’acheter)

Avec ce livre on passe dans le loisir avec un roman d’anticipation. En 2044 le jeune Wade vit comme presque tout le monde dans la grande misère (réchauffement climatique et vie virtuel généralisée oblige). Ses études, ses loisirs, sa vie, tout se passe dans OASIS, une réalité virtuelle fréquentée par tous et toutes. A sa mort, le créateur de l’OASIS, fan de retrogaming, a promis son héritage à celui qui serait capable de résoudre quelques énigmes basées sur les jeux des années 80, Wade se prend au jeu, mais il n’est pas le seul.

le livre est bien mené, et surtout tout ce qui concerne le retrogaming et les années 80 est rigoureusement exact, à lire donc.

Se faire peur : Superintelligence par Nick Bostrom. (lien amazon pour l’acheter)

Le dernier livre est en phase avec ce qui intéresse généralement mes lecteurs. On y parle (en anglais) des risques liés à l’émergence d’une superintelligence, ce qui pourrait arriver via l’intelligence artificielle (le premier chapitre évoque d’autres moyens d’y arriver, mais le plus probable selon Bostrom est l’IA). Je reviendrais dans le futur sur ce livre et surtout sur certains points sur lesquels je suis en désaccord, mais c’est réellement un livre indispensable si vous voulez réfléchir aux implications des IA généralistes, aux dangers des technologies auto-apprenantes,  et même plus largement une ode à « méfie toi de ce que tu souhaites ».

Voilà, sur ces bonnes paroles, je vous souhaite une bonne fin d’année et une bonne lecture !

Les ix-labs ont deux ans !

Il y a deux ans, je prenais une disponibilité de mon poste de professeur des universités pour monter un labo de R&D privé : les ix-labs. A la fin de la première année, j’étais déjà plutôt content (voir ici), et pour spoiler ce billet, je dois dire que cette année a été encore meilleure. Meilleure ? oui meilleure, et sur tous les plans, sur le plan financier (croissance de presque 50%) mais surtout sur le plan des missions, qui sont chaque jour plus intéressantes.

Que s’est-il passé lors de cet exercice dans l’écosystème des ix-labs ?

Je vais commencer par faire un petit retour sur les principaux points intéressants de l’année.

  • Les lives des ix-labs. Je vais en fait commencer par l’activité qui est la plus problématique. Les live des ix-labs sont, je pense, une réussite sur le plan intellectuel : les exposés sont tops et certains ont donné des idées de produits à des confrères (je pense notamment à l’exposé de Guillaume sur les corpus). Mais nous voyons bien que notre retard chronique prend une dimension épique et à la rentrée, quand nous aurons fini les exposés qui auraient dû être faits avant janvier 2016, nous réévaluerons cette activité pour voir comment offrir un service de la même qualité, mais sans le retard (deux pistes : un abonnement avec moins d’exposés, ou bien un paiement au coup par coup, si vous avez un avis sur la question, vous savez comment me joindre).
  • Les conférences QueDuWeb et iSWAG. Vu ce qui a été dit ici, ici, ici, ici, ici, ici ou encore ici, j’estime que c’est une réussite. L’année prochaine, QueDuWeb reviendra, probablement sur deux jours, mais iSWAG n’aura pas lieu, la situation économique de la plupart des labos de recherche ne permettant pas de garantir facilement une audience suffisante. Nous pensons cependant à ajouter quelques exposés de vulgarisation scientifique dans QueDuWeb, car il y a un public intéressé.
  • L’international. Rien à voir avec le chant révolutionnaire… Cette année nous avons réalisé un peu plus de 20% de notre CA à l’international, y compris sur des activités de data science, c’est pour nous une reconnaissance importante.
  • La R&D et la data science. Ces deux activités restent de très loin nos activités principales (70% de notre temps). Il y a de la R&D et de la data science dans l’étude webspam (terminée cette année), dans les travaux avec Qwant et d’autres grands comptes, mais aussi dans nos « spin-off » comme YourTextGuru et The Machine In The Middle (présentée rapidement lors de QueDuWeb, plus à venir bientôt, Guillaume en parle dans ce podcast chez Thomas Cubel).
  • Les formations. Au delà des classiques (moteurs sur 2 jours, machine learning sur une journée et vitesse sur 1 journée) opérées via les frères Peyronnet, nous avons commencé une formation R + Python, pour l’instant en intra chez un de nos clients. Concernant la formation vitesse, nous réfléchissons à la proposer en mode dématérialisé, et là encore, si vous avez un avis sur la question, n’hésitez pas à nous le faire connaitre.
  • A titre personnel. Ca peut faire sourire, mais j’ai été honoré d’être nommé Personnalité Search de l’année 2016 en marge de la conférence SMX. En vrai ça fait très plaisir.

Voilà pour les points importants. Ce qui permet de passer aux news pour notre troisième exercice.

Plein de projets excitants pour l’année à venir

Alors que l’équipe n’était pas composée de personnes à temps plein aux ix-labs l’année dernière (sauf moi), cela change : Thomas et Lucie rejoigne totalement l’équipe (enfin, Lucie conservera en partie son activité de rédactrice freelance à coté, donc si vous avez besoin d’elle n’hésitez pas). Guillaume est sur tous nos projets également.

En terme de projets, à part ce qui est en continuité (formations, R&D, QueDuWeb), nous allons passer la seconde pour YourTextGuru et The Machine In The Middle.
La formation R/Python sera sans doute adaptée pour un public large, en commençant par une formation R seul. Nous sommes encore à la recherche d’un format et d’un modèle économique adapté.
Enfin, au chapitre des grandes nouveautés, un projet secret va être finalisé en octobre, qui mettra à disposition la puissance du machine learning pour mieux comprendre les problèmes que peut avoir un site web. Et nous allons relancer une activité que nous avions mis de coté au fil des années : l’édition de sites web.

Voilà, vous savez tout, stay tuned for the next episodes…

[Good Books] Quelques livres pour finir l’été (3/X)

Alors que le mois d’août est largement entamé, nous sommes très clairement dans le dur des vacances. Et quoi de mieux pendant les vacances que de bouquiner tranquillement, pour affûter son esprit avant la rentrée 😉

Voici donc quelques livres avec un court commentaire, que je vous conseille pour l’été, mais aussi pour la rentrée. Comme d’habitude, les liens amènent vers Amazon, via mon tag d’affiliation (transparence transparence…).

Trois livres non techniques, sur des sujets divers

Les vacances, c’est le moment de se couper de la réalité du boulot en lisant des livres pour s’ouvrir l’esprit. Je commence donc par vous conseiller quelques essais non techniques.

En premier, un livre parlant d’économie : Ce que l’argent ne saurait acheter : Les limites morales du marché, par Michael Sandel. Comme le titre l’indique, le livre porte sur les limites de la marchandisation totale, et sous-tend l’hypothèse que donner une valeur monétaire à certains biens/actions dégrade leur valeur non monétaire. L’auteur soutient son discours avec de nombreux exemples, certains édifiants, d’autres moins percutants (d’autant que la France n’a pas les mêmes idéaux moraux que les USA). Le livre reste intéressant, même si l’analyse est parfois un peu courte, et parfois également très imprégné de la propre morale de l’auteur. A lire cependant.

En deuxième, L’utilité de l’inutile, par Nuccio Ordine. La thèse de l’auteur est simple : il est faux que seul ce qui est source de profit est utile. Une fois qu’on a compris que c’est de ça qu’il s’agit, on se laisse guider dans un texte très érudit, plein de références et agréable à lire. Ce n’est pas de la « rocket philosophy », mais pour l’été c’est parfait.

En troisième, un livre plus près de nos préoccupations habituelles : The Black Box Society, les algorithmes secrets qui contrôlent l’économie et l’information Broché, par Frank Pasquale. Frank Pasquale est professeur de droit aux USA, spécialisé dans les questions éthiques liées aux technologies de l’information. Le livre fera peur au grand public, et ne surprendra qu’à moitié les personnes « du métier » : les grandes sociétés, main dans la main avec les pouvoirs publics, utilisent des algorithmes discriminants à longueur de temps, sans les divulguer, en se basant sur des données qui sont récoltées à très grandes échelles (et partagées entre « ceux qui savent »). Les gouvernements se font bananer à longueur de temps par « ceux qui savent » car les élus n’y comprennent rien. bref, business as usual. Le livre est très bien sur son aspect « catalogue », même si vous êtes dans l’informatique, mais sans être dans les « data trucs », vous découvrirez des choses (par exemple, je parie que vous ne savez pas ce qu’est un « fusion center »). Par contre, quand l’auteur aborde les possibles solutions, on retourne au pays des bisounours, ce qui montre que l’auteur est assez loin de la technique. Une lecture très agréable en tout cas.

Deux livres techniques, pour apprendre

C’est pendant l’été qu’on a le temps de se mettre à niveau sur des nouveautés, et c’est pour cela que je vous propose les deux livres suivants.

Le premier : Automate the Boring Stuff with Python, par Albert Sweigart. Je vais faire assez court : après une quasi-moitié du livre passée à apprendre Python (et c’est utile !), vous découvrirez comment faire du scrapping, comment travailler sur des fichier xls, pdf et json, comment faire du traitement d’images, comment manipuler souris et clavier pour automatiser des tâches, etc.

Le deuxième : Data Science from Scratch, par Joel Grus. Pas grand chose non plus à dire, il s’agit d’un livre qui part du principe que vous avez des bases en python, et qui déroule les bases de la data science à partir de là. Il y a des liens vers le code (via github) et les explications sont toujours très claires et pédagogiques. Seul bémol : le code est en python 2.6, alors que le standard est maintenant python 3.

Voilà, vous avez maintenant de quoi vous occuper sur la plage, à bientôt !

YourTextGuru : j’ai la patate !

Après quelques mois de mise en production de la version beta de YourTextGuru, nous avons mis en action aujourd’hui quelques correctifs de qualité pour produire de meilleurs guides, et surtout, nous avons activé notre nouvelle fonctionnalité, nom de code PATATE.

Vous êtes à l’heure actuelle un peu plus de 500 à utiliser plus ou moins fortement YourTextGuru, et pour certains c’est l’utilisation des guides qui est problématique. C’est le cas de certains rédacteurs déjà très rapides, qui trouvent qu’un guide est trop contraignant, avec certes quelques mots très importants, mais aussi des suggestions de mots « pour faire naturel » que ces rédacteurs ne vont pas utiliser car ils font déjà « du naturel ». C’est également le cas de certains SEOs, qui veulent aller plus loin dans l’optimisation, quitte à chatouiller les limites du moteur, et qui voudraient donc plus de mots importants.

Si vous êtes dans ces cas là, nous vous avons écouté, et nous avons rajouté la possibilité de demander la « patate » d’une requête. Cela se fait toujours dans la même interface, sauf qu’au lieu de demander des guides, vous allez cocher la case « je veux la patate », et vous l’aurez, pour 5 jetons.

Chaque requête n’a qu’une patate : si vous demandez 234 guides, ils seront tous différent, mais il n’existe qu’une seule patate par requête, et pour cause puisque la patate c’est L’INTEGRALITE des mots les plus importants du cluster sémantique de la requête que le moteur construit pour proposer ses SERPs. Je dis les mots, mais bien sûr nous proposons les mots importants, et les entités nommées également.

Vous vous demandez encore ce qu’est vraiment la patate ? C’est bien normal, et comme des exemples concrets valent mieux que mes discours ronflants, voici quelques exemples de requête, avec la patate associée :

Voilà, je vous laisse vous faire votre idée. Après, comment utiliser cette patate ? Elle vous donne les mots les plus importants, indépendamment de leur ventilation statistique naturelle, c’est donc à vous de faire vos arbitrages (qui sont faits automatiquement dans les guides), quitte à prendre des risques avec le Grand Google…

Pour tester et commander des belles patates, c’est sur YourTextGuru que ça se passe, et pour commenter c’est ici, dans la joie et la bonne humeur bien sûr.

[Good books] Programmation efficace : des algos, du python (2/X)

128Aujourd’hui je vais vous parler d’un livre intitulé « Programmation Efficace –  Les 128 Algorithmes Qu’Il Faut Avoir Compris et Codés en Python au Cours de sa Vie ». Les auteurs sont Christoph Dürr et Jill-Jênn Vie. Comme d’habitude, je vous colle le lien amazon : c’est ici pour acheter.

Pour faire un full disclosure, il faut que je vous raconte encore une fois un bout de ma vie (heureusement que j’écris sur un blog). Je suis rarement impressionné par des algorithmiciens. Souvent ils sont bons théoriquement mais ils sont à coté de la plaque sur la réalité et l’efficacité (ils manquent de pragmatisme). D’autres sont au contraire trop dans la pratique et font donc des algos mauvais car ils ne connaissent pas la théorie.

Christoph, dont j’ai partagé le bureau au tout début de ma thèse dans l’équipe de recherche en algorithmique de la fac d’Orsay, est à la confluence des deux approches (théorique et pratique). Il fait donc partie des rares personne capable de résoudre réellement des problèmes à l’aide d’algos bien conçus.
Quand j’ai vu qu’il sortait ce livre, je me suis jeté dessus.

Il ne s’agit pas d’un livre pour apprendre l’algorithmique, pour cela je vous envoie vers le Cormen, référence du genre (Algorithmique – 3ème édition – Cours avec 957 exercices et 158 problèmes), mais plutôt d’un livre pour comprendre comment on résout des problèmes à l’aide d’algorithmes. Je n’ai pas peur de dire que c’est le meilleur livre que j’ai lu sur le sujet.

Il est structuré de manière très simple : après la traditionnelle introduction chaque chapitre va se consacrer à un sujet spécifique (les chaînes de caractères, les arbres, les flots, l’exploration, etc.). Au sein d’un chapitre, on passe en mode « résolution de problème » : explication d’un problème, définitions utiles, commentaires divers, et enfin code complet en python.

C’est ce qui fait la force de ce livre : il explique de manière simple et accessible comment on résout réellement chaque problème évoqué.
Par exemple, une section du chapitre 3 porte sur le calcul de la distance de Levenshtein entre deux chaînes de caractères. C’est l’approche de programmation dynamique qui est mise en avant, avec un exemple permettant de bien comprendre, et le code (10 lignes) qui implémente l’algo.
Plus loin (chapitre 13), on trouve une section sur comment trouver le plus grand rectangle sous un histogramme. Inutile ? Non, car l’algorithme qui réalise le calcul peut s’appliquer directement en télécommunications par exemple, de la mème manière que dans le dernier chapitre, les auteurs introduisent l’algo des liens dansants, qui vous permettra de résoudre automatiquement le sudoku, les chiffres et les lettres, etc.

Bref, un excellent livre que doit avoir toute personne qui développe et qui voit au delà de la programmation de cochon ^^ Ce n’est pas un livre de chevet, qu’on va lire d’un bout à l’autre et ranger, c’est un livre dont chaque page doit se lire, se relire, se travailler. C’est un livre qui fera de vous un meilleur développeur.

Voilà, comme d’habitude, les commentaires sont ouverts, dans la joie et la bonne humeur.

A noter : si vous savez faire tout ce qu’il y a dans le livre, vous savez répondre à toutes les questions des entretiens d’entrée dans les boites tech de la silicon valley (en ce qui concerne les algos ;)).

 

Que vendez-vous ? Réflexions autour des prix…

Je profite de cette journée de Mai, donc sans grande action au niveau du travail, pour écrire ce billet que j’ai en mode brouillon depuis longtemps. Le sujet du jour sera donc la vente, mais pas du point de vue techniques de vente.

C’est largement inspiré par de très nombreuses discussions avec les confrères que j’ai eu l’idée de ce billet. Pour tout vous dire, l’élément déclencheur a été une discussion qui s’est reproduit plusieurs fois avec plusieurs personnes différentes et qui visaient toutes à répondre à la question : « je suis blindé de boulot, mais je ne gagne pas bien ma vie, Sylvain qu’est-ce que tu en penses ? ». La réponse canonique que font tous les vieux briscards (et que j’ai fait conjointement à Laurent Bourrelly à un plus jeune que nous à VEM7) est « il faut augmenter tes tarifs ». Partant de là, j’ai réfléchi et je vous présente aujourd’hui le fruit de ma réflexion, car je pense qu’il faut aller au delà de la simple augmentation de prix et plutôt réfléchir à ce que l’on vend.

Avant de penser au marketing, il faut penser à faire le commercial, et pour aller au delà du diptyque synchronisation – théorie de l’engagement, je vous propose de réfléchir à une analyse en amont du type de besoin client auquel vous répondez. Selon le type de besoin, vous ne vendez pas la même chose, et sans vous en rendre compte vous êtes en train de manipuler un levier pour choisir vos clients et gagner plus.

Selon moi, voici les trois types de choses que vous pouvez vendre (quand vous êtes dans le même type de métier que moi, qui mêle informatique, conseil, formation, etc.).

  • Vendre du TEMPS

Le schéma le plus standard, qui vient du milieu du conseil, est de vendre son temps. Pas mal de SEOs font ça, les formateurs en présence aussi, les agences aussi, etc. Le problème de la vente de temps est qu’on peut devenir assez rapidement esclave de son travail et qu’on n’a plus le temps de se former, de faire de la R&D et qu’on va donc vers l’épuisement.

Par ailleurs, il n’y a qu’un seul levier pour choisir ses clients et gagner plus : augmenter son tarif journalier. Le choix des clients ne sera alors pas par rapport aux missions, mais juste par rapport au budget, et l’augmentation du tarif journalier n’est pas sans limite. Si on prend l’exemple des meilleurs SEOs, le niveau haut se situe plutôt autour d’un TJM de 1000 euros, il y a donc une vraie barrière pour qui veut de très gros revenus. Lors de mon passage dans des métiers plus rémunérateurs (du conseil RH/technique), le record que j’ai vu pour un cador absolu de son domaine, c’était 3000 euros par jour, une somme très substantielle, mais très loin de ce que gagne les grands capitaines d’industrie.

  • Vendre des PRODUITS

Vendre des produits, c’est le schéma du commerce « normal », mais dans nos domaines « virtuels », c’est le moyen de se créer des revenus récurrents à forte marge. Dans le domaine des SEOs, c’est là qu’on trouve la vente d’ebooks, ou encore plein d’outils (par exemple, YourTextGuru rentre dans ce schéma).

Bien sûr, le résultat dépend du volume, et on rentre là dans des problématiques plus proche du marketing que de la vente, car vendre en one to one des produits à quelques euros est un no brainer. Mais si on fait abstraction de cela, on a maintenant plusieurs leviers : le prix des produits, le niveau de technicité, et même tout simplement le service que fournit le produit.

Parfois, catégoriser n’est pas facile : est-ce qu’une formation est un produit ou une vente de temps à un prix variable car dépendant du nombre de formés ? Dans le cas des formations dites « des frères Peyronnet » c’est de la vente de temps car le produit ne peut pas être instancier par d’autres formateurs, mais dans le cas d’une formation SEO générique, on est plus sur la vente d’un produit.

La limite de gain va dépendre de la surface de marché et de la capacité qu’on va avoir à s’adresser à ce marché. Par exemple, un produit pour SEOs freelance en France a un potentiel de clientèle autour de 1000 personnes environ, si c’est un produit pour agences c’est moins, si c’est pour tous les webmasters dans toutes les langues alors the sky is the limit^^

  • Vendre de la VALEUR

Vendre de la valeur c’est le modèle économique derrière les ix-labs, qu’on a poussé à son paroxysme. La valeur, c’est ce qu’on va gagner grâce à ce qu’on achète moins ce que nous coûte la chose en question. Attention, je ne parle pas de vendre PAR la valeur, qui est en fait mettre en avant la valeur d’utilité d’un produit lors d’une opération commerciale ou marketing, mais bien de vendre directement cette valeur.

Nuance ? oui et non, c’est bien plus que ça. Quand on vend de la valeur on vend la promesse que la prestation associée va être une certaine forme de game changer pour le client. Vendre de la valeur c’est donc typiquement ce que l’on vend quand on est un labo de R&D, car l’innovation est un levier de croissance très fort pour le client.

Comment pricer cette valeur ? c’est là que les choses deviennent complexes, et pour moi il n’y a que deux possibilités, qui ne s’excluent pas mutuellement (on peut faire un mix des deux).

La première possibilité est le forfait : on est payé pour réfléchir à comment créer de la valeur chez le client, ça marche ou pas (bon, si ça marche jamais on ne gardera pas longtemps les client). Vous noterez que c’est le modèle que l’état utilise majoritairement pour le fonctionnement de la recherche publique : les chercheurs sont payés de manière forfaitaire. A ce propos, le financement par projet va a l’encontre de la notion de vente de valeur, et n’a sans doute aucun sens et aucun avenir à cause de cela.

La deuxième possibilité pour mettre un prix sur le potentiel de valeur est de gommer le risque du client en faisant du revshare (partage de revenu) ou un mécanisme de licence. Concrètement vous ne facturez pas votre temps de réflexion/conception, mais vous touchez un pourcentage (substantielle) de la valeur réellement créée par votre travail. C’est un mécanisme apprécié par les plus petites structures qui ne peuvent pas risquer leur petite capitalisation, qu’on retrouve également lorsque plusieurs personnes s’associent pour faire de la co-création.

Si vous le pouvez, d’un point de vue métier et d’un point de vue risque, c’est dans la vente de valeur, avec un mix petit forfait – gros revshare, que vous pourrez avoir VOTRE game changer, pensez-y 😉

Voilà, j’ai fait le tour de ma (petite réflexion), et vous, que vendez-vous ? N’hésitez pas à me le dire dans les commentaires.