Accueil » Des nouvelles du monde 3.0

Catégorie : Des nouvelles du monde 3.0

Ma chronique hebdomadaire sur le monde qui vient

Les experts-comptables ne cachent plus leur inquiétude sur la DSN

La DSN (déclaration sociale nominative) est devenue obligatoire au 1er janvier 2017, y compris pour la phase 3, c’est-à-dire notamment pour les flux d’assurance complémentaire. Au-delà des déclarations triomphales sur la simplification que cette mesure permet dans la vie des entreprises, les experts-comptables ne cachent désormais plus leurs inquiétudes sur la réalisation concrète des opérations.

Les experts-comptables écrivent à Michel Sapin

L’inquiétude est telle que les experts-comptables se sont fendus d’un courrier d’alerte au ministre de l’Economie:

Le Président du Conseil supérieur, Philippe ARRAOU, a adressé le 30 novembre 2016 un courrier à Michel SAPIN, Ministre de l’Économie et des Finances, et à Thomas FATOME, Directeur de la Direction de la Sécurité Sociale pour demander le report de la phase 3.

Ce courrier fait état des difficultés rencontrées dans la mise en œuvre de la phase 3. En effet, les organismes complémentaires de prévoyance, de mutuelle et d’assurance, ne sont pas prêts.

Le Conseil supérieur a donc demandé l’aménagement de la généralisation de la phase 3 au 1er janvier 2017 et a proposé que :

·        l’obligation de migrer à la DSN en janvier 2017 soit maintenue, mais uniquement en phase 2,

·        la phase 3 soit reportée à une date à définir en fonction de l’état d’avancement des organismes complémentaires,

·        si la migration phase 3 ne peut pas être reportée, il faudrait la limiter aux seuls organismes de retraite complémentaire Agirc Arrco en janvier 2017.

Un scandale se prépare-t-il?

Il serait évidemment gênant que la généralisation de la DSN se solde par un désastre économique pour les acteurs de la protection sociale complémentaire, faute d’une préparation suffisante.

Pour les non-initiés, la mise en place de la DSN dans cet univers s’est révélée complexe. Elle suppose en effet que, chaque mois, chaque employeur retrace dans la déclaration le flux financier qui est prélevé sur la paie des salariés à destination des régimes complémentaires de retraite et des organismes santé complémentaire. Ceux-ci sont nombreux et dispersés. Il a donc fallu prévoir des « agrégateurs de flux » qui redispatchent ensuite les flux collectés vers les bons organismes.

Il s’agit donc d’une architecture complexe et sensible, dans la mesure où le moindre loupé dans l’identification des flux peut avoir de sérieuses incidences financières pour les acteurs lésés.

On mesure évidemment le risque auquel tout ce petit monde s’expose en cas de confusion, comme celle qui avait pu se produire sur les cotisations RSI en leur temps.

La malédiction de la simplification administrative

Dans la pratique, la mise en place de la DSN, qui devait être une simplification (et qui, sur le fond, l’est), illustre une nouvelle fois les difficultés de l’administration à maîtriser les chantiers informatiques complexes. C’est un sérieux obstacle à la dématérialisation des procédures et au basculement numérique.

Comme dans l’affaire du logiciel Louvois (qui a coûté 500 millions d’euros… en pure perte ou presque), la DSN est alourdie par des coûts mal anticipés. Le bon sens voudrait que, avant toute dématérialisation, l’administration prenne le temps de simplifier la réglementation et la procédure. Faute de ce préalable, le passage au numérique se révèle souvent catastrophique.

La DSN pourrait en donner un nouvel exemple.

Cancers: le dangereux mésusage des données de santé par la Sécu

Le mésusage des données de santé par la sécurité sociale devient chaque jour un peu plus gênant. Après les affaires du Mediator ou de la Depakine, après les certitudes confirmées par Cahuzac sur l’influence occulte des laboratoires pharmaceutiques dans la décision publique, la Cour des Comptes relève le singulier mésusage des données de santé par la sécurité sociale dans le domaine des affections longue durée, et notamment du cancer.

Une base de données laissée en friche

Ces quelques mots du rapport de la Cour des Comptes sur la Sécurité Sociale suffiront à illustrer le propos:

données de santé

Pour mémoire, les ALD sont les affections de longue durée, un groupe de maladies auquel le cancer appartient. Il ouvre droit à un remboursement à 100% des dépenses maladie. Comme on le voit, l’assurance-maladie est incapable d’exploiter la moindre donnée sur ce sujet.

On lira aussi cet autre passage édifiant:

données de santé

Autrement dit, malgré les millions de données dont dispose l’assurance maladie pour mieux comprendre le cancer et sa prise en charge en France, il ne se trouve pas un pékin à la CNAMTS pour se poser la question de leur exploitation. Il est vrai que le cancer est une maladie secondaire dont on ne risque jamais de mourir…

Des disparités ahurissantes

Pour illustrer la gravité du propos, la Cour fournit des tableaux tout à fait significatifs, dont celui-ci:

données de santé

Il détaille les différences de coûts dans les prises en charge selon les régions pour une même affection. Pour les cancers, les coûts vont d’un indice 83 (100 étant la moyenne nationale) jusqu’à l’indice 124. Autrement dit, d’une région à l’autre, le coût de prise en charge peut être inférieur à près de 20% à la moyenne nationale, ou supérieur à 25%.

Les mauvais esprits remarqueront que ces différences concernant le cancer sont moins inquiétantes que pour d’autres maladies, comme les insuffisances respiratoires (dont les coûts vont du simple à plus du double) ou la maladie d’Alzheimer (du simple au quadruple).

Pourquoi? Personne ne le sait.

Marseille, championne de France de la dépense

Cet autre tableau détaille les analyses de la Cour et permet de mesurer l’ampleur des dégâts:

données de santé

Ainsi, le coût d’une prise en charge pour un cancer est de 9.231€ en moyenne en France. Mais il s’élève à près de 10.500€ à Marseille, alors qu’il est inférieur à 8.000€ à Clermont-Ferrand.

Là encore, faute d’une utilisation des données à sa disposition, l’assurance-maladie est incapable de fournir la moindre explication.

La regrettable querelle du mésusage

On se souvient qu’en 2013, le secrétaire général du ministère de la Santé avait publié un rapport dénonçant le risque de mésusage des données de santé par les citoyens, dans l’hypothèse où, conformément au droit communautaire, la France permettrait la réutilisation gratuite des données qu’elle collecte.  Dans l’esprit de ce haut fonctionnaire, seuls les services de l’Etat étaient capables de comprendre ces statistiques.

On reconnaîtra à la Cour le mérite d’avoir montré par le menu que l’assurance-maladie, comme la direction de la sécurité sociale, sont les véritables producteurs du mésusage des données publiques.

Et pendant ce temps, la Sécurité sociale rembourse des médicaments dangereux pour les patients, et ne s’en aperçoit pas.

Brain Drone Race: la révolution du pilotage psychique

L’Université de Floride a organisé une Brain Drone Race, une course futuriste de drones directement pilotés par le cerveau des candidats. Ce projet fascinant risque de donner la victoire à une candidate venue de Singapour.

Qu’est-ce que la Brain Drone Race?

Chaque candidat porte un casque qui perçoit son activité cérébrale. Grâce à cette méthode, le candidat pilote le drone uniquement par ses représentations psychiques, sans aucune intervention manuelle. La technologie permet donc d’utiliser les données cérébrales pour domestiquer et commander une machine, par l’intermédiaire d’un ordinateur qui interprète les représentations mentales de l’humain.

Les utilisations de cette technologie sont évidemment très importantes. Elles permettent en particulier d’espérer une meilleure prise en charge du handicap, en garantissant la mobilité de fauteuils roulants par simple décodage de la volonté de la personne.

Elles supposent que la personne qui porte le casque multiplie les représentations psychiques imagées pour guider le mouvement du drone.

Comment écrire un article qui fait le buzz sur Internet?

Écrire sur Internet obéit à des règles très précises, qui forment une nouvelle rhétorique à laquelle nous, les anciens, sommes bien peu habitués. Pour répondre à la demande de quelques lecteurs, voici quelques conseils simples (et modestes) pour aider les rédacteurs dans leur délicate tâche de faire de l’audience.

Internet, l’audience et l’influence

Le premier point est d’avoir à l’esprit une distinction entre deux notions fondamentales: l’audience et l’influence.

Certains lecteurs sont obsédés par le fétichisme de l’audience: leur objectif est d’être le plus lus possible. C’est un choix qui peut se tenir, mais il faut alors avoir conscience que le contenu éditorial doit être extrêmement vendeur. Pour ce faire, il vaut mieux multiplier les supports au sein du même contenu (texte, photos, graphiques, vidéos) et rarement dépasser les 3.000 signes espaces compris.

L’influence ne cherche pas à toucher le plus grand nombre d’internautes possibles, mais les plus qualifiés d’entre eux pour un support donné. Pour un blog, il peut s’agir des experts d’un domaine, des journalistes, des relais d’opinion. L’idée est alors qu’il vaut mieux être lu par peu de gens mais qui s’intéressent au sujet que l’on traite, plutôt que par beaucoup de gens qui ne s’y intéressent pas vraiment.

Dans ce cas de figure, l’auteur peut se concentrer sur le contenu et sacrifier les formes (plus de texte, moins de photo!)

De mon point de vue, la bonne ligne éditoriale est celle qui arrive à mixer les deux selon un « tuning » qui correspond à la visée de l’auteur.

Internet et la mesure de l’influence

Dans tous les cas de figure, les outils de recherche ou de classement sur Internet intègrent une fonction de mesure de l’influence. Celle-ci est notamment évaluée à partir des liens externes qui renvoient vers le contenu produit. Rédiger sur Internet suppose donc d’avoir toujours à l’esprit d’être référencé par des influenceurs.

Pour faciliter son référencement, le blogueur prévoyant propose toujours à ses lecteurs des « fils RSS » (généralement proposés sur des solutions toutes faites appelées widgets) qui permettent d’informer les abonnés de toute nouvelle publication d’article. Dans la conception du site, il ne faut donc surtout pas négliger cet outil.

En outre, la logique collaborative et les règles de Google rendent indispensable de citer dans ses textes, sous la forme de liens hyper-textes, des articles auxquels on fait référence. Cette multiplication de liens doit aussi concerner les photos, lorsqu’il y a lieu.

Internet et la question de l’audience

Tout ceci plaide pour ne pas accorder une importance trop forte à l’audience. On se méfiera donc (en tout cas c’est mon cas) des montreurs d’ours qui développent toute une doctrine de la balise, du H2, du H3 et autres techniques de référencement qui permettent de gonfler l’audience quel que soit le contenu. En réalité, un bon blog, s’il fait choix de ne pas se limiter à des vidéos de petits chats ou d’actrices à moitié nues, ne gagne pas grand chose à recourir à ces subterfuges.

À titre expérimental, j’ai pu constater que, en publiant des photos inédites d’une actrice à la mode dans les rues de Paris, j’avais de façon éphémère gagné une audience sans aucune influence…

Internet et le choix du sujet

Nous touchons ici au sujet que le blogueur se pose souvent au moment où il ouvre son blog: de quoi dois-je parler? La question du choix du sujet est majeure pour définir la ligne éditoriale qui permettra de gagner de l’influence. Toutefois, il faut immédiatement apporter deux tempéraments à cette notion.

Premier tempérament: une ligne éditoriale n’est pas forcément un espace psychorigide. Si tous les blogs se choisissent un thème, c’est la personne qui est derrière le blog qui retient l’attention. De ce point de vue, il ne faut pas craindre de se livrer parfois à des digressions ou des changements de style pour donner à voir des aspects cachés de soi-même, ou pour divertir le lecteur.

Deuxième tempérament: un sujet n’est rien sans angle. Un même sujet peut faire un flop ou faire un tabac selon l’originalité ou la vivacité avec laquelle il est traité. Dégager un angle original, surtout sur des sujets éculés, n’est pas toujours simple.

Les blogueurs avertis utilisent donc des gimmicks pour optimiser leurs choix dans les phases où ils manquent d’inspiration. Ils recourent souvent à la logique « par liste » ou « par classement » (les 5 erreurs à ne pas commettre, les 3 lieux à visiter, les 8 mensonges du Président, les 10 chiffres à connaître sur le chômage). Ils peuvent aussi pratiquer la ronde-bosse: ce qu’on ne vous a pas dit sur tel sujet, ce que vous auriez dû savoir avant d’aller voir tel film, ce que vous avez manqué pendant les vacances.

Internet et le type de sujet

Dans la pratique, vous vous apercevrez vite qu’il existe trois types d’informations qui vous permettent de bâtir un sujet.

Le premier type, qui est le plus difficile à pratiquer, est celui de l’analyse ou du commentaire. Les lecteurs de mon blog sont coutumiers de ces longs articles qui donnent un point de vue sur un sujet sans apporter de véritable information nouvelle. Pour qu’un article de ce type soit lu, il vaut mieux qu’il apporte une offre différenciante soit dans son style, soit dans son ton. Pour améliorer leur chance d’être lus, beaucoup de blogueurs pratiquent l’analyse courte.

Le deuxième type, assez proche de l’analyse, est le décryptage, qui consiste à prendre une information « officielle » et à la déconstruire. C’est sur ce schéma que fonctionne le blog des décodeurs du Monde, par exemple.

Le troisième type est celui qui prend le plus du temps, mais qui « rapporte » le plus d’influence: l’information pure, de préférence confidentielle et exclusive, souvent à partir d’investigation. C’est la marque de fabrique de Mediapart par exemple.

Quand on ouvre un blog, il faut avoir à l’esprit que tout contenu sera classé dans l’un de ces trois types, et que l’investigation est beaucoup plus « vendeuse » que l’analyse, surtout si celle-ci est longue et loin des problématiques quotidiennes. Surtout, la durée de vie d’un article est relativement liée à son type. L’investigation a souvent une durée de vie plus courte (48 heures maximum) que l’analyse ou le décryptage. Un décryptage sur un sujet de fond peut vivre très longtemps (plusieurs mois).

Internet et le traitement du sujet

Une fois que l’on a choisi le public cible, le sujet, l’angle et le type de contenu, il faut entrer dans l’opérationnel. Il faut commencer à écrire. Pour sécuriser l’opération qui commence, je recommande de choisir un mot-clé qui résume l’article que l’on s’apprête à écrire. Ce mot-clé ne doit être ni trop général (Hollande, politique, social, art), ni trop spécialisé (sauf si l’on tient un blog d’hyper-spécialiste). Il peut être un groupe de mots.

Par exemple, il peut s’agir de « déchéance de nationalité » (plutôt que « politique »), ou de « COP 21 » (plutôt qu’écologie), ou de « conflit syrien » (plutôt que « géopolitique »). Ce mot-clé va dominer l’ensemble de la rédaction de l’article. L’auteur doit avoir à l’esprit que tout écart de rédaction par rapport à ce mot-clé le condamne à perdre de l’influence.

Internet et la saturation du mot-clé

Pour sécuriser sa rédaction, l’auteur doit s’astreindre à une seule discipline: saturer son article avec le mot-clé qu’il a choisi. La saturation suppose plusieurs actions très contraignantes. D’abord, elle impose d’utiliser le mot-clé dans le titre, si possible en début de titre. Ensuite, elle impose de l’utiliser dans la première phrase de l’article. Enfin, elle impose de l’utiliser plusieurs fois dans l’article.

Parfois, il est difficile de choisir un mot-clé original. Dans le présent texte, par exemple, le mot-clé est « Internet », ce qui est beaucoup trop général. Je choisis donc de compenser cette généralité en utilisant systématiquement « Internet » dans chacun des titres (H2) que j’utilise. De cette manière, je suis sûr que son référencement sera amélioré.

Internet et la structure de pensée

La ruse qui consiste à utiliser son mot-clé dans un grand nombre d’intertitres a une autre utilité: elle permet de normer et de clarifier la rédaction et la formulation de la pensée. Elle oblige à décomposer l’article en plusieurs chapitres, ce qui facilite le travail du lecteur et oblige le rédacteur à bien borner les moments de son raisonnement.

D’une manière générale, je recommande d’utiliser au moins trois intertitres dans un article pour soulager le lecteur d’un texte trop touffu. Mais il ne faut vraiment pas hésiter à faire plus si on le souhaite. Faire moins (voire ne pas faire du tout) peut dérouter le lecteur, et surtout ne contraint pas le rédacteur à bien poser les prémisses de son raisonnement.

Internet et la longueur des articles

Il n’existe pas de religion sur la longueur des articles. Pour ma part, j’ai beaucoup d’admiration pour les articles interminables du New York Times, mais je suis peut-être une exception.

La rumeur veut que Google n’aime pas référencer des articles de moins de 2.000 signes espaces compris, c’est-à-dire environ 300 mots. On prendra donc garde à ne pas descendre au-dessous de son volume.

La limite supérieure est plus fluctuante, et correspond souvent au rythme de pensée ou de réflexion de l’auteur. Pour ma part, je sais qu’au-delà de 5.000 signes les lecteurs commencent à peiner. Le bon blogueur pensera donc à épargner la fatigue de son lectorat en ne multipliant pas trop (contrairement à ce que je fais) les très longs articles fastidieux à lire.

Dans tous les cas, l’auteur doit souvent arbitrer entre être lu et se faire plaisir. Et sur ce point, chacun à s’mode, comme on dit dans le Nord.

Free, Uber et les nouvelles frontières technologiques

Quelles sont les frontières technologiques que les entreprises françaises doivent atteindre?

Comme le souligne l’excellent Guillaume Sarlat, la France s’est largement polarisée sur les frontières ouvertes par Uber et les plate-formes collaboratives. Nombreux sont les managers, spécialement dans les grands groupes, qui rêvent « d’ubériser » leur marché et de transformer, pour y arriver, l’entreprise qu’ils dirigent en une start-up qui repartirait d’une page blanche pour réinventer des produits.

Pour Guillaume Sarlat, l’enjeu des grandes entreprises serait moins de conquérir ce Graal que d’être capable, à l’instar de Free, d’injecter de l’innovation, créée ailleurs et le plus vite possible, dans les processus de production. Cette distinction entre le processus Uber et le processus Free illustre bien l’angoisse dont la France et ses grandes entreprises sont parcourues face à la distance qui les séparent des nouvelles frontières technologiques.

Uber, Free et la frontière technologique

De fait, Uber et Free incarnent bien deux distances très différentes face à la frontière technologique.

Uber a incontestablement modifié le visage traditionnel de la frontière technologique. Jusqu’ici, l’innovation technologique était matérielle. On inventait une locomotive à grande vitesse, un nouveau matériau, un nouvel avion, un nouveau processeur, un nouveau robot ménager. L’entreprise en déposait le brevet et pouvait l’exploiter comme elle l’entendait.

Avec Uber, l’innovation n’est plus matérielle mais immatérielle. Uber conçoit un nouveau marché, une nouvelle façon de vendre, et développe un code informatique qui est la seule réalité matérielle d’une innovation dont l’essence est d’être immatérielle. Les lignes de code de l’application Uber sont la seule trace du patrimoine immatérielle que l’entreprise disruptive crée pour bousculer son marché. Cette particularité souligne bien que la disruption se situe beaucoup moins, désormais, dans le produit lui-même que dans la conception du produit et dans la conception du marché qui permettra de l’exploiter.

Dans le secteur des télécommunications où a opéré Free, le processus de disruption fut, d’une certaine façon, du même ordre. Free a eu le pressentiment que les consommateurs étaient à la recherche d’une offre groupée entre la téléphonie classique, la téléphonie mobile, la télévision et Internet, si possible en low cost. Au lieu de segmenter les marchés, Free les a rassemblés et a cassé les prix, sans apporter de révolution technologique majeure.

De ce point de vue, la frontière technologique atteinte par Free est moins lointaine que celle atteinte par Uber. Si l’un et l’autre ont bien déconstruit la vision antérieure du marché pour imposer la leur, Uber a dégagé un patrimoine immatériel pour y parvenir, alors que Free a constitué un porte-feuille de clients sans pouvoir revendiquer une « appli » spécifique qui soit vraiment différenciante.

Les grandes entreprises et la frontière technologique

Pour les grandes entreprises, et tout spécialement en France, le défi de la disruption par le patrimoine immatériel est particulièrement lourd à relever.

Tout d’abord, des éléments de contexte s’y opposent, face auxquels une simple réponse nationale est complexe. Ni la France ni l’Europe n’ont, au premier chef, la maîtrise du Net ou la capacité à fabriquer le matériel nécessaire pour y accéder. La France ne fabrique ni téléphone portable ni ordinateur. L’Europe elle-même est absente ou quasi-absente de ces marchés. Cet obstacle n’empêche pas de créer des plate-formes collaboratives innovantes. En revanche, il rend forcément dépendant des grands magasins d’application que sont Apple ou Androïd. En soi, cette dépendance illustre les freins que l’ubérisation de nos grands groupes peut rencontrer.

Mais ce sont surtout les effets de taille et de maturité interne qui constituent le premier empêchement à l’atteinte des nouvelles frontières technologiques par les grands groupes européens. Tous les managers le savent: la culture dominante dans leur entreprise est tout sauf ubérisable. Même lorsque la chaîne hiérarchique se donne l’illusion d’avoir acquis la culture de la start-up, les temps de coordination et de décision internes sont tels que le grand groupe doit forcément surmonter d’importants handicaps pour accéder au nouveau marché.

Dans ces effets de taille, la réinvention de l’informatique existante (avec tout son vocabulaire qui en illustre la difficulté, comme l’urbanisation ou la refactorisation des codes) constitue probablement le nerf sur lequel bute toute tentative raisonnable d’ubérisation. Même avec la meilleure volonté du monde (qui n’est pas une donnée brute des services informatiques), la « start-upisation » de la grande entreprise se heurte à des problèmes effrayants de transformation de l’existant. Dans ce domaine, c’est un véritable palimpseste qu’il faut prendre le temps d’écrire, et ce temps peut devenir colossal.

Pour toutes ces raisons, l’imitation de Free semble un objectif plus utile et plus raisonnable que l’imitation d’Uber pour une grande entreprise. La reformulation d’une offre commerciale à partir d’innovations achetées ailleurs est plus réaliste que la réinvention des produits et des marchés eux-mêmes. Qui plus est, cette stratégie permet de défendre intelligemment son porte-feuille plutôt que de se livrer à un périlleux changement brutal d’identité.

Renoncer à atteindre la frontière technologique?

Faut-il pour autant que nos grandes entreprises se résolvent à ce challenge de « second niveau » qui serait la « freesation » plutôt que l’ubérisation?

Cette extrapolation constituerait une incompréhension malheureuse du sujet, car on imagine mal l’économie française se satisfaire durablement de cette posture de second rang consistant à renoncer, pour ses mastodontes historiques, à atteindre le meilleur à cause de simples raisons d’empêchement de structure. En revanche, il est évident que l’accès aux frontières technologiques contemporaines, celles d’un patrimoine immatériel disruptif, suppose pour les grands groupes des stratégies de contournement.

Dans la pratique, il est acquis qu’un grand groupe peut difficilement réingénierer à la fois son marché et son propre fonctionnement. Il est donc contraint d’utiliser des facteurs et des acteurs externes à sa propre structure pour évoluer. Cette contrainte explique pourquoi les grands groupes adorent créer une direction de l’innovation dont la mission est d’investir dans des start-up.

C’est particulièrement vrai en France où la start-up devient rapidement la direction recherche et innovation de la grande entreprise. Pour ce faire, elle possède de nombreux atouts. D’abord, elle permet d’externaliser de nombreux coûts. Ensuite, elle est rapide, agile et beaucoup plus innovante que ne le sera jamais une direction en propre de l’entreprise. Enfin, elle offre la perspective de dégager une forte rentabilité en cas de succès.

Freesation interne et ubérisation externe

Tel est l’étrange attelage qui dominera probablement la relation complexe de nos grands groupes avec l’innovation dans les années à venir. D’un côté, des partenariats externes avec des start-up innovantes permettront de développer un patrimoine immatériel disruptif. D’un autre côté, une stratégie d’innovation visera à incrémenter dans l’entreprise et ses processus les innovations développées « in vitro ».

Ce modèle mérite deux réflexions majeures qui feront les politiques industrielles de demain.

Première réflexion: des start-up européennes seront-elles capables, demain, d’imposer leur loi « mondiale » comme l’a fait Uber? Rien ne l’exclut par principe, mais l’accès au capital rend l’exercice très compliqué. Faute d’un marché capitalistique liquide, et compte tenu des stratégies de prédation menées par les grands groupes détenteurs du capital en Europe, et singulièrement en France (l’exemple de Dailymotion l’a montré), la probabilité de transformer une start-up en tycoon est de plus en plus faible. Sur ce point, une stratégie industrielle facilitant l’accès au capital dans la durée serait bienvenue.

Deuxième réflexion: si l’on admet l’hypothèse que la « transformation de l’essai » a vocation à se raréfier, il est utile de penser à une amélioration de la valorisation de start-up en cas de cession à un acquéreur. Sur ce point, c’est une véritable réflexion fiscale qu’il faut entamer pour éviter qu’une partie de la valeur ne soit confisquée par la collectivité, alors que le start-uper a pris les risques, les a assumés et les a dépassés pour fonder un patrimoine immatériel qu’il n’a pas forcément les moyens de développer face à la concurrence des « rentiers ».

 

Economie collaborative: faut-il la réglementer?

Dans la foulée du rapport Terrasse, c’est le principe même d’une réglementation sur l’économie collaborative qui se pose. La question est centrale pour l’avenir du pays: la France doit-elle multiplier les textes réglementaires pour encadrer le secteur naissant du Net, ou bien doit-elle le laisser prospérer avant de l’encadrer?

L’économie collaborative et ses mythes

À l’occasion du conflit des taxis, un mythe s’est répandu comme une traînée de poudre: les plateformes collaboratives pratiqueraient une concurrence déloyale par rapport à l’économie classique.

Pour nourrir ce fantasme grotesque, tous les éléments de la manipulation ont été mobilisés. Le premier a consisté à désigner la plateforme Uber comme le symbole de tous les ennemis à combattre: ces horribles multinationales américaines qui viennent jusque dans nos bras prendre à la gorge nos braves petits artisans chauffeurs de taxi sans défense. Cette diabolisation permet de projeter l’image très dangereuse selon laquelle la France, c’est l’artisanat, et la technologie, ce sont les Etats-Unis.

Dans la foulée de cette vision manichéenne, un autre fantasme s’est imposé, qui repose sur l’idée totalement paradoxale selon laquelle l’économie collaborative, c’est l’individualisme néo-libéral qui refuse de cotiser à la sécurité sociale et donc de financer solidarité, alors que l’économie réglementée serait pour sa part respectueuse des grandes valeurs humanistes dont se pare l’économie traditionnelle.

L’économie collaborative et la concurrence déloyale

Sur le premier mythe, celui de la concurrence déloyale, il faut tout de même remettre les pendules à l’heure.

Premier point: la première concurrence déloyale est exercée par ceux qui s’abritent derrière une réglementation monopolistique pour empêcher les nouveaux d’arriver. Exemple: la profession de chauffeur de taxi est réglementée et contingentée. Autrement dit, pour acquérir le droit de transporter des personnes en « maraude », il faut acheter une licence à des prix parfois prohibitifs. Ceux qui n’ont pas de licence n’ont pas le droit de s’arrêter dans la rue pour une charger une personne qui le demande, et de lui demander un prix en échange de ce service.

Deuxième point: les réglementations imposées aux professions sont voulues par les acteurs mûrs sur le marché pour empêcher tout nouvel acteur d’y entrer. Les services de l’Etat sont là pour veiller au grain et favoriser les rentiers au détriment des challengers. Le cas des plate-formes collaboratives dans le secteur financier en donnent la preuve. Les banques obtiennent de Bercy des corsets réglementaires qui limitent la concurrence des nouveaux acteurs.

« il est nécessaire de prendre des précautions par rapport à l’émergence de ces nouveaux acteurs. Le développement des fintech représente un challenge pour la réglementation. Il engendre un changement de paradigme car la réglementation financière a jusqu’à présent été bâtie autour des acteurs existants »,

a prévenu Corso Bavagnoli, chef du service du financement de l’économie à la direction générale du Trésor

Résultat: faire croire que ce sont les nouveaux acteurs qui exercent une concurrence déloyale est affligeant. La réalité est bien que ce sont les acteurs présents sur le marché qui utilisent leur pouvoir et leur influence auprès de l’Etat pour imposer des règles qui sont autant de concurrence déloyale contre les entreprises innovantes.

L’économie collaborative et la solidarité

Le mythe de la solidarité incarnée par les acteurs qui cotisent à la sécurité sociale contre les plateformes collaboratives qui ne cotisent pas est là encore un fantasme absolu qu’on ne saurait dénoncer avec trop de vigueur.

Comme le rappelle le rapport Terrasse, les acteurs de l’économie collaborative sont tous soumis à cotisation. Ils sont soient auto-entrepreneurs, soient sous statut d’indépendants. Toutes ces catégories relèvent du régime social des indépendants, dont les dysfonctionnements sont bien connus, mais prélèvent bel et bien des cotisations sur les produits encaissés.

Dans le conflit des taxis, les chauffeurs Uber ont été accusés de ne pas participer à l’effort de solidarité et de bénéficier d’une distorsion de charge. C’est évidemment faux, et les taxis ont habilement dissimulé l’exploitation scandaleuse à laquelle ils se livrent sur les chauffeurs salariés. Le coût de location d’une voiture pour un « salarié » est proche de 100 euros par jour, sans compter le carburant. Autrement dit, pour qu’un salarié commence à gagner sa vie dans le monde du taxi, il doit empocher au moins 120 euros par jour pour le propriétaire de la licence avant de commencer à se nourrir.

Pourquoi ces grands défenseurs de la solidarité et de la sécurité sociale n’expliquent-ils pas qu’être salarié dans le monde du taxi, c’est apporter 3.000 euros par mois de rente à un propriétaire, alors que, chez Uber, aucune de ces coûteuses intermédiations n’existe?

La France fâchée avec l’économie collaborative

Il ne s’agit pas, ici, de présenter Uber comme une panacée. Le modèle Uber a des défauts et, comme tout modèle, il mérite d’avoir des concurrents. Tout le sujet porte sur le symbolisme d’Uber. Uber ne résume pas l’économie collaborative, mais la diabolisation dont il fait l’objet permet de fâcher la France avec l’économie de demain, au nom d’une absurde défense des rentes.

Et la France mérite mieux que cette vision passéiste du monde et du rôle qu’elle y joue.

 

Le rapport Terrasse quand même mieux que s’il était pire

On pouvait craindre le pire du rapport Terrasse sur l’économie collaborative, et finalement, le pire n’est jamais sûr. Certes, il est truffé d’idées qui respirent la crainte de la rente face à l’innovation et s’en fait largement l’écho, mais il évite les propositions définitives que l’on met des années à combattre en vain.

Terrasse et la peur de la rente face à la nouvelle économie

Sans surprise, le rapport Terrasse explique qu’il faut imposer des règles là où il n’y a pas encore de norme. Par construction, un rapport officiel écrit à la demande d’un ministre par un député ne peut pas se permettre d’écrire quelque chose qui voudrait dire: voilà un sujet dont la représentation nationale ne devrait pas s’occuper. Le seul fait que le gouvernement passe une commande sur la question manifeste bien son intention profonde de légiférer tôt ou tard.

Sans surprise, les motifs de cette boulimie législative sont concentrés entre quelques mots magiques qui sont les mantras de l’élu contemporain. On prendra un exemple simple de ce sabir de la technostructure:

Les plateformes jouent un rôle prescripteur qu’il s’agit de réguler : fiabiliser le référencement des offres et sécuriser les systèmes de notation.

Il faut bien entendu « réguler » en « fiabilisant » et en « sécurisant ». Dans tous ces domaines, l’Etat qui a laissé faire le scandale du Mediator, qui laisse la SNCF dissimuler ses graves manquements à la sécurité, qui protège quelques grandes entreprises dans ses marchés publics, a fait la démonstration de son savoir-faire et peut donc légitimement intervenir.

Chacun aura bien compris la logique de cette intervention: face à l’émergence d’une nouvelle économie, les rentiers du système demandent des normes protectrices à l’Etat. Il s’agit, bien entendu, de « clarifier les obligations et les protections propres à chaque type d’offre ».  Il ne vient à l’idée de personne d’expliquer que l’économie collaborative a besoin d’être protégée contre les rentiers. Pour tout le monde, « les consommateurs doivent être informés des garanties dont ils ne bénéficient pas dans le cadre d’une relation de particulier à particulier », histoire de bien rappeler que les plateformes sont un danger contre lequel il faut se prémunir.

De ce point de vue, Terrasse n’échappe pas à la règle: il veut protéger ceux qui sont déjà sur le marché en restreignant l’accès de celui-ci à de nouveaux acteurs qui menacent les privilèges acquis.

Terrasse et la protection sociale: encore du « jardin à la française »

Sur le sujet très attendu de la protection sociale appliquée aux plateformes collaboratives, Terrasse a évité le pire, même si son rapport partait mal.

On n’a évidemment pas échappé à la ritournelle fondée sur des certitudes qui sont à la pensée ce que la roupie de sansonnet est au deutsche mark:

L’amélioration de la protection sociale des travailleurs de plateformes s’inscrit dans le cadre plus général de la convergence des régimes de sécurité sociale

N’imaginez donc pas, mes gaillards, que vous allez faire longtemps les malins. Votre destin est de payer, comme les salariés, pour un système qui avale votre argent comme Moloch-Baal avalait les enfants, pour ne recracher que des prestations de plus en plus low cost et indigentes.

Le rapport n’échappe pas à l’affirmation doctrinale du Politbureau:

Poursuivre la trajectoire de convergence entre la protection sociale des indépendants et celle des salariés.

Cette réaffirmation du mantra qui soutient, contre toutes les évidences, qu’après le désastre du RSI, tout ira mieux en préparant le désastre d’une fusion avec le régime général, était une sorte de passage obligé dans les références religieuses du gouvernement profond exercé par la technostructure. On imagine bien que Terrasse n’a pas reçu d’Emmanuel Macron le droit de sortir seul dans la rue. Il était flanqué de deux commissaires politiques chargés de lui rappeler la doctrine en vigueur.

On retrouve ici l’obsession du jardin à la française, c’est-à-dire de la réduction de la protection sociale à quelques structures publiques dont l’inefficacité est connue, mais qui donne l’illusion à la technostructure de « tenir le pays ».

En revanche, on remerciera Pascal Terrasse de ne pas avoir poussé plus loin l’avantage en proposant des mesures plus drastiques ou plus rapides.

Tout n’est pas perdu donc, pour ceux qui savent que la sécurité sociale constitue aujourd’hui le principal danger pour l’économie collaborative et que la seule façon de préserver la compétitivité de celle-ci consiste à maintenir l’obligation d’assurance, mais à instaurer la liberté de choix dans l’assureur.

Faut-il ubériser la filière porcine?

Tiens! revoilà la crise de la filière porcine et ses jacqueries que le gouvernement ne parvient pas à éteindre. Les mauvais esprits n’en sont pas surpris. Depuis plusieurs mois, la colère gronde faute de prix suffisants pour faire vivre les éleveurs.

La filière porcine et le dumping

Sur le fond, la crise du porc français est sans surprise. Les exploitations sont majoritairement trop petites par rapport à leurs concurrentes du nord de l’Europe. Les revenus tirés des ventes sont donc trop faibles pour que les éleveurs puissent en vivre. Qui plus est, la faible taille des exploitations ne permet pas de diminuer les coûts de production: pas assez de revenus, trop de charges, la vie de l’éleveur est un enfer.

À ces mauvaises conditions de production s’ajoute les petites astuces des concurrents allemands qui se la jouent Volkswagen. Un collectif de paysans français dépose même une plainte contre eux. Selon les plaignants, les producteurs allemands pratiquent une optimisation fiscale déloyale et une « fraude carrousel » à la TVA qui leur permet de casser les prix. Ces techniques contraires au droit communautaire sont dopées par le recours à des travailleurs détachés payés sous le salaire minimum.

Pour ceux qui imaginent que l’Union Européenne constitue un véritable marché commun fondé sur la concurrence libre et parfaite et une coopération loyale entre ses membres, la crise de la filière porcine constitue donc un superbe désaveu.

La filière porcine et l’intermédiation traditionnelle

L’un des maux majeurs de la filière viande en France tient au rôle des intermédiaires, et tout particulièrement des abatteurs comme Bigard, dont la faculté d’orienter les prix est très importante. Dans la pratique, la concentration des intermédiaires permet à ceux-ci d’être les vrais price-makers du marché. Ce sont eux qui imposent des prix d’achat à la baisse auprès des producteurs et qui sont capables d’affronter les distributeurs, et spécialement les grandes surfaces, pour préserver leurs marges.

À titre d’exemple, le seul Bigard pèse 40% de la viande bovine en France et forme le troisième acteur de l’industrie de la viande en Europe. Lorsque Bigard refuse d’entrer dans le système de cotation du porc en Bretagne, il dispose de la capacité à faire baisser les prix à lui seul. L’émiettement du producteur face à la concentration des abatteurs qui sont les intermédiaires obligés entre l’éleveur et le commerçant introduit un déséquilibre dans la chaîne des prix.

En situation de surproduction, comme c’est le cas aujourd’hui depuis l’embargo russe, l’abatteur dispose évidemment de la faculté de jouer sur la concurrence pour faire « plonger » les producteurs locaux. D’une certaine façon, la crise de la filière viande est largement liée au pouvoir des intermédiaires et à la dépendance des producteurs vis-à-vis d’eux.

L’ubérisation de la filière porcine

Le bon sens consisterait donc ici à réintermédier le marché à partir d’une plate-forme numérique donnant aux producteurs la possibilité d’écouler directement auprès des commerçants et des réseaux de distribution les porcs envoyés à l’abattage. Cette plate-forme devrait permettre de réaliser les transactions en ligne sans interférence des intermédiaires.

Il est assez dommage que les agriculteurs français, « plombés » par des syndicats officiels complètement dépassés par le programme, n’investissent pas dans des innovations disruptives de ce jour, car celles-ci leur offriraient des garanties sur leurs marges et leur redonneraient la main sur la fixation des prix.

L’une des grandes astuces propres aux plate-formes numériques porte en effet sur la fixation du prix: elle n’est plus déterminée dans le secret par le « commissaire-priseur », mais fait l’objet d’un arbitrage transparent qui permet au producteur d’anticiper le montant de la vente. De ce point de vue, la plate-forme agit comme un marché à terme qui garantit une recette au producteur.

Dommage que les syndicats agricoles français ne précèdent pas cette innovation qui tôt ou tard s’imposera d’elle-même.

Le revenu universel: petit essai de géographie politique

Les récents débats sur l’ubérisation, la numérisation et la protection sociale ont fait émerger clairement la question du revenu universel qui demeure, pour beaucoup de Français, une sorte de mystère coincé entre l’utopie et l’encouragement à la paresse. Cette énigme est accrue par l’hétérogénéité des conceptions en vigueur sur ce revenu: idée portée à la fois par certaines fractions de gauche et par certaines fractions de droite, le revenu universel déroute parce qu’il est à la fois marginal, dissident, et source d’affrontements parfois très violents entre ses partisans.

Pour en décoder le sens, une petite géographie politique du revenu universel s’impose.

Le revenu universel et les libertaires

Une première fraction des défenseurs du revenu universel appartient au monde libertaire et donc à l’extrême gauche. Ceux-là préconisent de déconnecter complètement le travail et le revenu, en considérant que l’homme doit assurer la mise en oeuvre du projet communiste final du « à chacun selon ses besoins », contre le trop capitaliste « à chacun selon son travail ». Dans ce cas de figure, le revenu universel repose sur une approche utopiste de la société où le travail ne serait plus une source d’aliénation, et où l’argent comme valeur d’échange tendrait à disparaître.

Le revenu universel et les libéraux de gauche

Une autre fraction « de gauche » développe une approche plus théorique du revenu universel, plus systémique et moins utopiste. Elle part de l’idée qu’une part importante de la richesse nationale est produite par des « externalités » qui doivent profiter à tous de façon égalitaire. C’est par exemple le cas lorsqu’une marque de luxe utilise la Tour Eiffel sur ses affiches publicitaires pour faciliter ses ventes dans le monde. Le rayonnement de ce bâtiment comme symbole du luxe français n’est pas lié aux investissements de la marque bénéficiaire, mais au patrimoine culturel collectif que chaque Français contribue à créer et à entretenir. Il paraît donc normal qu’une partie de la valeur créée par cette marque de luxe soit redistribuée à tous les Français.

Les économistes du revenu universel évalue la part de la richesse nationale due à ces externalités positives à environ 15% du PIB, soit 300 milliards à redistribuer à tous les Français, ce qui équivaut à un revenu d’environ 400 euros mensuels de la naissance à la mort.

Le revenu universel et les libéraux centristes

Un peu plus « libéraux » au sens strict, certains de ses défenseurs abordent la question à travers l’ubérisation et le statut du travailleur. Ceux-là constatent les imperfections de notre système de redistribution des richesses, encore très liés au contrat de travail à durée indéterminée. De fait, la voie royale pour entrer dans l’économie française reste encore aujourd’hui la détention d’un CDI, qui ouvre toutes les portes: accès à l’emprunt, aux droits sociaux les plus élevés, à une véritable sécurité statutaire. 

Constatant que la révolution numérique fragilise de plus en plus cet ordre social, avec l’émergence de nouvelles formes de travail et une vraie désaffection des jeunes générations vis-à-vis du CDI et de l’emploi à vie dans la même entreprise, les libéraux centristes proposent une évolution vers une sorte de statut du travailleur qui ouvrirait droit au versement d’une allocation mensuelle pour tous, avec des montants évolutifs selon l’âge.

Ce principe, qui ressemble furieusement au compte personnel d’activité promu par la CFDT (si ce n’est que, en l’état, ce compte n’ouvre pas droit à des allocations et est indexé sur les périodes de cotisation), est strictement encadré et s’ajoute aux prestations de sécurité sociale. Il repose sur une transformation des minima sociaux en revenu universel. Précisons que son coût reste encore assez mystérieux et ne règle en tout cas pas la question de la compétitivité du travail.

Le revenu universel et les libertariens

La frange la plus radicale des libéraux va plus loin en proposant le remplacement des prestations de sécurité sociale par le revenu universel. Dans ce cas de figure, l’idée majeure est relativement simple: dès lors qu’il existe une redistribution et une protection collective, celle-ci doit être universelle mais libre. Au lieu de lever des cotisations sociales sur les seuls salariés pour financer les prestations de protection sociale de l’ensemble des Français, il vaut mieux lever l’impôt et redistribuer une somme identique à chacun tout au long de la vie pour financer les choix individuels de protection sociale. 

Dans cette perspective, le revenu universel est indissociable d’une réforme en profondeur de la sécurité sociale telle que nous la connaissons. Il propose de préserver l’obligation de s’assurer, tout en ouvrant à chacun la liberté de choisir son assureur, comme cela existe déjà pour l’automobile. 

Cette conception-là du revenu universel est à la fois la plus simple et la plus compliquée à mettre en oeuvre. 

La plus simple parce que techniquement, elle consiste simplement à fiscaliser les cotisations et à autoriser les Français à ne plus s’affilier obligatoirement au régime général. Elle donnera un superbe coup de fouet à la compétitivité de nos entreprises et supprimerait de nombreuses couches technocratiques. 

La plus compliquée parce qu’elle est la plus structurante et la plus bouleversante pour les habitudes acquises.

Le gouvernement à reculons sur l’open data

L’âge de l’open data n’est pas encore arrivé en France. En lisant la prochaine loi très pompeusement (et injustement) affichée « pour une République numérique », ceux qui attendent avec impatience l’ouverture des données publiques ne manqueront pas d’être déçus. Cette loi longue et compliquée ne pose pas les principes d’une République numérique (avec quelques idées simples et faciles à respecter ou à comprendre), mais apparaît plutôt comme un fourre-tout où la ministre Lemaire a tenté de tirer au maximum toutes les marges que lui laissaient les administrations dans le développement du numérique.

L’open data par exception

Le principal inconvénient de la loi est de ne pas modifier la rédaction de l’ahurissant article L 312-1 du mystérieux Code des relations entre le public et l’administration (CRPA), qui pose une règle dont on ne se lasse pas:

Les administrations « peuvent rendre publics les documents administratifs qu’elles produisent ou reçoivent. »

Alors que le droit communautaire pose le principe simple d’une libre réutilisation gratuite de toutes les données publiques sauf exception, le droit français pose une règle inverse: l’administration dispose toujours de la faculté de ne pas communiquer ses données. C’est évidemment une conception très décalée de la « République numérique » où les fonctionnaires sont libres de communiquer ou non les données dont ils sont détenteurs. Le droit administratif appelle cette faculté le pouvoir discrétionnaire de l’administration.

Vers un open data élargi?

On aurait pu imaginer que la loi sur la « République numérique » balaie ces restrictions d’un autre âge et proclame un principe général de transparence, avec des exceptions listées. Le bon sens voulait que le gouvernement mît fin au pouvoir discrétionnaire sur la communication des données publiques. Malheureusement, il n’en est rien, et la France devra continuer à faire avec cette limitation exorbitante au droit communautaire.

La loi se contente en effet de lister les documents qui doivent à l’avenir faire l’objet d’une communication de droit:

1° Les documents qu’elles communiquent en application des procédures prévues par le présent titre, ainsi que leurs mises à jour ;

« 2° L’ensemble des documents qui figurent dans le répertoire mentionné à l’article 17 de la loi n° 78-753 du 17 juillet 1978 portant diverses mesures d’amélioration des relations entre l’administration et le public et diverses dispositions d’ordre administratif, social et fiscal ;

« 3° Les bases de données qu’elles produisent ou qu’elles reçoivent et qui ne font pas l’objet d’une diffusion publique par ailleurs, ainsi que le contenu de ces bases ;

« 4° Les données dont l’administration, qui les détient, estime que leur publication présente un intérêt économique, social ou environnemental.

Cette énumération constitue donc un solide frein au principe de l’open data, même si la loi précise que la communication doit se faire selon des standards aisément réutilisables. C’est mieux que rien, mais la France, à l’issue de cette loi, restera loin de l’open data en tant que tel.

L’open data et le fichage public

Dans le même temps où les administrations préservent leur pré carré, la loi instaure un étonnant principe: elle élargit aux administrations le droit d’accès aux documents administratifs. Autrement dit, le droit réservé aujourd’hui au public d’avoir à des documents administratifs sera élargi… aux autres administrations.

La communication des données publiques d’une administration à l’autre sera obligatoire. En principe, la communication devra répondre aux prescriptions en matière d’anonymat, mais on voit bien que, sous couvert d’instaurer un open data, c’est à une interopérabilité entre fichiers numériques que le gouvernement ouvre la voie.

Le Conseil d’Etat, dans l’avis qu’il a rendu sur le sujet, n’a d’ailleurs pas manqué de souligner les risques liés à cette idée en termes de libertés publiques:

le Conseil d’Etat rappelle que l’obligation ainsi créée de transmission de telles informations entre administrations doit s’exercer dans le respect des prescriptions de la loi n° 78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés lorsque les données en cause présentent un caractère personnel. En particulier, et alors même que le traitement de ces 4 données a fait l’objet des déclarations ou autorisations requises par cette loi à l’initiative de l’administration d’origine, l’administration bénéficiaire doit, si nécessaire, procéder à de telles formalités afin de rendre effectives, à son niveau, les garanties consacrées par cette loi en matière, notamment, de finalité du traitement et de droit d’accès et de rectification. Par suite, le Conseil d’Etat a estimé nécessaire d’ajouter une mention renvoyant aux obligations résultant de la loi du 6 janvier 1978 précitée.

L’open data face à la stratégie publique de ralentissement

La loi qui sera prochainement débattue à l’Assemblée Nationale devrait donc amener son lot d’insatisfactions et de retards. On le regrettera. Manuel Valls, lorsqu’il était ministre de l’Intérieur, avait évoqué une police 3.0 à l’horizon de 2020. Il est acquis qu’à l’horizon de 2016, la France ne sera toujours pas dotée d’une administration 2.0 digne de ce nom.

Et pendant ce temps, le pays prend du retard dans l’économie de la donnée.