jeudi 6 septembre 2018

Principe de précaution : ce qui tue l'innovation et l'économie (et ce qui pourrait l'améliorer)



« La vitesse tue ».
Ce slogan répété à l'envie depuis des années par les pouvoirs publics et les associations de lutte contre la violence routière devient désormais inaudible de la même manière que les autorités soviétiques scandaient des aphorismes marxistes au crépuscule d'un régime soucieux de se rassurer sur lui même. La raison de cette surdite sélective par les principales cibles de cette assertion (non scientifique faut-il le préciser [1] ) repose sur un double constat.

Le premier : la lutte contre l'insécurité routière est monomaniaque. La vitesse semble obséder autrement plus les autorités que tout autre facteur tels que l'alcool, la prise de stupéfiants, la dégradation des infrastructures, la somnolence etc.
Le second : la disproportion dans le déploiement des moyens par rapport à d'autres faits de délinquance ou de criminalité abordés quant à eux sous un angle bien plus laxiste.

Par dessus tout, il faut remonter à l'origine. Non pas des limitations de vitesse puisque, pour rappel, elles ne furent pas érigées pour des raisons de sécurité mais de... diminution de la consommation énergétique suite à la crise pétrolière de 1973, mais ce qui a incité à l'ériger en grande cause nationale mobilisant toute l'attention de l'éxecutif.

L'origine, donc, remonte au milieu des années 1990 concomittament au principe de précaution.

Le site gouvernemental Vie Publique nous en offre une définition limpide :
Principe selon lequel l’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque dans les domaines de l’environnement, de la santé ou de l’alimentation. 
Le texte provient de la loi Barnier de 1995 relatif à la défense de l'environnement mais les bases demeureront pour la suite et s'étendront au fil du temps au-delà du champ d'application d'origine.
Le même site explicite que l'administration est tenue de respecter ce principe désormais à valeur constitutionnelle depuis 2005 [2].

De ces écrits débuta une évolution concomitante à double effet : l'extension de l'impact environnemental vers celui de la sécurité au sens global ; le choc frontal avec les politiques d'innovation.

L'objectif dès lors pour les États fut de limiter toute démarche revendicative à leur encontre par des intérêts privés, d'autant que la Cour de Justice de l'Union Européenne n'hésitait en rien à condamner des États, rappelant que le principe de précaution est aussi inscrit dans la constitution européenne [3]. Le second effet - plus pernicieux bien que louable au départ - fut le renforcement de contrôles sur le fondement de préoccupations environnementales puis sécuritaires. En effet, le principe de précaution imposait dès lors une inflation de normes, d'assurances voire de certifications dont leur défaut était susceptible d'entraîner l'action de la justice administrative ou pénale à l'encontre des entités réfractaires, négligées ou infortunées. Son excès aboutit rapidement à une sclérose des esprits et un enlisement de nombreux projets.
D'autant plus regrettable car à l'origine le principe partait de la volonté d'éviter toute dégradation de l'environnement (visant plus exactement la préservation, la protection et l'amélioration de la qualité de l'environnement) a fortiori lorsque l'Union Européenne mentionnait la nécessité de prendre en considération des données scientifiques et techniques disponibles au moment de la prise de décision.

L'on mesure par conséquent quel drame se joua pour l'innovation qui fonctionnant soit par déduction soit par induction ne pouvait expérimenter à plein régime par l'enchevêtrement des textes réglementaires et la menace de poursuites devant les tribunaux. Castrateur, ce principe allait pénaliser la recherche et l'économie de nombreux États européens puisqu'il reposait sur une action préventive malgré la possibilité de recueillir l'avis d'experts sur telle thématique sensible. Or prenant prétexte que les conclusions scientifiques pouvaient parfois comporter des incertitudes et des impondérables, les autorités préférèrent légiférer de sorte à s'éviter de coûteuses poursuites. Le refus du tragique par une Europe fatiguée de sa propre Histoire accoucha d'une émasculation de son génie créateur, car le progrès technologique est parfois cruel voire ironique (lorsqu'en solutionnant une problématique il en créé une autre) mais au final, l'Homme apprend de ses erreurs. Les premiers hominidés durent certainement se brûler nombre de fois en tentant de maîtriser des branches enflammées par la foudre ou en manipulant le feu attisé par leurs propres moyens mais au final, quelle révolution! 

Comme indiqué précédemment, le principe de précaution fut étendu à d'autres secteurs. Dont celui relatif à la sécurité routière. Il fallait pour cela partir d'un postulat arbitraire - que la vitesse en tant que facteur causal tue - afin de prendre toutes les mesures nécessaires pour la sauvegarde de vies humaines. Cette politique fut facilitée par ce même article 191 du Traité sur le Fonctionnement de l'Union Européenne, lequel disposait en effet que la protection de la santé des personnes était un objectif justifiant le principe précité.

L'aubaine fut vite saisie par des responsables politiques à la tête d'un État impécunieux afin de mettre en place tout un système de contrôle automatisé visant à contraindre à une baisse de la limitation de vitesse des véhicules motorisés sur cette base : ainsi l'État prouvait qu'il entendait préserver la vie de ses administrés tout en s'exonérant de toute attrait pour le gain en dépit de la lucrative récolte des amendes dont le nombre s'amplifia sans commune mesure avec les méthodes passées.
Cyniquement, il n'y avait par conséquent pas d'extorsion, juste une prévention pédagogique dûment facturée.
Or, à la différence de l'alcool et de la pollution atmosphérique, l'implication de la vitesse comme facteur causal de décès n'est pas démontrée et cette absence de démonstration laisse amplement le champ libre au principe de précaution. Et ce quand bien même le relèvement dans certains pays de la limitation de vitesse aboutit aussi au même constat d'une baisse du nombre de décès sur les routes que sa mesure contraire.
Sournoisement, ce principe de précaution servit même à certains élus pour imposer localement des vitesses très abaissées en raison du non entretien des infrastructures.

Axé sur le seul facteur de la vitesse, le principe de précaution adouba dans les années 2000 la pose sur les axes routiers d'automates toujours plus élaborés et implacables : écologie et sécurité devenaient les deux glaives tranchants du principe de précaution.

Mais alors : pourquoi les conducteurs de véhicules motorisés, pourtant avertis de ces contrôles cinémométriques, persistent-ils dans leur erreur?

En raison du concept psychologique de vitesse naturelle basé sur l'amélioration technique tant des produits roulants que des infrastructures. C'est un ingénieur urbaniste américain,Tom Sohrweide, qui a exposé le concept : plutôt que d'imposer arbitrairement une vitesse, il convient de procéder à un relevé de la vitesse des passages sur un axe précis et de l'adapter à la conduite des individus sachant que ceux-ci se calent de toute manière sur une vitesse optimale (comme c'est le cas en Allemagne sur des axes où l'absence de limite ne provoque pas de comportements extrêmes en raison d'une surveillance d'autres facteurs).

La vitesse naturelle c'est celle que tout conducteur choisit en s'adaptant à la fois à son environnement comme aux dispositifs de sa monture mécanique. Le conducteur adapte sa vitesse de déplacement en tenant compte des infrastructures routières assurant une relative (et jamais absolue malheureusement) sécurité aux usagers comme de la sécurité active et passive de son propre véhicule (ABS, ESP, limitateur, capteurs de collision etc.).
Il est en effet assez curieux de constater que des solutions techniques implémentées sur les véhicules contemporains depuis les années 1990 et renforcées ultérieurement par une obligation d'intégration au niveau législatif national et européen (confortant par là même la justesse du procédé) aboutissent pour les autorités à imposer un abaissement de la vitesse sur des axes de circulation. Surtout lorsque le contrôle technique est devenu obligatoire et pointilleux. Doit-on en conclure par l'absurde que plus il est sécurisé - renchérissant les coûts d'achat et d'entretien au passage - plus le véhicule doit être bridé dans son déplacement? Cette logique est incompréhensible, sauf à admettre qu'il existe une base opportune - le principe de précaution - couplé à un besoin - les rentrées fiscales.

À ce concept de vitesse naturelle doit être adjoint celui de vitesse excessive qui désigne la rapidité d'un déplacement inadapté au regard du lieu et des moyens. Lequel diffère de l'excès de vitesse qui sanctionne un dépassement de limite fixé arbitrairement. La sanction arbitraire qui prévaut en matière de politique publique, avec le renfort de nouvelles technologies de détection et de mesures, privilégie bien évidemment l'excès de vitesse détouré de toute considération contextuelle.

Si l'on ne peut affirmer que la vitesse tue, en revanche l'on peut certifier qu'elle rémunère l'État sur la base d'un paradigme injustifié et décrié massivement.

De là, le principe de précaution est attentatoire tant à l'innovation et à l'économie puisque toute recherche est dangereuse par nature et que la vitesse favorise les échanges économiques.

[1] Bertrand Lemennicier, Les Mythes de l'insécurité routière, éditions Le libre échange, 2016.
[3] Le concept de principe de précaution a été énoncé pour la première fois dans une communication de la Commission européenne adoptée en février 2000, qui définit ce principe et envisage la façon dont il peut être appliqué.
Le principe de précaution est présenté en détail à l'article 191 du traité sur le fonctionnement de l'Union européenne. Il est énoncé dans le cadre d'une approche de la gestion des risques qui prévoit que, si une politique ou une mesure particulière risque de provoquer un dommage public ou environnemental et qu'aucun consensus scientifique ne se dégage sur la question, cette politique ou mesure doit être abandonnée. Si de nouvelles données scientifiques sont mises à disposition, la situation doit faire l'objet d'un réexamen.
Le principe de précaution ne peut être invoqué que dans le cas de risque potentiel et ne peut en aucun cas justifier des décisions arbitraires.

Le texte original de l'article 191 du Traité sur le Fonctionnement de l'Union Européenne :
La politique de l'Union dans le domaine de l'environnement vise un niveau de protection élevé, en tenant compte de la diversité des situations dans les différentes régions de l'Union. Elle est fondée sur les principes de précaution et d'action préventive, sur le principe de la correction, par priorité à la source, des atteintes à l'environnement et sur le principe du pollueur-payeur.
Dans ce contexte, les mesures d'harmonisation répondant aux exigences en matière de protection de l'environnement comportent, dans les cas appropriés, une clause de sauvegarde autorisant les États membres à prendre, pour des motifs environnementaux non économiques, des mesures provisoires soumises à une procédure de contrôle de l'Union.

vendredi 31 août 2018

Kung Fury : condensé cinématographique du meilleur et du pire des années 1980

Afin de clore la période estivale sur une touche légère, je souhaiterais vous faire partager une découverte, une pépite issue directement de la geek culture.

Tout est parti d'une campagne de financement participatif en 2013 [1] initiée par le suédois David Sandberg à la tête d'une société de production nommée Laser Unicorns : une entité flairant bon les références à l'époque des années 1980 où le laser disc était perçu comme la prochaine révolution informatique et où la licorne était un animal chronique dans les séries, films et dessins animés. 

Les 200 000 $ nécessaires pour l'achèvement de la production furent largement dépassés puisque 630 019 $ furent récoltés au terme de la levée de fonds, permettant de la sorte d'améliorer les effets spéciaux et l'ambiance sonore. Deux ans plus tard, le métrage était bouclé et diffusé (avec une sortie sur support physique Blu-Ray), David Sandberg respectant ses engagements au contraire d'autres porteurs de projet peu scrupuleux ou incapables.

Pour le reste et pour le plaisir des aficionados, un maximum de clichés cinématographiques des années 1980 furent insérés dans ce court métrage d'une demi-heure. La musique synthwave enrobant le tout d'un charme suranné dont on ne se lasse pas.

Salle d'arcade, ghetto blaster, bolide aux formes anguleuses, dinosaures, figures de karaté, panorama floridien, accessoire Nintendo etc. Tout y passe pour un défilé kaléidoscopique où la figure principale est campée par David Sandberg lui même où l'on peut y reconnaître une fusion de Van Damme (Bloodsport) et de Ralph Macchio (Karaté Kid). 

Il ne faut aucunement chercher une logique dans le fil scénaristique, juste savourer l'hommage à toute une période riche en créativité dans nombre de domaines, avec des fortunes aussi diverses que la qualité hautement fluctuante des productions d'époque. De tout ce fatras sortira des perles indémodables : Retour vers le futur ; Blade Runner ; Terminator ; Les Goonies ; Commando ; E.T. l'extra-terrestre ; Mission ; Bloodsport ; Indiana Jones : les aventuriers de l'arche perdue ; Platoon ; Scarface ; Les Blues Brothers ; Aliens ; Out of Africa ; Karaté Kid ; Ghostbusters ; Ran et tant d'autres...

Bon retour vers le futur, et plus précisément à Miami, en 1985.



À la suite de cette vidéo, je vous invite à vous rendre sur le site de la chaîne franco-allemande ARTE afin de prendre connaissance d'une excellente analyse consacrée aux sources et références à Kung Fury. Vous y dénicherez nombre d'éléments qui auraient pu échapper à votre sagacité.

Juste un élément complémentaire au ton assez ironique : depuis mai 2018, une série américaine nommé Cobra Kai (une fois encore, le cobra animal fétiche du héros de Kung Fury) reprend l'intrigue de Karaté Kid avec les mêmes acteurs... 34 ans après les évènements. Et le plus fascinant, c'est que la sauce prend. Revoir de préférence le film originel pour mieux apprécier cette mini-série.



jeudi 9 août 2018

Transports, identités, territoires



Cet ensemble triangulaire puise sa source dans une approche systémique des forces dynamiques animant la société contemporaine.

Les transports ont été depuis l’invention de la roue [1] un moyen de contrôle des territoires par l’État désirant exercer ses prérogatives sur ceux-ci. Les infrastructures ont été notamment développées afin de permettre certes la croissance du commerce mais aussi – et surtout – le déploiement rapide en tous axes de colonnes de soldats : cela était, est et restera la norme pour toute puissance entendant tenir son espace sous contrôle [2].

Il en va de toute civilisation d’accroître le maillage des transports et le maintenir à un niveau suffisant. Sa bonne santé culturelle, économique, sociale, politique, militaire, religieuse, scientifique etc. en dépend. Ce maillage peut être suppléé le cas échéant par des fournisseurs de ressources locales publics et/ou privés. Par extension, l'exploitation du territoire au profit du groupe résident ne peut s'effectuer sans un réseau de transports efficient pour acheminer, transformer et consommer les ressources extraites ou produites.

Le rapport entre identité et territoire est lié par le fait qu'une culture naît en un endroit donné, il n'y a pas d'identité hors sol. L'enrichissement provient quant à lui des échanges permis par le réseau de transports, qu'il soit terrestre, maritime, aérien ou numérique.

L'identité n'est pas un ensemble monolithique ni intangible : c'est une configuration mouvante à travers l'espace et le temps. À l'instar de l'arbre : plus ses racines ont le temps d'être profondes, plus le tronc est vigoureux et les branches multiples.

En outre, c'est une lutte permanente puisque sur le territoire où l'identité s'enracine les forces centripètes s’exercent à la mesure de la présence et l'effectivité des moyens de circulation tenus par la communauté culturelle principale. Une défaillance prolongée, pouvant aboutir à leur retrait, engendre un renforcement des forces centrifuges. Car si ce phénomène - celui de recul ou de disparition des voies de communication - perdure sur un pan du territoire, il exerce sur le long terme une conséquence particulière : il créé une nouvelle identité territoriale ou en ravive une ancienne autrefois supplantée par l'identité dominante.

En effet, dès lors qu’un maillage n’est plus entrenu ou abandonné, le réseau se redéfinit autour d’un ou de plusieurs espaces délimités par des facteurs culturels communs de reconnaissance communautaire, lesquelles communautés doivent disposer d'un réseau de communication adapté à la nouvelle situation de recomposition territoriale. Ainsi, le sentiment d'abandon d'une partie du territoire peut consacrer l'émergence de nouveaux réseaux et partant de là, de nouvelles identités. C'est une reconfiguration qui peut prendre un temps plus ou moins long - avec un passage par une phase d'anarchie - mais qui se définit par la délimitation d'un territoire et d'une communauté partageant un socle de valeurs communes, dont l'opposition à un pouvoir central négligent ou arbitraire à son égard.

Dans ce schéma, tout recul des transports sur un territoire donné provoque l'anomie de la zone touchée, laquelle par extension renforce son autonomie en reconfigurant son propre réseau. Il y a d'ailleurs une réalité dynamique : plus le réseau est centralisé, plus sa gestion et son entretien est rationalisé mais plus conséquent est son coût d'extension et plus réduite est sa capacité de résilience, tandis que la décentralisation du réseau engendre souplesse et réactivité mais hausse du coût des interconnexions et risque de doublon.

Bien évidemment ce réseau de transports peut se connecter à des territoires tiers, cependant la priorité est toujours accordée au développement territorial interne à l’externe. Et ce en toute logique puisqu’il s’agit initialement de se prémunir de toute agression extérieure puis en un second temps, dès que la communauté est enfin rassurée sur sa sécurité, développer les échanges culturels et économiques entre les groupements de membres disséminés sur le territoire sous contrôle. Aucun échange viable (informations) et rentable (commerce de biens) ne peut s'opérer sur un territoire si les voies de communication - matérielles comme immatérielles - ne sont pas sécurisées.

Lorsque le développement d'une communauté sur la maîtrise de son territoire est parvenu à un stade avancé de maturité, elle peut étendre un principe d'extra-territorialité par l'extension de son réseau de transport, notamment lors de l’ouverture de connexions de flux (avec contrepartie sous forme financière voire remise d’un autre produit ou d’un service s’il s’agit de troc) suivie d’une influence plus ou moins conséquente selon l’importance des échanges et du type de ceux-ci (en d’autres termes, il faut raisonner en quantité et qualité). L’activité du réseau diplomatique peut être mise à contribution, de façon plus ou moins prononcée, avec l’appui d’autres services d’État comme les affaires militaires : l’extra-territorialité est un mélange de soft et de hard power [3]. Toutefois, pour que l’influence en terme d’extra-territorialité puisse porter ses fruits, ces réseaux doivent être inscrits dans une stratégie d’influence où la force soutient le bras du commerce et/ou de la justice [4].

Dans les années 1990, la mise en chantier des réseaux de communication, ce que le vice-président américain Al Gore nommait en 1996 les autoroutes de l’information, a garanti aux États-Unis leur domination technologique - et commerciale - dans les années 2000 puis 2010. L’émergence des GAFA (Google Amazon Facebook Apple) puis des NATU (Netflix AirBnB Twitter Uber) dans le sillage d’IBM et de Microsoft a pérennisé la supériorité américaine au reste du monde sans contestation aucune, avec des conséquences substantielles comme le révéla l’ancien espion de la NSA Edward Snowden [5].  Par ce biais, c’est une projection des idéaux civilisationnels et leurs schémas de pensée qui se sont imposés dans les esprits, soit de la population soit de ses élites selon la structure : lorsque l’on supervise le contenant, il est plus simple d’en maîtriser le contenu [6].

Un monde toujours plus connecté n’est pas un monde toujours plus pacifique : il accroit surtout la dépendance à des produits et services et place des pays autrefois isolés à portée d’appétits nouveaux. Ce fut par exemple le cas du Japon qui avait adopté une position d’isolationnisme - le Sakoku – entre 1641 et 1853 : son ouverture forcée (par la canonnière du commodore Perry) aboutit au réveil d’appétits expansionnistes. L’exemple du Japon est aussi symptomatique, et relativement rare, d’un pays forcé de s’ouvrir au commerce international en l’obligeant initialement à importer des produits étrangers mais sachant retourner la situation de sujétion à son avantage. Car les autorités de l’archipel nippon réussirent ultérieurement à tirer parti des échanges commerciaux imposés puis assimiler les codes du système international tout en développant la formation des cadres du pays pour en faire un outil de domination à leur tour. C’est un schéma que la Chine du XXIème siècle semble reproduire avec succès puisque devenue le premier créancier des États-Unis.

Pour les réseaux d’approvisionnement de ressources minières, l’influence externe du pays exportateur doit là encore dépendre d’une stratégie d’influence sous deux formes : soit directement, c’est à dire par la contrainte d’une cessation de fourniture d’un produit essentiel à l’activité économique, énergétique ou militaire du pays importateur (gaz ou terres rares par exemple) soit par l’activisme indirect résultant du fruits de ces échanges (sur le plan culturel ou cultuel par exemple). En l’absence de stratégie, le pays exportateur est susceptible de subir ce l’on nomme le mal hollandais [7] s'il possède une base industrielle ou devenir un État rentier s'il ne possède pas cette base.

À un niveau infranational, les transports ou leur absence, peuvent déterminer l’identité de ceux qui transitent sur un territoire et même renforcer celle de tous les résidents contraints d’y rester.

Ainsi lorsqu’un péage est instauré, le territoire de transit est acquis à ceux qui disposent d’un capital financier suffisant pour l’emprunter. Avec à la clef des avantages justifiant le règlement d’un droit de passage. C’est un axe prioritaire qui établit une classe au sein d’une population d’individus se déplaçant. Le territoire est par ailleurs gardé et surveillé, il n’est pas en libre accès. Moyennant une redevance, le gestionnaire privé de l’espace public gère et entretient un réseau qu’il conditionne au paiement d’une somme basée forfaitairement ou proportionnellement à la distance, nonobstant des majorations plus ou moins sibyllines.

Autre élément infranational, lorsqu’un quartier est déclaré sensible [8], et que l’État avoue à demi-mot qu’il ne peut y exercer toute son autorité, il s’interdit dès lors d’y faire transiter ses propres forces vers ce territoire. Sur celui-ci ne peuvent plus que circuler les véhicules autorisés par les nouveaux maîtres des lieux, dont les occupants sont reconnus comme loyaux ou inoffensifs ou surtout lucratifs. A contrario, toute signalétique d’un service étatique (pompiers, police, ambulance) est visé par des intimidations pouvant aller jusqu’au coup de feu. Il y a un aspect tribal avec la férule d’un chef de village, ou plutôt de quartier, pour gérer l’ensemble territorial. Et partant de cette donne, il y a ceux qui sont du quartier et ceux qui n’en sont pas. Ce rejet, parfois violent, d’une puissance considérée comme concurrente, fait naître au fil du temps un esprit, un sentiment d’appartenance sur des critères divers mais délimité par une zone géographique précise.

De manière identique, lorsque la municipalité d'une métropole entend - sous couvert de préoccupation écologique - mettre à contribution les automobilistes s’acheminant au centre-ville, voire à les exclure en déployant des moyens considérables (systèmes automatisés mobiles ou fixes de reconnaissance en temps réel de plaques minéralogiques), il y a une discrimination visant à déterminer ceux qui sont du bourg et ceux qui sont en dehors. L’habitant du centre-ville se déplace en transport en commun ou à vélo et élargit son horizon par des moyens de transport aérien ou terrestre intercités : il traverse ou survole à grande vitesse ces zones périphériques qu'il ne désire pas cotoyer. Le confort de ces habitants passe par l’expulsion de ce qu’ils considèrent nuisible à leurs poumons comme à leurs yeux, cautionnant un communautarisme ségrégationniste. Dans le même temps, les néo-ruraux, qui sont d'anciens urbains poussés en dehors des centres-villes par précarité socio-économique, subissent une contrainte de mobilité toujours plus forte imposée par une caste politique proche des milieux issus de la métropolisation. Métropolitains pour qui la distance domicile-travail est largement acceptable par les moyens de transport de proximité à disposition, d'autant qu'ils bénéficient de la présence de bassins d'emplois rémunérateurs (centre-villes et zones d'entreprise).

Assez symptomatique est le repeuplement rural observable en France depuis plusieurs années alors que les emplois les plus qualifiés et les plus diversifiés se trouvent à proximité des grands centres urbains. Il y a par cette évolution discernable depuis les années 2000 deux identités territoriales qui se font face et dont le rapport aux transports est cruciale [9].

Paradoxalement, nous en revenons aux origines du véhicule motorisé : pas sur un plan technologique mais sociologique. En effet, comme à la genèse de cette révolution du transport individuel, celui qui possèdera personnellement [10] une automobile et accèdera au centre-ville sera un homme fortuné capable de s’acquitter de taxes diverses, à commencer par un espace de stationnement privatif hors de prix. Il y a dans la droite ligne de cette orientation une diffusion de l’esprit de décroissance et de technophobie très ancrée chez ces nouveaux citadins qui méprisent le pauvre et jalousent le riche tout en étant sécurisés dans leur propre patrimoine. Ceux-ci ne manquent pas d’exhiber le vélo comme objet politique plus que de transport. Une attitude jusqu’au-boutiste confinant au ridicule, non sans une certaine logique malgré tout, lorsqu’ils fustigent l’électromobilité en espace urbain [11]. Ces néo-citadins se reconnaissent entre eux par une certaine uniformisation de la pensée et du mode de vie véhiculés (sic) dans les principales villes contemporaines. Ce qui accentue ce faisant le différentiel avec les populations poussées hors des centres-villes par l’enchérissement du loyer comme des bien et services de proximité.

Comme le rappelait Nicolas Mazzucchi dans son dernier article [12] : « Le territoire s’exploite, il se met en valeur, parfois il se conquiert – l’annexion de la Crimée en 2014 nous le rappelle – mais toujours il se pense et se vit. Le territoire est ainsi avant tout une expérience à la fois intérieure et collective dont le maître mot est identité. ».

L’identité ne peut naître que sur un territoire [13], et les transports lui permettent de se mouvoir plus rapidement au sein de celui-ci, de la renforcer, de la modeler par des apports périphériques mais aussi de s’étendre davantage lors de phases de croissance. Les transports sont un paramètre qui détermine la puissance des forces centripètes et centrifuges et façonne les identités territoriales. Centripète lorsque le noyau de l’identité principale désire contrôler et/ou étendre son territoire, centrifuge lorsque les représentants d’une identité concurrente désirent reconfigurer les connexions logistiques mais aussi d’entrée et de sortie du territoire donné. Et si l’on songe d’office aux voies de circulation, les transports ne sauraient s’y réduire puisqu’il faut y intégrer de façon plus large tout ce qui peut se mouvoir ou être mû sur un plan matériel comme immatériel.

Restreindre, faciliter, interdire, développer des transports produit inéluctablement une organisation spatiale du territoire. La mobilité des échanges, ou son absence, induit à son tour l’évolution de l’identité du territoire.

Pour résumer, le territoire ressort de l’approche géographique, l’identité de l’approche humaine tandis que les transports sont l’élément dynamique - la courroie - entre les deux approches précitées.


[1] Si l’on fait usuellement remonter son origine en Mésopotamie vers 3 500 av. J.C., les découvertes récentes semblent attester d’une existence encore plus précoce dans l’Est de l’Europe, entre la Pologne et l’Ukraine actuelles. Précisons en outre que le montage d’une figure circulaire n’a pas servi qu’à se déplacer au fil des siècles mais aussi à diverses activités comme moudre le grain avec la meule de pierre ou fournir l’heure grâce aux roues dentées et pignons.

[2] Si l’on songe à l’Empire Romain – qui donnera lieu au fameux adage « Tous les chemins mènent à Rome » ainsi qu’à la dénomination de « Mare Nostrum » pour la Méditerranée - il ne faut pas omettre le réseau de l’Empire Inca qui permettait une exploitation et distribution avancée et à grande échelle de ressources agricoles ou même l’Empire Mongol dont l’efficience de la poste força le respect des peuples conquis.

[3] Un pays disposant d’un développement technologique inférieur à ses voisins peut renforcer et améliorer son activité économique et sa défense militaire en investissant dans son système éducatif, dans les centres de recherche et développement et dans l’armature industrielle nationale. Cependant le plus généralement il se fournit directement auprès d’un État pour l’acquisition de biens civils et militaires qu’il ne peut produire lui-même, lui permettant de garantir un niveau d’activité économique suffisant et une défense militaire à niveau mais en se rendant dépendant de l’État fournisseur. Pour pallier à cet effet, la diversification des approvisionnements est souvent recherchée par l’État importateur mais plus la technologie est élevée plus l’offre est réduite voire monopolistique. Bien entendu, il faut aussi prendre en compte l’existence de cartels qui, sur une ressource donnée, peuvent exercer une pression considérable auprès des États clients.

[4] C’est d’ailleurs une des limites des économistes libéraux de prétendre que la guerre peut être remplacée par le commerce puisque le commerce est une continuation de la guerre sur un autre modèle et que les victimes se comptabilisent sous une forme différente. Du reste, une crise commerciale majeure peut aboutir à un conflit conventionnel comme ce fut le cas entre 1839 et 1842 lors la guerre de l’opium entre le Royaume Uni et la Chine impériale. Dans le registre de la justice, le meilleur exemple du principe d’extra-territorialité de lois nationales est l’application du Foreign Corrupt Practices Act depuis 1977 : le département de la justice américain pouvant frapper n’importe quelle société étrangère dès lors qu’un citoyen américain soit concerné et/ou que la monnaie employée pour la corruption soit le dollar ou encore que la société incriminée - ou une de ses filiales - soit cotée en bourse aux États-Unis.

[5] L’ancien contractuel au sein de la NSA, un organisme de sécurité américain, révéla en 2013 que les pratiques de l’agence s’exerçait dans le monde entier y compris à l’encontre d’alliés des États-Unis. Ce cyberespionnage à grande échelle fut facilité par l’emploi d’outils provenant d’entreprises américaines tenues de collaborer avec les agences de renseignement d’État. La collecte massive de données mondiales permettait aux États-Unis de disposer d’un avantage concurrentiel majeur sur les autres pays.

[6] C’est notamment la problématique des câbles maritimes qui relient les continents entre eux, et qui restent sous propriété américaine. Une réalité qui pousse actuellement la Chine a privilégier la pose de nouvelles lignes terrestres à travers l’Asie Centrale pour réduire sa dépendance. La pose puis l’exploitation en février 2018 du câble transatlantique haute performance en fibre optique Marea renforce la méfiance des autorités chinoises en raison de l’implication financière massive de Microsoft et Facebook.

[7] Le mal hollandais provient d’une analyse du rapide enrichissement des Pays Bas suite à la découverte puis exploitation des gisements de gaz de la Mer du Nord dans les années 1960. Le phénomène provoqua une réaction en chaîne : mise en place d’une situation de rente fondée sur cette activité au détriment de la diversité des industries locales ; enchérissement de la devise nationale facilitant les importations de produits et services étrangers mais fragilisant davantage le tissu économique national ; exportation du gaz de la Mer du Nord de moins en moins rentable en raison du renforcement du florin néerlandais puis de l’amenuisement des ressources. Cet enseignement a été étudié par la Norvège qui a tenu à limiter autant que possible ces effets sur sa propre économie, notamment en instaurant un fonds souverain.

[8] En France le Ministère de la Ville distingue plusieurs catégories de quartiers sensibles, les ZUS (Zones d’Urbanisation Sensibles) devenues des QPV (Quartiers Prioritaires de la politique de la Ville), appellation jugée moins discriminante sur la forme et fondée prioritairement sur le niveau de vie et dans une moindre mesure désormais sur les actes délinquants et criminels. Or, ces quartiers souffrent principalement d'un retrait des services publics qui engendre à son tour un retrait des espaces d'activité économique : un engrenage s'effectue avec la mauvaise réputation qui contracte toujours davantage le tissu économique et ce faisant le bassin d'emploi. L'État compensant partiellement et maladroitement le phénomène par des subventions et des habitations rénovées, or la source principale des problèmes de ces quartiers est d'ordre humaine avec des comportements anti-sociaux opérés en toute impunité, fruits du recul de l'autorité de l'État.

[9] Lorsqu'en janvier 2018 l'exécutif français par la voix de son Premier Ministre annonce qu'il réduira la vitesse de 10 km/h sur les axes secondaires en France (soit la bagatelle de 900 000 kilomètres de ruban d'asphalte au bas mot), il attise un ressentiment violent de la part de toute une population vivant en dehors des grands centres urbains. Cette population accuse la nouvelle en l'assimilant à une humiliation et à une restriction à sa liberté de circuler puisque la mesure ne concerne que les ruraux obligés de se déplacer sur de longues distances. D'autant plus incongrue que le Danemark ayant expérimenté cette baisse de vitesse est rapidement revenue en arrière au vu des résultats catastrophiques en matière de sécurité routière et que l'Autriche envisage d'augmenter la vitesse maximale sur les axes autoroutiers.

[10] Le phénomène de partage des biens est symptomatique de ce bouleversement sociétal : depuis l’avènement de la société de consommation de masse, la possession individuelle était la norme et le signe d’une réussite sociale. Le phénomène de l’ubérisation introduit des solutions à la baisse du pouvoir d’achat et au déclassement social par un nouveau paradigme : celui du partage collectif d’un bien individuel soumis à une contrepartie financière. La collectivisation au sein du modèle capitaliste provient de l’affaiblissement de la richesse individuelle malgré les plus louables raisons officielles des acteurs (altruisme, écologisme, découverte de l’autre etc.), plus subie que souhaitée.

[11] Lors de l’organisation du grand prix de Formule E (électrique) à Paris en 2018, la mouvance écologiste s’insurgea envers la mairie quant à la tenue de cet évènement dans la capitale. Or, dans le rapport délivré à cet effet, la FIA Formule E se conforme à l’ISO 20121, norme qui régule les procédures pour un développement durable dans le cadre de l’événementiel.
http://www.fiaformulae.com/en/news/2017/february/formula-e-releases-latest-sustainability-report/

[12] Nicolas Mazzucchi, Mondialisation et territoires, Echo Radar, 6 août 2018
http://echoradar.eu/2018/08/06/mondialisation-et-territoires/#more-3883

[13] Le nomadisme n’échappe pas à cette règle puisque ce mode de vie impose pour les échanges au sein de la communauté de trouver refuge et pâture sur un territoire donné. Le mouvement perpétuel ne permet pas l’édification d’une culture, seule la stabilité temporelle et spatiale le permet. Dans le cas contraire, il n’existe qu’une communauté d’intérêt (exemple : la défense du groupe d’individus sur le trajet) et non une identité.


jeudi 26 juillet 2018

Sommet Trump-Poutine à Helskinki : un peu de cyberespace au menu



La rencontre le 16 juillet 2018 entre le président américain Donald Trump et son homologue russe Vladimir Poutine dans la capitale finlandaise Helsinki apporta son lot de controverses comme d'ordinaire à chaque évènement majeur depuis l'arrivée du magnat de l'immobilier.

Cette rencontre ne fut pas la première entre les deux hommes, tout du moins pas en tête à tête [1]. Les relations entre les deux pays depuis la fin de la guerre froide n'ont jamais été simples, or depuis le début de son mandat, Donald Trump s'évertue à bouger les lignes internationales, et le rapprochement entre les États-Unis et la Russie souhaité par la Maison Blanche demeure mal perçu par une partie de l'intelligentsia américaine [2].

Vladimir Poutine a cité les échanges existants entre les services de sécurité russes et américains, notamment durant la Coupe du Monde. Cependant il vise à une coopération systématique dans le domaine de la criminalité transfrontalière et le terrorisme.
Rappelant les allégations imputées à la Russie en matière d'ingérence dans le processus électoral américain qui aurait permis l'élection de Donald Trump en novembre 2016, il s'est fait fort de rappeler le projet de mise en place d'une unité de cybersécurité conjointe destinée à prévenir toute interférence par voie numérique [3]. Cette initiative fut proposée par Donald Trump lors du G20 de Hambourg en 2017 avant de se dédire quelques heures plus tard. Vladimir Poutine se fit fort de rappeler cet engagement sans que le gouvernant américain n'y retrouve quoique ce soit à redire.

Reste que dans les faits, une telle unité serait compliquée à mettre en oeuvre. Bien évidemment l'on songe à la différence d'approche technique et opérationnelle des équipes russes et américaines (cf La cyberstratégie russe, éditions Nuvis). Mais tout autant sur un plan sociopsychologique les esprits ne sont pas encore mûrs pour pareille évolution : des décennies de méfiance réciproque ne peuvent être levées par des décisions politiques, fussent-elles prises au plus haut sommet de l'État. D'autant que les services de sécurité américains ont désigné la Russie comme responsable des fuites de données lors de la campagne présidentielle de 2016, ce qui vaut des passes d'armes régulières entre l'administration présidentielle et ces derniers.

L'idée ne doit cependant pas être jetés sur le bas-côté des tocades déclamatoires. Elle pourrait trouver une issue réelle dans un cadre sérieusement normé avec une délimitation du sujet d'intervention crédible. La cybercriminalité est précisément l'un des points d'accroche réaliste qu'il est possible d'entrevoir. Car contrairement à une idée reçue, la Russie n'est pas exempte de cyberattaques, certaines sont certes liées à la question du conflit au Donbass mais d'autres sont bien d'origine criminelle : exemple, en novembre 2016 les banques russes ont subi un assaut de déni de service distribué (DDoS), une cyberattaque synchronisée et aboutie dans ses modalités prouvait que cela n'était pas une atteinte fruit de l'infortune mais bien une campagne ciblée [4].

La méfiance réciproque ne pourra être levée que par des initiatives limitées, techniques et probantes dans leurs effets.

Enfin, et de façon plus légère, il fut évoqué lors de la remise d'un ballon officiel de la coupe du monde s'étant déroulé en Russie la probabilité qu'il puisse contenir un micro-espion intégré. En effet, sur le ballon un sigle indiquait l'existence d'une puce NFC (Near Field Communication) intégrée. Pas du fait des services secrets russes cependant mais de l'équipementier Adidas qui vantait cette technologie sur son site. Pouvait-elle avoir été refaçonnée afin de devenir une balise espion? Adidas rassura les sceptiques en expliquant que cela n'était pas possible puisqu'elle ne pouvait fonctionner qu'en lecture seule [5].
Quoiqu'il en soit, il existe un protocole strict relatifs aux cadeaux offerts à un président américain en exercice : soit ceux-ci sont confinés dans une pièce sécurisée soit ils sont acheminés au musée de la présidence à Washington [6].


[1] Ils s'étaient rencontrés initialement en juillet 2017 à Hambourg lors du G20 puis très brièvement lors du sommet de l'APEC au Vietnam en novembre 2017.

Glenn Greenwald, a Pulitzer Prize-winning journalist best known for exposing the global surveillance programmes of the US and Britain based on Edward Snowden’s revelations, questions the outrage over Russian meddling. In a recent radio programme, he said, “The United States and Russia have been interfering in one another’s domestic politics since at least the end of World War II, to say nothing of what they do in far more extreme ways to the internal politics of other countries.”


Attackers used combinations of various attack methods. They applied SYN Flood that exhausts operating system resources, as well as HTTP/HTTPS Flood that overloads the target Web server. The longest attack in the series lasted 4 days 6 hours and 34 minutes. The peak power of the attack was 660 thousand requests per second, while the average load on a corporate website of a major bank during business hours rarely exceeds 1 thousand requests per second. A few botnets “specializing” in different types of attacks participated in the attack. Approximately 24 thousand unique bots have been blocked;


 

lundi 16 juillet 2018

Les deux vainqueurs de la Coupe du Monde 2018 : la France et la Russie


Comme une image prémonitoire, la vidéo de lancement de la Coupe du Monde 2018 par la FIFA affichait un joueur en joie juste au dessus du drapeau français. 

Sans extrapoler davantage, la victoire des bleus a été l'achèvement d'une longue campagne débutée laborieusement le 6 septembre 2016 sur la pelouse du Borissov Arena au Bélarus par les finalistes de l'Euro 2016. Cette finale perdue quelques semaines auparavant fut considérée à ce titre comme un réel crève-coeur puisque le Portugal l'emporta sur une équipe généreuse, talentueuse mais encore trop tendre sur le plan tactique et l'efficacité de l'effort. La défaite agit néanmoins comme un accélérateur de maturité sur l'ensemble de l'équipe qui apprit de ses erreurs et canalisa sa fougue sous la houlette du sélectionneur-entraîneur.

J'avais à cet effet écrit voici plusieurs semaines sur mon fil twitter que trois caractéristiques déterminent la valeur d'une équipe de football : la technique - la tactique - le physique. Et que l'on verrait celle qui réunira au mieux les trois qualités à la fin de cette Coupe du Monde. Ce fut la France sans doute aucun qui a su conquérir le titre suprême en sachant optimiser chaque qualité selon les matchs. Car il était inutile d'être excellent dans un secteur au détriment des deux autres, tout était lié à un équilibre prenant en considération l'adversaire du jour au regard de ses propres forces.

Un homme - ou plutôt un tacticien - derrière cette victoire : Didier Deschamps. Défenseur de talent passé par le FC Nantes, les Girondins de Bordeaux, l'Olympique de Marseille mais aussi et surtout par la Juventus de Turin. 
Cette expérience italienne au milieu des années 1990 fut décisive en ce sens que l'Italie était en cette période LE championnat par excellence où la bataille se faisait sur la pelouse certes mais aussi sur tableau noir blanchi de schémas sibyllins. De cette proximité avec le grand Marcelo Lippi [1], Deschamps en retira de prestigieux trophées à court terme et à long terme une connaissance hors pair de la gestion d'équipe en ses divers aspects. 
Celle-la même qui se fit jour lors de cette campagne où il réussit à préserver ses joueurs de la fatigue, de la pression adverse, des fautes rédhibitoires, des gestes inconséquents et des médias, Il réussit à former une équipe [2] autour de ses valeurs et malgré leur jeune âge, à leur transmettre la tempérance et la persistance dans l'effort.
L'entraîneur des bleus prit un risque calculé en se passant des services des « millionnaires », préférant un ensemble plus cohérent et harmonisé à une coalition d'égo.

Pour le reste, n'oublions pas l'excellent parcours de cette valeureuse équipe de Belgique qui termina troisième après un dernier baroud d'honneur contre l'Angleterre. 
L'absence de l'Italie et des Pays Bas (dès les éliminatoires), de l'Espagne, l'Allemagne, le Portugal et encore l'Argentine (dès les 1/8èmes ou en phase de groupes) plaçait la compétition sous le signe de tous les possibles.

Et la Russie?
La Coupe du Monde a réconcilié le pays avec sa propre équipe de football. Si son passage durant l'Euro 2016 fut calamiteux (dernière place de son groupe), elle avait fort heureusement laissé un autre souvenir lors de l'édition 2008 où elle fut en mesure de battre l'ogre néerlandais, favori pour le titre, avant d'échouer en demi-finale contre l'Espagne, futur vainqueur de l'épreuve.
Pour « sa » propre Coupe du Monde, l'équipe russe, la Sbornaya, s'affaira à combler son manque de constance par de gros efforts sur les plans physique et tactique. Au point de se venger de l'Espagne en huitièmes de finale à la stupeur générale puis de passer à côté de la demi-finale face à une Croatie de grande classe. 
Il est assez stupéfiant de constater que sur les 23 joueurs sélectionnés, seuls 2 évoluaient dans un championnat étranger.

L'engouement russe pour le football s'il n'est pas constant en raison de la concurrence du hockey sur glace et du basket-ball, n'en demeure pas moins réel. L'écrivain soviétique Maxime Gorki ne se désolait-il pas du spectacle offert par son ami compositeur Dmitri Chostakovitch se transformant en fan enragé (sic!) lors des rencontres du Zénit, son club fétiche [3]? Vladimir Nabokov était lui aussi un grand ami du ballon rond, et à l'instar d'Albert Camus, joua comme gardien. Citons encore Ossip Mandelstam ou Misha Brousilovski dans le registre des intellectuels russes adeptes de ce sport populaire.
Qui plus est, la Fédération de Russie peut se targuer de posséder deux clubs vainqueurs de l'actuelle Ligue Europa et ex-coupe UEFA (l'un des deux trophées continentaux avec la Ligue des Champions) obtenue par le Zénit Saint Pétersbourg et le CSKA Moscou. En toute logique puisque dans les années 2000, des efforts conséquents ont été prodigués dans un souci de remise à niveau financier et infrastructurel du championnat russe pour séduire joueurs et entraîneurs étrangers de niveau : ainsi Éder joue au Lokomotiv de Moscou, Luiz Adriano au Spartak Moscou ou encore Branislav Ivanović au Zénit Saint Pétersbourg. Mais en tâchant de conserver une base de joueurs nationaux pour ne pas déséquilibrer l'armature de l'équipe nationale et favoriser les jeunes talents locaux [4].

Enfin, et de l'avis de tous ceux qui se rendirent sur place, supporteurs comme journalistes, l'organisation fut sans faille et malgré la venue de plusieurs centaines de milliers de spectateurs [5], aucun débordement ne fut constaté. Nombre de visiteurs furent enchantés par les sites accueillant la Coupe du Monde, laissant des témoignages enthousiastes et émouvants.
De substantiels efforts furent déployés afin de fournir à cette épreuve des stades dignes d'une compétition internationale soit en les rénovant (Stade Loujniki) soit en les construisant (Stade Nijni Novgorod) mais aussi avec l'édification de tout un écosystème viable allant de navettes aériennes régulières à un service d'hôtellerie d'une qualité au niveau de cet évènement. Ce furent aussi l'aménagement de nouvelles infrastructures : l'on peut citer la station de métro Novokrestovski, bâtie afin de desservir le stade Krestovski de Saint-Pétersbourg. De même qu'un pont a également été édifié pour relier plus facilement l’île accueillant le stade précité au district de Primorski.

Si c'est bien une récompense que la Russie put décrocher au terme de cette épreuve, ce fut celle de l'organisation réussie d'un évènement de rang mondial. Après les Jeux Olympiques de Sotchi en 2014, puis les grand prix de Formule 1 (toujours à Sotchi) et désormais la Coupe du Monde de football, la Russie a prouvé qu'elle savait être un hôte chaleureux tout autant qu'efficace. Le président américain Donald Trump ne s'y est pas trompé puisqu'il a félicité son homologue russe lors d'une rencontre à Helsinki quelques jours après la conclusion de l'épreuve tant pour l'organisation sans faille que pour les bons résultats de la formation nationale, ce dernier lui offrant en retour le ballon officiel de l'épreuve.

Reste désormais à fonder une nouvelle génération de footballeurs à même de se lancer tels des spoutniks vers le cosmos du ballon rond.

[1] Marcelo Lippi ne fut pas qu'entraîneur de clubs italiens, il fut aussi placé à la tête de l'équipe nationale italienne qui, sous sa férule, remporta la Coupe du Monde de 2006 au détriment de... la France. Il est actuellement entraîneur de l'équipe nationale chinoise.
[2] Après le triste épisode sud-africain de Knysna où les joueurs refusèrent de jouer un match international en faisant grève : ce qui se traduisit par une crise majeure au sein du football français dont la nomination de Laurent Blanc puis de Didier Deschamps en tant que sélectionneurs fut le résultat le plus probant.
[3] La passion ira bien plus loin puisqu'elle poussa le célèbre compositeur à inviter chez lui toute l'équipe du Zénit. En outre, Chostakovitch réussit avec brio son certificat pour officier en tant qu'arbitre même s'il n'en endossa jamais le maillot.
https://www.sofoot.com/dmitri-chostakovitch-et-le-ballet-des-masses-187240.html
[4] L'arrêt Bosman ne s'appliquant qu'aux États-membres de l'Union Européenne, la Russie peut limiter le nombre de joueurs étrangers à sa guise. Même si en théorie les accords de Corfou UE-Russie s'appliquent en la matière.
[5] Les chiffres provisoires font état de trois millions de visiteurs pour cette Coupe du Monde, soit deux fois plus que lors des Jeux Olympiques de Sotchi.

jeudi 5 juillet 2018

Le sport électronique (eSport) confirme son envol


Si les noms de Starcraft, League of Legends, Counter Strike, PES, Fifa, Rocket League, DOTA, Team Fortress ne vous disent rien, c'est que vous êtes dans une dimension parallèle à celles de centaines de milliers de joueurs en réseau.

Le sport électronique bénéficie d'un engouement constant et même croissant dans plusieurs pays asiatiques, Corée du Sud et Japon en tête. Cependant le phénomène n'est en rien nouveau puisque les LAN parties existent depuis les années 1990. En revanche leur monétisation et leur médiatisation urbi et orbi font toute la différence, et atteste d'une maturation du phénomène.

Tout débute en 1997 avec la Cyberathlete Professional League lancée autour d'un titre phare : Quake. Si ce n'était pas le premier jeu permettant de s'affronter en ligne, en revanche la facilité de mise en place des parties suppléa efficacement un jeu nerveux et addictif.

Dès lors le phénomène ne cessa de prendre de l'ampleur concomitamment avec la propagation exponentielle d'Internet - et de la rapidité de ses connexions, passant de 56 kb/s à la fin des années 1990 à 30 Mb/s de nos jours. L'amélioration des interfaces multijoueurs contribua aussi substantiellement à l'essor de ce type de pratique, permettant de se soustraire aux cablages pléthoriques lors des manifestations.

Les dotations suivront de même au fil de la professionalisation : de récompenses symboliques (une plaque, une médaille, une attestation) les lauréats recoltèrent des sommes de plus en plus substantielles (jusqu'à atteindre 100 millions de dollars pour le jeu Fortnite [1]).
Sur un plan plus formaliste, les joueurs s'organisèrent en se regroupant en ligues, clans ou guildes. Chaque regroupement disposant de codes et de règles à observer, à peine d'être exclu de la troupe. Dans les règles impératives peuvent même figurer le jour et la date des entraînements d'équipe auxquels les membres doivent se prêter pour se préparer aux concours.

Les éléments de croissance disparates des années 1990 au début des années 2000 vont aboutir à une volonté de regrouper tout ce fatras dans un ensemble plus fonctionnel et qualitatif. Et en ligne de mire, obtenir une certaine reconnaissance par les autorités, souvent promptes à assimiler les jeux en ligne à une pathologie [2].

Ce pas décisif c'est en août 2008 qu'il est attesté, par l'acte de fondation de la Fédération internationale de sport électronique (IeSF) dont la mission est de promouvoir cette discipline [3]. L'autre étape majeure c'est l'émergence d'un canal dédié pour la retransmission des sports électroniques avec la plate-forme Twitch lancée en 2011. Laquelle a battu un record en 2018 avec 300 000 connexions simultanées pour 140 millions de spectateurs mensuels (chiffres impressionnants, à relativiser malgré tout avec le 1,8 milliard de visionneurs chaque mois sur Youtube).
En France, le statut de joueur professionnel a bénéficié d'une reconnaissance spécifique grâce à l'appui du secrétaire d'État au numérique au travers de la loi pour une République numérique publiée au Journal Officiel le 7 octobre 2016, complétée par un décret du 9 mai 2017. Encore faut-il s'entendre qu'il s'agit de prendre en considération les salariés de cette activité et non l'ensemble de la population pratiquant le sport électronique et qu'il s'agit d'un contrat d'une durée s'étalant entre un an et cinq ans, sans limite de renouvellement.
Toujours au niveau national, plusieurs acteurs français du jeu vidéo se sont décidé à peser sur les décisions des autorités publiques ainsi que d'agir en vue de promouvoir et d'encadrer la pratique du sport électronique au travers de France Esports [4].

L'effet démultiplicateur des ventes reste à vérifier. L'utilisation d'un ludiciel permet à celui-ci de bénéficier d'une portée médiatique accrue mais pas forcément d'une explosion de ses ventes car ceux qui vont suivre à distance les compétitions sur ce support ne seront pas forcément des consommateurs invétérés du produit et de ses dérivés.En revanche, l'officialisation d'une compétition permet de ressouder les adeptes du ludiciel et de fortifier une communauté afin de bénéficier d'un coeur d'adeptes prêt à bourse délier pour les mises à jour prévisionnelles.

Prochaine étape? Les Jeux Olympiques pourrait-on penser avec un léger - ou un prononcé - sourire en coin. Hé bien... oui.  Et c'est même en voie d'étude avancée puisqu'en 2016, le Comité olympique a reconnu l'eSport en tant que sport. Cependant cette reconnaissance ne s'est accompagné d'aucune date précise pour l'insertion de ces épreuves dans le calendrier olympique.
Dans le sillage de cette décision fut créée l'Esports Integrity Coalition [5]. Cette organisation ayant pour principale fonction de garantir l'équité entre tous les joueurs en traquant toute trace de triche, de dopage ou de manque aux règles éthiques [6].
La triche est prise très au sérieux par les organisateurs d'évènements et les instances de régulation, elle est apparue très tôt dans le secteur, traqué par Twin Galaxies notamment qui s'attelait initialement à répertorier les records dans les jeux vidéo reconnus. Devant l'inflation des fraudes, l'organisation dut rapidement faire office d'arbitre en complément d'archiviste. Parfois, un bogue informatique peut donner un avantage concurrentiel anormal faussant le résultat final : ce fut le cas lors de l'organisation de la première eRace à Las Vegas en 2017 où l'un des participants put bénéficier d'un overboost à durée plus prolongée que tout autre joueur.
De manière plus traditionnelle, les joueurs - souvent professionnels - peuvent recourir à des substances interdites. Ce fut le cas par exemple lors de la révélation en 2015 de l'usage d'Adderall par des joueurs sur Counter Strike : Global Offensive. Le produit étant un psychostimulant, il améliorait artificiellement l'attention des dopés, au grand dam des autres compétiteurs.

Et dans le domaine de la simulation automobile, plusieurs grands noms du secteur ont décidé d'investir sérieusement le domaine : Renault s'y est engouffré indirectement en s'associant à une structure déjà existante, Team Vitality. Il ne s'agit pas à proprement parler d'une structure ad hoc mais l'approche est significative d'un changement d'opinion vis à vis de cette activité.
Plus proche de la volonté de cibler les simracers, McLaren s'apprête à lancer son Shadow Project, qui est en réalité la continuité de son projet initial, World’s Fastest Gamer. Les pilotes virtuels se défieront sur plusieurs simulations : Forza, rFactor 2, iRacing et Real Racing 3. Le vainqueur étant invité ensuite à faire part L'industriel anglais fait remarquer que la complexité des simulations est devenue telle de nos jours que les réglages et le pilotage n'ont plus grand chose à envie aux pilotes professionnels. Un constat que Nissan avait déjà opéré voici de nombreuses années avec la naissance de la GT Academy en partenariat avec le jeu Playstation Gran Turismo [7], se servant du ludiciel comme un outil de détection de futurs pilotes talentueux.
Rappelons en outre que dans le cadre d'un rafraîchissement salutaire de l'image de la Formule 1, le nouveau propriétaire des droits - Liberty Media - lancera la compétition virtuelle Formula 1 Esports Series avec le concours de Codemasters et son futur titre F1 2018.
Le fait qu'un pilote professionnel passe désormais de plus en plus de temps dans les simulateurs tend à justifier l'émergence d'une reconnaissance par le milieu de ces sportifs virtuels. La confrontation des deux univers tend à démontrer que le niveau des uns et des autres est devenu de plus en plus resserré. L'introduction de la réalité virtuelle renforçant le réalisme des conditions de conduite, le stress en premier lieu, qui faisait défaut dans les premiers simulateurs.

At last but not the least, le marché de l'eSport : c'est combien?
Les chiffres les plus fantaisistes circulent sur le sujet, souvent gonflés par ceux qui veulent une reconnaissance par le poids du marché plus que par le nombre d'affiliés. Selon une étude récente de NewZoo, il devrait avoisiner les 905 millions de dollars pour l'année 2018 et s'offrir une croissance de +38%. Si une certaine réserve doit être conservée vis à vis de ces estimations, les différentes études attestent d'un décollage certain du phénomène et de l'évolution des équipes tendant à se rapprocher du statut d'athlètes avec un calendrier rempli d'entraînements, de rencontres avec fans et sponsors, de tournois et de plages de repos. Si l'on pouvait encore se moquer de ces cyber-athlètes voici quelques années, il est devenu incontestable que le succès médiatique du sport électronique est au rendez-vous même si l'une de ses priorités sera de sortir d'accroître sa notoriété au-delà des seuls initiés et de fidéliser les spectateurs occasionnels. Il lui faudra aussi sortir de sa zone de confort Asie-Pacifique qui capte à ce jour près de 53% du marché, contre 18% pour l'Europe et 14% pour l'Amérique du Nord.
Un vrai défi porteur de croissance.




[1] Il convient de préciser qu'à l'instar du tennis, les dotations sont une enveloppe globale et non la somme remise au seul vainqueur.

[2] Depuis janvier 2018, l'Organisation Mondiale de la Santé a inscrit l'addiction au jeux vidéo en tant que pathologie en sa onzième classification mondiale des maladies.




[6] The Mission of ESIC is to be the recognised guardian of the integrity of Esports and to take responsibility for disruption, prevention, investigation and prosecution of all forms of cheating, including, but not limited to, match manipulation and doping.


Crédit photo : Aditya Chinchure

mercredi 27 juin 2018

Pourquoi la Nordschleife est-elle si mythique?



La Nordschleife, la boucle nord en bon français, surnommée aussi de manière plus poétique, Grüne Hölle, l'enfer vert. Un nom qui fait frémir les pilotes professionnels et enthousiasme les amateurs de sensations fortes.

Pourquoi pareil paroxysme dans son appréciation?

Tout d'abord il convient de préciser que par extension, l'on nomme indifféremment Nürburgring et Nordschleife, ce qui est inexact : le Nürburgring constitue la partie Grand Prix du tracé, et surtout le tronçon le plus récent - ouvert à la compétition en 1984 - doté d'un développement de 5,148 kilomètres tandis que la Nordschleife voit ses origines remonter à 1927 pour un parcours hautement sinueux et valloné de 20,832 kilomètres [1].

Cela ne répond toujours pas à la question posée mais cela donne déjà une idée du différentiel entre ces deux mondes : le nouveau - Nürburgring - et l'ancien - Nordschleife.

Si les compétitions officielles sont relativement rares depuis le retrait de la Formule 1 en 1976 [2], elles sont très suivies car mettant à rude épreuve les pilotes professionnels qui liment leurs pneumatiques sur la longue surface du circuit. L'épreuve la plus connue - et la plus suivie - se déroulant à la Nordschleife sont les 24 Heures du Nürburgring. Pourquoi Nürburgring et non Nordschleife dans ce cas précis? Parce que le grand circuit est couplé à celui du Grand Prix pour une course d'endurance éprouvante. Cette extension permet à  plusieurs catégories de s'affronter sur deux circuits radicalement différents : une particularité unique au monde. Du reste, les 24 Heures sont un mètre étalon pour nombre de marques qui entendent étrenner leur modèle et les soumettre à des pressions mécaniques élevées (pour rappel les 24 Heures du Mans n'offrent qu'un dénivelé minime de 42 mètres alors que la Nordschleife offre pratiquement 300 mètres de différence entre le point le plus haut et le plus bas du circuit).
BMW, Porsche, Audi, Nissan, Ford, Renault, Lexus, Volkswagen, Ferrari, KTM, Hyundai etc. ont été ou sont de la partie pour offrir aux spectateurs de grandes et furieuses batailles sur le bitume. Ce qui a offert des moments d'anthologie par le passé où de grands noms sont désormais passés à la postérité tels Pedro Lamy, Romain Dumas, Hans-Joachim Stuck, Jörg Müller ou encore Klaus Ludwig.

Il n'en demeure pas moins que cette compétition organisée par l'ADAC - Allgemeiner Deutscher Automobil-Club - est un énorme test pour les coureurs car plusieurs portions réclament une attention particulière, notamment le passage incurvé du Karussell ou du trompeur Eschbach. La transition vers le circuit de Grand Prix pourrait presque passer pour une zone de repos.

À l'instar de Spa-Francorchamps, ce ruban d'asphalte est aussi l'occasion pour des constructeurs, ou même des artisans, de s'offrir un record dans leur catégorie à coup de bluff ou de vidéo. Même si le record de Stefan Belloff sur sa Porsche 956 tient toujours depuis 1983 [3].

Mais surtout, c'est la possibilité pour des amateurs de s'offrir un réel frisson sur un circuit mythique. No limit ou presque. Le visiteur qui s'offre un ou plusieurs tours de circuit doit respecter le code de la route allemand, à commencer par ne pas dépasser par la droite. Pour le reste, aucune limitation de vitesse et les dégâts du véhicule comme de l'environnement sont à la charge du conducteur. En dépit d'une si lourde responsabilité potentielle, la demande ne faiblit pas, les accidents s'enchaînent (sans gravité la grande majorité du temps) et les carcasses de voitures s'accumulent.

Pourquoi? Pour une raison très simple : dans un univers où l'on compresse toute liberté, toute expression, tout horizon, le fait de repousser les limites est salvateur, agissant comme une soupape de sécurité. Peu importe le risque, en accepter les conséquences - et pas uniquement que financières - est la seule obligation. C'est là la principale raison du succès populaire de ce tracé retors : il offre à ceux qui le choisissent de se confronter à un espace de liberté et de responsabilité. Rafraîchissant dans un monde où l'infantilisation est une norme coercitive considérée comme progressiste (à se demander si Orwell n'est pas mort pour rien).

La Nordschleife a subi bien des péripéties tant financières (rachat en 2014 par Capricorn Group, une société de pièces détachées) que sportives (accident de Jann Mardenborough dont la sortie de route a entraîné le décès d'un spectateur) mais le mythe continue de se construire chaque semaine et à chaque épreuve [4].

Ci-dessous, la vidéo du record de la Nissan GT-R sur le circuit. De préférence en haute définition afin de visualiser correctement le nombre délirant de courbes à négocier.



[1] En vérité, la Nordschleife est la survivante des deux tracés qui étaient reliés jusqu'en 1984, date du début d'activité du circuit de Grand Prix. Les 7,747 kilomètres de la Südschleife - boucle sud - ne recueillirent jamais l'engouement du public comme des acteurs des sports mécaniques. Sa moindre technicité et son tracé plus quelconque aboutirent à sa déréliction progressive jusqu'à son oubli complet par les fédérations sportives. À signaler que les deux circuits formaient ce que l'on appelle la Gesamtstrecke : le circuit total.

[2] Lequel se solda par le terrible accident de Niki Lauda sur sa Ferrari, et qui le laissa entre la vie et la mort de nombreuses semaines. La décision de ne plus utiliser la Nordschleife pour le championnat de Formule 1 avait cependant déjà été actée avant la survenance de cet évènement.

[3] 6 min. 11 sec. 13, réalisé durant l'épreuve des 1000 kilomètres du Nürburgring, devenue les 6 Heures du Nürburgring mais se déroulant uniquement sur le nouveau circuit.

[4] Y compris au niveau virtuel, rares sont les simulations de course faisant l'impasse sur ce circuit. Du reste, les médias sociaux - Youtube en première ligne - regorgent de vidéos où figurent les prouesses des pilotes virtuels. Au point que si vous insérez Nordschleife comme mot clef, vous avez une forte chance d'obtenir plusieurs occurrences de ce type en première page.

lundi 18 juin 2018

80 km/h : catharsis de maux socio-politico-économiques

Très récemment, un vieil ami m'a fait part de sa réflexion sur l'excès d'importance que j'accordais à la limitation de vitesse à 80 km/h sur les routes secondaires. Je lui en sais particulièrement gré puisque cela me permet de synthétiser les raisons de cette inquiétude liée à cette mesure gouvernementale venant d'être promulguée au Journal Officiel [1].

Une mesure sans démonstration scientifique viable :
- Le rapport servant de base à la décision est le fruit d'une expérimentation. Laquelle devait s'échelonner sur cinq années, de 2015 jusqu'en 2020 mais fut arrêtée en plein processus après seulement deux années de collecte d'informations erratiques. Elle n'est d'ailleurs apparue en rien probante quant à son efficacité sur la maigre base de données obtenues.
- En désespoir de cause est appelée à la rescousse la loi de Nilsson qui est une escroquerie intellectuelle puisqu'il s'agit d'une étude circonstanciée datant de 1982 (!), provenant d'éléments recueillis sur des axes de circulations suédois (!!), et qui par ses modalités d'analyse et la survenance d'effets multifactoriels pouvant amener à biaiser la démonstration ne saurait se prévaloir du statut de loi scientifique.
- La vitesse ne tue pas : confondre un facteur aggravant et un élément causal en dit long sur l'artifice des explications pour « vendre » une mesure difficilement exploitable sur un plan scientifique.
- Détestable est le fait d'attribuer les bons chiffres de la mortalité routière à partir de 1973 à la seule parole politique en faisant l'impasse totale sur l'amélioration continue et attestée de la sécurité active et passive des véhicules, fruit des efforts fournis par les constructeurs. Ainsi qu'en éludant la hausse du niveau de formation des conducteurs comme des secours tout comme l'amélioration des infrastructures (barrières et signalisation).

Une mesure discriminatoire territorialement : 
- Voies concernées à Paris : 0 km ; voies concernées en province : 400 000 kms, d'où l'impression légitime que cette décision politique est une sanction à l'égard des populations provinciales. Une sanction ressentie comme de l'humiliation par des individus évoluant dans un cadre où la densité de moyens de transport alternatifs au véhicule personnel est autrement plus limitée que dans les centres urbains majeurs. 
- Une dégradation de l'attractivité territoriale des territoires excentrés car en roulant moins vite, l'on réduit son rayon de déplacement à vitesse égale et l'on retarde aussi l'acheminement des produits comme des services. Des ingénieurs et économistes ont déjà souligné l'incongruité de telles mesures pesant sur le développement territorial.
- Effarante est la vision d'un contraste assez saisissant entre des cinémomètres flambant neufs et des infrastructures dégradées dont l'état est pénalisant pour le bon fonctionnement des véhicules y circulant, voire susceptible d'entraîner des changements de direction intempestifs préjudiciables à une conduite sereine, et surtout pouvant entraîner le cas échéant une embardée létale pour l'occupant du véhicule ou un autre usager de la voirie.
- Sur un plan infrastructurel, puisqu'apparemment il est mentionné et souligné que ce sont les axes bidirectionnels sans séparateur central qui sont visés - sous entendu qu'ils sont ainsi mieux sécurisés que ceux n'en disposant pas - alors pourquoi ne pas engager une politique d'aménagement à grande échelle visant à l'installation de ces séparateurs centraux? Il y a là un réel manque de cohérence et d'appréhension logique du problème.

Une mesure s'ajoutant à la dépossession en matière de mobilité : 
- La limitation s'additionne aux taxes diverses (carbone, TICPE), aux frais d'assurance obligatoires, au coût de l'obtention du permis de conduire, aux péages, à la contrainte fortement renforcée du nouveau contrôle technique, aux vignettes Crit'Air ainsi qu'au forfait de post-stationnement : l'automobiliste est devenu une proie d'autant plus facile qu'elle est généralement captive de ce qui est aussi un outil de travail.
- Il est martelé à l'envi que la perte de temps sur un parcours est minime. Par exemple : sur un tronçon de 40 km (un aller-retour journalier par exemple pour se rendre sur son site de travail) la différence serait de 3 minutes et 20 secondes [2]. Multipliez ce résultat sur une année de travail (250 jours ouvrés, jours fériés et de repos défalqués), vous obtiendrez la bagatelle de 13,88 heures supplémentaires sur les routes. L'on devine que les intéressés seraient plus enclins à les passer avec leur famille ou au repos que derrière leur volant.

Une mesure politique autoritaire centralisatrice :
- Tous les avertissements des élus siégeant au sein des deux chambres nationales comme dans les conseils territoriaux ont été ignorés.
- Toutes les propositions des élus siégeant au sein des deux chambres nationales comme dans les conseils territoriaux ont été rejetées.
- Toutes les inquiétudes et les récriminations d'administrés confrontés à la réalité de la circulation routière ont été méprisées.
- Tous les appels à la modération de personnalités de la majorité présidentielle - y compris au sein du gouvernement - ont été écartés.
- Le refus de laisser les collectivités territoriales s'occuper d'un sujet les concernant au premier plan et dont elles sont les plus à même d'en suivre les évolutions est symptomatique d'un État centralisateur pour qui une subdivision territoriale est une entité aux ordres sans autonomie de pensée ni d'action (encore moins budgétaire).

Une mesure philosophiquement mortifère :
- Plus vite, plus haut, plus loin est la devise olympique qui vise à l'excellence. Dans le contexte actuel, elle est remplacée désormais par le principe de précaution et l'obsession des gouvernants actuels de brider au possible la liberté de circulation vers le lointain pour n'en faire qu'une modalité pour happy few. Lorsqu'un haut membre de l'exécutif argue qu'une limitation de vitesse ne provoquera que quelques minutes de trajet supplémentaires et que ce même personnage voyage en vitesse excessive sur route car pourvu de son escorte - lorsqu'il n'est pas dans un train à grande vitesse ou dans un jet affrété spécifiquement -, il y a là une hypocrisie hautement délétère. Si l'on interroge les individus politiques responsables de telles inepties, ceux-ci répondent inéluctablement que parce qu'ils ont une escorte, ils peuvent se permettre de rouler vite : ce qui conforte bien que la sécurité devrait permettre d'aller plus vite et non le contraire!
- L'étouffement de la démocratie en refusant à la fois d'écouter le peuple (voie directe) que ses représentants élus (voie indirecte), confortant le principe de post-démocratie où les consultations de quelque nature qu'elles soient sont évidées de toute effectivité au profit d'un gouvernement considéré à juste titre comme autiste.
- Les moyens technologiques les plus avancés sont désormais testés et officialisés afin de mener une véritable guerre sur la route : que l'on songe à l'incroyable déploiement technique des derniers radars (tel l'omniscient Mesta Fusion) ainsi que de drones volants dédiés (invisibles et indétectables) et l'on comprend qu'il s'agit d'opérations quasi-militaires envers les automobilistes. Ce qui au passage n'empêche pas les racailles de semer la terreur dans les quartiers et les voies de circulation périphériques en toute impunité, puisque seul le contribuable solvable et pacifique est uniquement visé par cette débauche de moyens répressifs.
- La répression aveugle dilue la responsabilité des contrevenants dans une politique visant l'ensemble d'une population : le délinquant - voire le criminel - est ainsi déchargé de sa culpabilité puisque tout usager motorisé est présumé coupable une fois au volant ou au guidon. C'est là une approche incroyablement erronée et inique en matière de psychologie routière.
- L'utilisation des victimes de la route pour asseoir une mesure impopulaire est falacieux comme odieux car la mortalité routière est la résultante d'un processus multifactoriel qu'il serait trop simple de réduire à la seule vitesse (sinon comment expliquer que les axes de circulation les plus rapides - les autoroutes - sont aussi ceux qui ont le moins de décès par an, soit moins de 10% du total ?).
- L'occasion par le pouvoir dominant de rappeler qui est le maître : celui qui dispose des attributs de coercition. La mesure est symboliquement un message au peuple qu'il est sujet et non acteur de son destin. C'est une violence infligée au peuple au nom de son prétendu bien qui masque cependant une affirmation de domination quotidienne par le pouvoir politique.

L'abaissement des limitations de vitesse à 80 km/h n'est pas qu'une bataille de chiffres et d'arguments, c'est une bataille philosophique majeure où l'absolutisme des décisions doit impérativement rencontrer le butoir de la raison et de la concertation.

De fait, la logique la plus élémentaire serait de bénéficier d'infrastructures et de moyens de locomotion qui permettent à tous de se déplacer plus vite, plus loin, plus haut. Le fait est que les autorités françaises préfèrent avoir un peuple au pas plutôt qu'en route.

[1] Décret n° 2018-487 du 15 juin 2018 relatif aux vitesses maximales autorisées des véhicules