Éducation : Pourquoi les logiciels et le matériel pédagogique ne sont-ils pas libres en France ?

Éducation : Pourquoi les logiciels et le matériel pédagogique ne sont-ils pas libres en France ?

Éducation

Cela fait 30 ans environ que les logiciels libres sont arrivés en France. Ils sont présents dans les infrastructures réseau, les téléphones portables, les modems xDSL, les sites internet, les jeux et tout doucement dans la gestion des entreprises et l’éducation. Mais le libre est quasiment absent dans les logiciels et le matériel didactique qui servent à faire des travaux pratiques, dans les cours et les livres et tout ce qui sert à l’apprentissage. Alors que les universités américaines commencent à libérer massivement leurs cours sous des licences libres et qu’on y voit exploser les supports expérimentaux libres dans les Fab Lab (idem en Allemagne qui a une culture plus expérimentale dès le primaire, il n’y a qu’à voir le nombre de Fab Lab), pourquoi tant de retard dans les écoles en France?

Pendant 6 ans, j’ai été commercial chez plusieurs fournisseurs de l’Éducation Nationale. J’ai vendu à peu près tout ce qu’on peut trouver dans un établissement scolaire, en enseignement primaire, secondaire et supérieur : du mobilier classique, d’atelier et de laboratoire, de la verrerie, des produits chimiques, des machines-outils, des bancs de test et du matériel didactique de toutes les marques.

Le matériel didactique est utilisé dans toutes les matières : sciences de la vie et de la terre, technologie, physique-chimie, maintenance, électronique, électrotechnique etc.
Il est acheté sous la forme de maquettes ou sous la forme de produits grand public ou industriels modifiés pour faciliter l’apprentissage : mise aux normes spécifiques à l’éducation nationale, ajout de notices, de travaux pratiques et de logiciels.

Ce matériel très coûteux est acheté par les établissements, parfois sur fond propre, généralement avec une dotation du Conseil Général pour les collèges ou du Conseil Régional pour les lycées.
Le matériel didactique est conçu soit par des fabricants, avec l’aide d’enseignants et d’inspecteurs de l’éducation nationale, soit directement par des enseignants, des élèves et des inspecteurs. Dans ce dernier cas, les auteurs du matériel didactique signent un « contrat d’auteur » avec le fabricant qui industrialise et vend le matériel didactique. Dans ce contrat, les auteurs cèdent les droits de fabrication et de vente (en général avec une clause d’exclusivité) et touchent en contrepartie un pourcentage sur les ventes.
Les fabricants vendent le matériel didactique aux établissements d’enseignement ou à des revendeurs et des centrales d’achat.

Ce système est intéressant car il motive les enseignants, les enseignants, les élèves, les chefs de travaux, les inspecteurs et tout le personnel qui s’implique dans ce travail pédagogique. Il fait vivre quelques entreprises dans ce secteur et met en relation le monde de l’entreprise et le monde de l’enseignement. Par contre, comme dans tout système, il y a des choses à améliorer :

1) Les élèves qui participent à l’élaboration du matériel didactique sont souvent ignorés lors de la signature d’un contrat d’auteur.

2) Les inspecteurs vont être à la fois auteurs, bénéficiaires des pourcentage sur les ventes et prescripteurs auprès des enseignants, des Chefs de Travaux et des collectivités. Cela devient parfois gênant lorsqu’ils préconisent l’achat de leur matériel, j’ai eu à ce sujet quelques témoignages d’enseignants inspectés.

3) Ce système favorise la conception et la vente de produits propriétaires et empêche les standards et les licences libres d’émerger. En effet, les utilisateurs (les enseignants et surtout les élèves) n’ont pas souvent leur mot à dire dans le choix du matériel. J’ai ainsi le souvenir de « journées » et de « salons » où les enseignants et les fournisseurs de la filière étaient invités à montrer, tester et choisir le matériel didactique mais le choix était en réalité déjà été fait. Les enseignants ne peuvent donc pas choisir un matériel qui leur facilite le travail en étant inter-opérable, ouvert et respectueux des standards reconnus et non de pseudos-normes imposées par les fabricants de matériel didactique pour gêner l’achat de matériel concurrent.

Cette situation résulte d’un manque de reconnaissance du travail du personnel de l’Éducation Nationale. Un enseignant ou un inspecteur qui développe des produits pédagogiques intéressants n’est pas récompensé financièrement par l’institution. Il le devrait surtout s’il accepte de diffuser son travail sous des licences libres (GNU GPL, GNU AGPL, GNU FDL, CC, Art Libre…) et des licences OpenHardware (CERN, TAPR). Ce qui permettrait d’ailleurs aux entreprises du secteur de développer leur activité à partir de ces produits et aux différents produits d’être compatibles entre eux. Mais connaissant le montant des pourcentages versés par les entreprises dans le cadre des contrats d’auteurs, le budget de l’Éducation Nationale devra être conséquent pour intéresser les auteurs.

L’Éducation Nationale doit mettre en œuvre des mécanismes permettant aux utilisateurs (élèves et enseignants) de faire connaître leurs besoins. Elle doit aussi mettre en œuvre des moyens de diffusion, de communication et de gestion des projets libres, les plate-formes pédagogiques académiques sont inadaptées et il n’y a pas de personnel ni de budget pour les gérer de façon pérenne.

Il faut aussi que tout cela se fasse en concertation avec les fabricants pour que tout le monde y trouve son compte. Surtout depuis plusieurs années où les petits fabricants souffrent de la pression des gros distributeurs, sont absorbés par les gros fabricants ou remplacés par des grands groupes industriels qui s’implantent sur ce marché. De ce fait, on constate une augmentation constante du coût des produits, pas forcément bonne pour le budget des établissements scolaires. Il faut convaincre ces entreprise des vertus du Libre pour le commerce mais on ne les fera pas changer de modèle économique du jour au lendemain, les enjeux financiers sont bien trop importants et la concurrence bien trop féroce.

L’équation à résoudre est compliquée. Le travail de l’association Framasoft, de Jean-Pierre ARCHAMBAULT au SCEREN et de tous les enseignants est indispensable et remarquable au vu de leur manque de moyens. Mais leur travail ne sera pas suffisant si le ministère de l’Éducation Nationale ne se remet pas en cause et ne s’implique pas plus, si un dialogue n’est pas noué entre les utilisateurs (enseignants et élèves), les inspecteurs et les entreprises du secteur, fabricants et distributeurs.

Le salut viendra-t-il du modèle des Fab Lab?

>>> Source sur : http://linuxfr.org/news/pourquoi-les-logiciels-et-le-materiel-pedagogique-ne-sont-ils-pas-libres-en-france

>>> Posté par  . Édité par Nÿco et Nils Ratusznik. Modéré par tuiu polLicence CC by-sa

#Cyberdéfense : ceci n’est pas un manifeste, ceci est Internet

#Cyberdéfense : ceci n’est pas un manifeste, ceci est Internet

Aujourd’hui se tient au Sénat français un colloque sur la cyber défense. L’utilité même d’un tel colloque est inquiétante pour tout Internet et surtout pour les internautes, nous tous, nous Citoyens. Internet est un bien commun trop précieux pour être confié à des politiciens, des militaires, des diplomates, des commerçants, des marchands de « sécurité »… à n’importe quelle caste qui a toujours prouvé qu’elle ne savait agir que pour assurer sa propre survie en brandissant une menace terroriste.

cyberpeace

Internet survivra à vos castes,

Internet est par définition auto-immunisé.

Nulle chance pour vous d’y introduire de nouvelles formes de cancers,

Qu’elles se nomment cyber commerce, cyber sécurité, cyber défense, cyber dissuasion, cyber terrorisme, cyber guerre ;

Internet, c’est le cyber échange qui ne peut conduire qu’à la cyber paix… et à la paix tout court.

Vous aurez beau réintroduire vos concepts qui ne conduisent nos états qu’à toutes les formes de guerres que l’homme puisse imaginer, et Dieu sait que les hommes sont imaginatifs pour se trouver des raisons de se faire la guerre….

Vous aurez beau essayer de séparer les peuples en tentant de poser des frontières sur Internet, et Dieu sait que les politiques y ont un intérêt pour tenter de légitimer leur illusion de pouvoir…

Vous n’y arriverez pas.

La cyber répression ou la cyber surveillance… au nom de ce que vous pourrez imaginer comme fumeux cyber concepts, n’est garante que de votre petite mort.

La somme des intelligences qui transitent dans les tuyaux d’Internet, c’ est un raz de marée.

Nager à contre-courant, c’est pour vous le meilleur moyen de mourir rapidement, et douloureusement.

La douleur s’exprimera dans vos concepts obsolètes de « république » ou de « démocratie » qui vous échappent octet après octet transitant sur Internet.

Peu importe comment vous appelez vos concepts politiques, diplomatiques ou militaires, en votant des lois qui restreignent jour après jour les libertés des citoyens, ou en essayant de dresser les peuples les uns contre les autres.

Si les états pouvaient autrefois s’immuniser contre leur propre peuple, sachez qu’aujourd’hui, ce temps est révolu. Le peuple a élu domicile sur Internet. Cet Internet, c’est chez lui. Internet c’est le peuple.

Vous voulez réguler Internet, vous voulez civiliser Internet ?

Alors que vous n’êtes pas même capables de moraliser vos propres castes ?

Vous vous exposez bêtement sur le réseau en y introduisant des systèmes critiques au nom du profit, pour ensuite voler les libertés des citoyens, pour tenter de préserver les intérêts vos cyber boutiques, vos cyber banques, de vos cyber infrastructures critiques… qui par définition n’ont rien à y faire.

Internet est un iceberg qui répond aux mêmes principes que la poussée d’Archimède,

Continuez à essayer de l’enfoncer, et vous le reprendrez en pleine figure.

A force de vouloir surveiller tout le monde, vous n’entendez plus personne.

Entendez Internet, ou Internet tuera vos états.

>>> Source sur : http://bluetouff.com/2013/05/16/cyberdefense-ceci-nest-pas-un-manifeste-ceci-est-internet/

>>> Publié le 16 mai 2013 par  (Olivier Laurelli) dans Broutilles

Un règlement dépouillant les citoyens de leur droit à la vie privée

Un règlement dépouillant les citoyens de leur droit à la vie privée

Une coalition d’organisations internationales et européennes, dont AccessBits of FreedomDigitale GesellschaftEDRI, La Quadrature du Net, Open Rights Group, et Privacy International, démarre une campagne commune et un site Internet, nakedcitizens.eu. Ce site permet aux citoyens de contacter leurs représentants au Parlement européen pour les appeler à protéger leur droit fondamental à la vie privée.

Un règlement dépouillant les citoyens de leur droit à la vie privée

Des organisations citoyennes exigent que les membres du Parlement européen protègent la vie privée des citoyens.

Depuis son lancement, la révision de la législation européenne encadrant la protection des données donne lieu à une campagne de lobbying sans précédent de la part d’entreprises privées et de gouvernements étrangers. Le Parlement européen examine en ce moment le texte proposé par la Commission européenne, et envisage d’y faire de dangereux amendements. Selon une coalition d’organisations citoyennes, si ces amendements étaient adoptés, ils dépouilleraient les citoyens de leur droit à la vie privée. Cette affirmation est basée sur l’analyse des 4 000 amendements actuellement examinés par le Parlement européen.

« Sans une protection efficace de nos données, nos vies privées sont mises à nu, pour être utilisées et exploitées abusivement par des entreprises privées et des gouvernements. » déclare Joe McNamee de l’organisation citoyenne European Digital Rights (EDRI) et porte-parole de la coalition. « Nous appelons les membres du Parlement européen à faire primer les droits des citoyens et à rejeter ces propositions dangereuses. »

En prévision du vote final de la commission « libertés civiles » le 29 mai, la coalition de la société civile met en lumière les cinq amendements les plus dangereux proposés par les membres du Parlement européen pour modifier le règlement encadrant la protection des données.

Le règlement proposé par la Commission européenne a pour objectif de renouveler et de moderniser le cadre législatif existant pour l’adapter à l’ère numérique, et de conférer aux citoyens un plus grand contrôle sur leurs données personnelles. Le lobbying démesuré venant de grandes entreprises et de gouvernements risque au contraire de réduire à néant ce cadre juridique.

Les citoyens doivent pouvoir faire confiance aux services en ligne qu’ils utilisent. Le niveau de confiance exceptionnellement bas rapporté par des études tant européennes qu’américaines n’est tout simplement pas viable, tant pour les citoyens que pour les entreprises.

La confiance doit être reconstruite en rendant aux citoyens le contrôle de leurs données grâce aux droits :
(1) d’accéder à leurs données personnelles et de les supprimer,
(2) de transférer simplement leurs données d’un service à un autre,
(3) d’être assurés que leurs données personnelles ne seront utilisées que pour la finalité précise et limitée à laquelle ils ont consenti
(4) d’être assurés que leurs données sont à l’abri des gouvernements étrangers,
(5) d’être assurés qu’en cas de faille de sécurité impliquant leurs données, les entreprises responsables les en informeront.

>>> Source & plus d’infos sur : http://www.laquadrature.net/fr/un-reglement-depouillant-les-citoyens-de-leur-droit-a-la-vie-privee

Les réalités économiques du logiciel libre

Les réalités économiques du logiciel libre

Modèles économiques basés sur

le libre et l’open source

Carlo Daffara est chercheur dans le domaine des modèles économiques basés sur l’open source, le développement collaboratif d’objets numériques et l’utilisation de logiciels open source dans les entreprises. Il fait partie du comité éditorial de relecture du journal international des logiciels et processus open source (International Journal of Open Source Software & Processes : IJOSSP), est membre du comité technique de deux centres régionaux de compétences open source et est également membre du réseau juridique européen FSFE (fondation européenne pour le logiciel libre). Il a pris part aux comités SC34 et JTC1 pour la branche italienne de l’ISO, UNINFO et a travaillé au sein du groupe de travail de la société Internet du logiciel public (Internet Society Public Software) ainsi que pour beaucoup d’autres initiatives liées à la normalisation.

Auparavant, Carlo Daffara était le représentant italien dans le groupe de travail européen sur le logiciel libre, la première initiative de l’Union européenne afin de soutenir l’open source et le logiciel libre. Il a présidé le groupe de travail SME du groupe d’étude de l’UE sur la compétitivité et le groupe de travail IEEE des intergiciels open source du comité technique sur le calcul évolutif. Il a travaillé en tant qu’examinateur du projet pour la commission Européenne dans le domaine de la coopération internationale, l’ingénierie logicielle, l’open source et les systèmes distribués et a été directeur de recherche dans plusieurs projets de recherche de l’Union européenne.

Introduction

« Comment gagner de l’argent avec le logiciel libre ? » était une question très courante, il y a encore seulement quelques années. Désormais, cette question s’est transformée en « Quelles sont les stratégies commerciales pouvant être mises en œuvre en se basant sur le logiciel libre et open source ? ». Cette question n’est pas aussi gratuite qu’elle peut paraître, puisque de nombreux chercheurs universitaires écrivent encore ce genre de textes : « le logiciel open source est délibérément développé hors de tout mécanisme de marché… il échoue à contribuer à la création de valeur aux développements, contrairement au marché du logiciel commercial… il ne génère pas de profit, de revenus, d’emplois ou de taxes…

Les licences open source sur les logiciels visent à supprimer les droits d’auteurs sur le logiciel et empêchent d’établir un prix pour le logiciel. Au final, les logiciels développés ne peuvent être utilisés pour générer des profits. » [Koot 03] ou [Eng 10] indiquent que « des économistes ont montré que les collaborations open source dans le monde réel s’appuient sur plusieurs incitations différentes telles qu’enseigner, se démarquer et se créer une réputation » (sans parler des incitations économiques). Cette vue purement « sociale » du logiciel libre et open source est partiale et fausse. Et nous démontrerons qu’il y a des raisons économiques liées au succès des métiers du libre et de l’open source qui vont au-delà des collaborations purement bénévoles.

Le logiciel libre et open source face aux réalités économiques

Dans la plupart des domaines, l’utilisation d’un logiciel libre et open source apporte un avantage économique substantiel, grâce aux développements partagés et aux coûts de maintenance, déjà décrits par des chercheurs comme Gosh, qui a estimé une réduction de coût de 36 % en R&D (« Recherche et Développement », NdT). La vaste part de marché des déploiements « internes » de logiciels libres etopen source explique pourquoi certains des bénéfices économiques ne sont pas directement visibles sur le marché des services commerciaux.

L’étude FLOSSIMPACT a montré, en 2006, que les entreprises qui contribuent au code de projets de logiciels libres et open source ont, au total, au moins 570 000 employés et un chiffre d’affaires annuel de 263 milliards d’euros [Gosh 06], faisant ainsi du logiciel libre et open source l’un des phénomènes les plus importants des NTIC. Il est important aussi de reconnaître qu’un pourcentage non négligeable de cette valeur économique n’est pas directement perceptible du marché, vu que la majorité du logiciel n’est pas développée dans l’intention de le vendre (le soi-disant logiciel « prêt à l’emploi ») mais uniquement à usage interne. Comme le réseau thématique FISTERA EU l’a identifié, en réalité, la majorité du logiciel est développée seulement pour un usage interne.

Région Licences de logiciels propriétaires Services logiciel (développement personnalisation) Développement interne
Union européenne 19 % 52 % 29 %
États-Unis 16 % 41 % 43 %
Japon N/A N/A 32 %

Il est clair que ce qui est appelé « le marché logiciel » est en réalité bien plus réduit que le vrai marché du logiciel et des services et que 80 % restent invisibles. Nous verrons que le FLOSS tient une place économique importante de ce marché, directement grâce à ce modèle de développement interne.

Modèles économiques et proposition de valorisation

L’idée de base d’un modèle économique est assez simple : j’ai quelque chose ou je peux faire quelque chose (la « proposition de valeur ») et c’est plus rentable de me payer ou d’obtenir ce quelque chose plutôt que de le faire soi-même (il est même parfois impossible de trouver des alternatives, comme dans le cas de monopoles naturels ou créés par l’homme, et l’idée même de le produire par soi-même n’est pas envisageable). Il y a deux sources possibles de valeur : une propriété (quelque chose qui peut être échangé) et l’efficacité (quelque chose propre à ce que fait une entreprise et la manière dont elle le fait).

Avec l’open source, la « propriété » est généralement non exclusive (à l’exception de ce qui est nommé « cœur ouvert », où une partie du code n’est pas libre du tout et cela sera abordé plus loin dans cet article). D’autres exemples de propriété concernent le droit des marques, les brevets, les licences… tout ce qui peut être transféré à une autre entité par contrat ou par une transaction légale. L’efficacité est la capacité à effectuer une action avec un coût moindre (qu’il soit tangible ou intangible) et cela correspond à la spécialisation dans un domaine d’application ou apparaît grâce à une nouvelle technologie.

Pour le premier cas, les exemples sont simplement la réduction du temps nécessaire pour réaliser une action quand vous augmentez votre expertise concernant ce sujet. La première fois que vous installez un système complexe, cela peut demander beaucoup d’efforts et cet effort diminue d’autant plus que vous connaissez les tâches nécessaires pour réaliser l’installation elle-même. Pour le second, cela peut être l’apparition d’outils qui simplifient le processus (par exemple, avec le clonage d’images) et introduisent une importante rupture, un « saut » dans la courbe efficacité-temps.

Ces deux aspects sont la base de tout modèle économique que nous avons analysé par le passé ; il est possible de montrer que tout ceux-ci échouent afin de garantir une continuité entre les propriétés et l’efficacité.

Parmi les résultats de notre précédent projet de recherche, nous avons trouvé que les projets basés sur un modèle propriétaire ont tendance à obtenir moins de contributions extérieures car cela nécessite une opération juridique pour faire partie des propriétés de l’entreprise, pensez par exemple aux licences doubles : afin que son code fasse partie du code du produit, un contributeur extérieur doit signer l’abandon des droits sur son code afin que l’entreprise puisse vendre la version commerciale ainsi que la version open source.

D’un autre côté, les modèles totalement orientés sur l’efficacité ont tendance à avoir plus de contributions et de visibilité mais des résultats financiers plus faibles. Je l’ai écrit plusieurs fois : il n’y a pas de modèle économique idéal mais un éventail de modèles possibles et les entreprises devraient s’adapter elles-mêmes pour changer les conditions du marché et aussi adapter leur modèle. Certaines entreprises débutent par des modèles entièrement axés sur l’efficacité puis construisent, avec le temps, une propriété en interne, d’autres ont commencé avec un modèle orienté vers la propriété et ont évolué différemment pour augmenter les contributions et réduire les efforts d’ingénierie (ou développer la base d’utilisateurs afin de créer d’autres moyens d’avoir un retour financier grâce aux utilisateurs).

Une typologie des modèles économiques

L’étude EU FLOSSMETRICS des modèles économiques basés sur le logiciel libre a identifié, après analyse de plus de 200 entreprises, une taxonomie des principaux modèles économiques utilisés par les entreprises open source ; les principaux modèles identifiés sur le marché sont :

  • la double licence : le même code source logiciel distribué sous GPL et sous une licence propriétaire. Ce modèle est principalement utilisé par les producteurs de logiciel et outils pour développeurs et fonctionne grâce à une forte association de la GPL, qui requiert que les travaux dérivés et logiciels liés directement soient distribués sous la même licence. Les entreprises ne souhaitant pas distribuer leur propre logiciel sous GPL peuvent obtenir une licence propriétaire leur octroyant une exemption des conditions de la GPL, ce qui semble souhaitable à certains. L’inconvénient de cette licence double est que les contributeurs externes doivent accepter des conditions similaires et cela a révélé des réductions de contributions externes, se limitant à des corrections de bogues et des ajouts mineurs ;
  • le modèle « cœur ouvert » (précédemment appelé « valeur ajoutée propriétaire » ou « séparation entre libre et propriétaire » * ? *) : ce modèle se distingue entre un logiciel libre basique et une version propriétaire, basée sur la version libre mais avec l’ajout de greffons propriétaires. La plupart des entreprises qui suivent un tel modèle adoptent la Mozilla Public Licence, car elle permet explicitement cette forme de mélange et permet une plus grande participation des contributions externes sans les mêmes contraintes de consolidation du droit d’auteur comme dans l’usage de doubles licences. Ce modèle a l’inconvénient intrinsèque que le logiciel libre doit être de grande valeur pour être attractif pour les utilisateurs, i.e. il ne doit pas être réduit à une version aux possibilités limitées, tout comme, dans le même temps, il ne doit pas « cannibaliser » le produit propriétaire. Cet équilibre est difficile à atteindre et à maintenir dans la durée ; en outre, si le logiciel est de grand intérêt, les développeurs peuvent essayer d’apporter les fonctionnalités manquantes dans le logiciel libre, réduisant ainsi l’intérêt de la version propriétaire et donnant potentiellement naissance à un logiciel concurrent entièrement libre qui ne souffrira pas des mêmes limitations ;
  • les experts produits : des entreprises qui ont créé ou maintiennent un projet logiciel spécifique et utilisent une licence libre pour le distribuer. Les principaux revenus viennent du service, comme la formation ou l’expertise, et suivent la classification EUWG d’origine « le meilleur code vient d’ici » et « les meilleures compétences sont ici » [DB 00]. Cela conforte l’impression, courante, que les experts les plus compétents sur un logiciel sont ceux qui l’ont développé et qu’ils peuvent ainsi fournir des services au prix d’un démarchage minimal, s’appuyant sur la fourniture gratuite du code. L’inconvénient de ce modèle est que le coût d’entrée pour des concurrents potentiels est faible, vu que le seul investissement nécessaire est l’acquisition des compétences sur le logiciel lui-même ;
  • les fournisseurs de plateforme :des entreprises qui apportent un ensemble de services, avec support et intégration de certains projets, constituant une plateforme cohérente et testée. En ce sens, même les distributions GNU/Linux sont classées en tant que plateforme ; une observation intéressante est que ces distributions sont distribuées en grande partie sous licence libre pour maximiser les contributions externes et s’appuyer sur la protection du droit d’auteur pour empêcher la copie sauvage sans empêcher les « déclinaisons » (suppression des particularités soumises à droit d’auteur comme les logos ou droit des marques, pour créer un nouveau produit). Des exemples de clones de Red Hat sont CentOS et Oracle Linux. La valeur ajoutée provient d’une qualité garantie, de la stabilité et de la fiabilité ainsi que d’une garantie de support pour les applications métier critiques ;
  • les entreprises de conseil et de recrutement : les entreprises de cette catégorie ne font pas vraiment de développement mais fournissent des conseils de sélection et des services d’évaluation pour un large éventail de projets, d’une manière qui est proche du rôle de l’analyste. Ces entreprises ont tendance à avoir un impact très limité sur les communautés car les résultats de l’évaluation et du processus d’évaluation sont généralement des données propriétaires ;
  • les fournisseurs de support global : des entreprises qui proposent un support centralisé pour un ensemble de produits de logiciel libre, généralement en employant directement les développeurs ou en remontant les demandes de support ;
  • la validation juridique et l’expertise : ces entreprises n’apportent pas de développements de code source mais fournissent une aide à la vérification de conformité aux licences, parfois en apportant une garantie et une assurance contre les attaques juridiques ; certaines entreprises utilisent des outils pour assurer que le code n’est pas réutilisé ;
  • la formation et la documentation : des entreprises qui proposent de la formation, en ligne et en présentiel, des documentations et des manuels supplémentaires. Cela est généralement fourni dans le cadre d’un contrat de support, mais, récemment, quelques réseaux de centres de formation ont lancé des cours orientés spécifiquement vers le logiciel libre ;
  • le partage des coûts de R&D : une entreprise ou une société peut avoir besoin d’une nouvelle version ou d’une amélioration d’un paquet logiciel et financer un consultant ou un développeur pour réaliser le travail. Plus tard, le logiciel développé est redistribué en open source pour bénéficier de l’ensemble des développeurs expérimentés pouvant le déboguer et l’améliorer. Un bon exemple est la plateforme Maemo, utilisée par Nokia pour ses smartphones (comme le N810) ; au sein de Maemo, seul 7,5 % du code est propriétaire, apportant une réduction des coûts estimée à 228 millions de dollars (et une réduction du temps de mise sur le marché d’un an). Un autre exemple est l’écosystème Eclipse, un environnement de développement intégré (EDI) distribué à l’origine par IBM comme logiciel libre puis ensuite géré par la fondation Eclipse. De nombreuses entreprises ont choisi Eclipse comme socle pour leur produit et ont ainsi réduit le coût global pour la création d’un logiciel fournissant une fonctionnalité pour les développeurs. Il y a un grand nombre d’entreprises, d’universités et de personnes qui participent à l’écosystème Eclipse. Comme récemment constaté, IBM contribue aux alentours de 46 % au projet, les contributeurs à titre personnel représentant 25 % et un grand nombre d’entreprises comme Oracle, Borland, Actuate et de nombreuses autres ayant des participations allant de 1 à 7 %. Ceci est semblable aux résultats obtenus grâce à l’analyse du noyau Linux et qui montre que, lorsqu’il y a un écosystème sain et de grande taille, le partage des tâches réduit de manière significative les coûts de maintenance, dans [Gosh 06], on estime qu’il est possible de faire des économies de l’ordre de 36 % dans la recherche et la conception logicielle grâce à l’utilisation du logiciel libre, ces économies constituent en elles-mêmes le plus gros « marché » réel pour le logiciel libre, ce qui est démontré par le fait qu’au moins une partie du code des développeurs est basé sur du logiciel libre (56,2 % comme mentionné dans [ED 05]). Un autre excellent exemple de « coopétition » inter-entreprises est le projet WebKit, le moteur de rendu HTML à la base du navigateur Google Chrome ainsi que d’Apple Safari et qui est utilisé dans la majorité des appareils mobiles. Dans ce projet, après un délai initial d’un an, le nombre de contributions externes a commencé à devenir significatif et, après un an et demi, il surpasse largement les contributions d’Apple — réduisant de fait les coûts de maintenance et d’ingénierie grâce à la répartition des tâches entre les co-développeurs ;
  • les revenus indirects : une entreprise peut choisir de financer des projets de logiciel libre si ces projets peuvent créer une source de revenus importante pour des produits dérivés, non liés directement au code source ou au logiciel. L’un des cas les plus courants correspond à l’écriture de logiciel nécessaire au fonctionnement de matériel, par exemple, les pilotes d’un système d’exploitation pour un matériel spécifique. En fait, de nombreux fabricants de matériel distribuent déjà gratuitement leurs pilotes logiciels. Certains d’entre eux distribuent déjà certains de leurs pilotes (surtout ceux pour le noyau Linux) sous une licence libre. Le modèle du produit d’appel est une stratégie commerciale traditionnelle, répandue même à l’extérieur du monde du logiciel : dans ce modèle, les efforts sont consacrés à un projet de logiciel libre et open source afin de créer ou d’étendre un autre marché dans des conditions différentes. Par exemple, les fournisseurs de composants matériels investissent dans le développement de pilotes logiciels pour des systèmes d’exploitation open source (comme GNU/Linux) pour s’étendre sur le marché spécifique des composants. D’autres modèles de revenus auxiliaires sont ceux, par exemple, de la fondation Mozilla qui réunit une somme d’argent non négligeable grâce à un partenariat avec Google sur le moteur de recherche (estimé à 72 millions de dollars en 2006), tandis que SourceForge/OSTG est financé en majorité par les recettes des ventes en ligne du site partenaire ThinkGeek.

Certaines entreprises ont plus d’un modèle principal et sont, par conséquent, comptées en double ; notamment, la plupart des entreprises pratiquant une licence double vendent aussi du service de support. En outre, les experts d’un produit ne sont comptés que s’ils ont une partie visible de leur entreprise qui contribue au projet en tant que « commiter principal ». Autrement, le nombre d’experts serait bien plus élevé, du fait que certains projets sont au cœur du support commercial de nombreuses entreprises (de bons exemples sont OpenBravo et Zope).

Il faut aussi tenir compte du fait que les fournisseurs de plateforme, même s’ils sont limités en nombre, tendent à avoir des taux de facturation plus élevés que les experts ou que les entreprises à cœur ouvert. De nombreux chercheurs essaient d’identifier s’il y a un modèle plus « efficace » parmi ceux pris en compte ; ce que nous avons trouvé est que le futur le plus probable sera l’évolution d’un modèle à l’autre, avec une consolidation sur le long terme des consortiums de développement (comme les fondations Eclipse et Apache) qui fournissent une forte infrastructure légale et des avantages de développement ainsi que des spécialistes apportant des offres verticales pour des marchés spécifiques.

Conclusion

Le logiciel libre et open source permet non seulement une présence pérenne, et même très large, sur le marché (Red Hat est déjà proche du milliard de dollars de revenus annuels), mais aussi plusieurs modèles différents qui sont totalement impossibles avec le logiciel propriétaire. Le fait que le logiciel libre et open source est un bien non concurrent facilite aussi la coopération entre entreprises, tant pour accroître sa présence mondiale et pour signer des contrats à grande échelle pouvant demander des compétences multiples que sur le plan géographique (même produit ou service, région géographique différente) ; « verticalité » (entre produits) ou « horizontalité » (des domaines d’application). Cet adjuvant à créer de nouveaux écosystèmes est l’une des raisons expliquant que le logiciel libre et open source fait partie intégrante de la plupart des infrastructures informatiques dans le monde, enrichissant et aidant les entreprises et administrations publiques à réduire leurs coûts et à collaborer pour de meilleurs logiciels.

Bibliographie

  • [DB00] Daffara, C.Barahona, J.B. Free Software/Open Source: Information Society Opportunities for Europe working paper,http://eu.conecta.it paper, OSSEMP workshop, Third international conference on open source. Limerick 2007
  • [ED05] Evans Data, Open Source Vision report, 2005
  • [Eng10] Engelhardt S. Maurer S. The New (Commercial) Open Source: Does it Really Improve Social Welfare Goldman School of Public Policy Working Paper No.GSPP10-001, 2010
  • [Gar06] Gartner Group, Open source going mainstream. Gartner report, 2006
  • [Gosh06] Gosh, et al. Economic impact of FLOSS on innovation and competitiveness of the EU ICT sector. http://bit.ly/cNwUzû
  • [Koot03] Kooths, S.Langenfurth, M.Kaiwey,N.Open-Source Software: An Economic Assessment Technical report, Muenster Institute for Computational Economics (MICE), University of Muenster


>>> Source sur : http://www.framablog.org/index.php/post/Libres-conseils-40

La génération GitHub

La génération GitHub

GitHub a beau être une plateforme non libre de projets libres, force est de constater que cette « forge sociale » est devenue en quelques années l’un des centres névralgiques de la communauté.

Avec sa facilité d’usage, son appel permanent au fork et l’individuation des contributions, GitHub a permis a plus de monde de participer tout en ouvrant le Libre au delà du logiciel puisqu’il n’y a pas que du code proprement dit dedans (cf la liste de l’article traduit ci-dessous).

À tel point que certains n’hésitent pas à y voir un modèle pertinent pour toutes sorte de choses à commencer par la… démocratie !

Et si une génération toute entière était effectivement en train de naître sous nos yeux ?

GitHub

La génération Github : Pourquoi vous et moi pouvons désormais faire de l’Open Source

The GitHub Generation: Why We’re All in Open Source Now

Mikeal Rogers – 7 mars 2013 – Wired Opinion
(Traduction : Moosh, Sphinx, Peekmo, Chopin, goofy, misc, Uflex + anonymes)

GitHub a été conçu pour être une plate-forme de collaboration logicielle ouverte, mais c’est devenu une plate-forme pour déposer beaucoup plus de choses que du simple code. Elle est maintenant utilisée par des artistes, des créateurs, des propriétaires de maisons et des tas d’autres gens, par des entreprises entières… et même par des municipalités.

« N’importe qui peut maintenant changer les données quand de nouvelles pistes cyclables sont aménagées, quand de nouvelles routes sont construites ou quand de nouveaux immeubles sont construits » a annoncé récemment la ville de Chicago. Les gens planifient leurs projets de rénovation de maison sur GitHub. Un cabinet d’avocats a annoncé il y a quelques jours qu’il postait des documents juridiques pour des start-ups sur GitHub. Quelqu’un a même publié toutes les lois d’Allemagne sur GitHub l’année dernière (avec, s’il vous plaît, déjà 17 pull requests pour des modifications).

Bien sûr, GitHub reste majoritairement toujours utilisé par les programmeurs et développeurs qui font voler des AR.Drones avec Node.js ou construisent des sites web avec jQuery. Mais de plus en plus de gens passent de consommateurs à producteurs, et ils redéfinissent ainsi la culture de l’open source. Je crois que GitHub transforme l’open source comme l’internet a transformé l’industrie de la publication : un fossé culturel est en train de se creuser entre l’ancienne génération de gros projets libres et la nouvelle génération d’amateurs de projets libres d’aujourd’hui.

La révolution ne sera pas centralisée

Quand la plupart des gens entendent « open » source, ils pensent démocratie, distribution, égalité : tout le monde construit des choses pour que tout un chacun les utilise.

Mais cela n’a pas toujours été le cas. La plupart des logiciels open source ont été créés et maintenus par une classe privilégiée et protégée, les développeurs professionnels, qui interagissaient avec d’autre développeurs très semblables (ils sont pourtant suffisamment différents pour avoir de belles disputes).

Avant GitHub, je passais beaucoup de temps à penser et à discuter de la meilleure façon de gérer des projets open source parce que la coordination représentait un coût important d’un projet open source. Si important que lorsqu’un projet réussissait et développait une communauté assez grande, il était logique que le projet grandisse plutôt qu’il ne se fracture en projets plus petits. Mais plus le projet du logiciel devenait grand et complexe, plus il était difficile d’y contribuer. Ainsi, un choix de membres, lescommiters – étaient assignés à la gestion et à la production du projet. Cela menait souvent à des ruptures séparant ceux qui produisaient le projet et ceux qui les utilisaient.

GitHub a comblé ce fossé en faisant de l’open source quelque chose de bien plus décentralisé. C’est devenu davantage centré sur les individus que sur le projet.

La façon d’utiliser GitHub est trés personnelle. Une personne (je suis github.com/mikeal) a un compte, et tout ce qu’elle publie existe à un niveau en dessous d’elle. Si quelqu’un veut corriger quelque chose, il suffit de « forker » le projet, ce qui place une copie sous son propre compte.

Cette façon de travailler est trés stimulante : elle encourage les individus à corriger les problèmes et à prendre possession des correctifs au même niveau que le projet de départ. Cela donne également à chacun une identité dans cette nouvelle culture du libre. GitHub est actuellement le premier fournisseur d’identité pour la production collaborative sur internet pour faire plus que du développement de code.

J’ai contribué à des projets libres depuis plus de 10 ans, mais ce qui est différent maintenant est que je ne suis pas un membre d’un de ces projets, je suis un simple utilisateur, et contribuer un peu est devenu une petite partie du rôle d’un utilisateur. Des petites interactions entre moi et les mainteneurs de projets arrivent plusieurs fois par semaine sur tout type de projet que j’utilise. Et ça arrive encore plus souvent dans l’autre sens : des gens dont je n”ai jamais entendu parler m’envoient des petits bouts de code sur les petits projets que j’ai publiés.

La décentralisation comme démocratie

Les premières versions de GitHub ont très bien fait une chose : rendre la publication de votre code beaucoup plus facile (que la non-publication). Ceci était suffisant pour que beaucoup de projets connus, notamment Ruby on Rails, migrent sur GitHub presque immédiatement.

Mais ce qui s’est passé après est encore plus intéressant : les gens ont commencé à tout publier sur GitHub. Pousser du code est presque devenu une habitude, comme tweeter. En abaissant la barrière pour entrer et rendant plus facile la contribution à l’open source, GitHub a élargi la production collaborative aux utilisateurs occasionnels.

Aujourd’hui un vaste choix de logiciels simples et compréhensibles est accessible à une catégorie de gens créatifs qui n’avaient jusqu’alors pas les compétences techniques requises pour participer à des projets open source par le passé.

Ce mélange des relations entre les producteurs, les contributeurs et les consommateurs valorise naturellement les projets plus petits et plus faciles à comprendre — et a conduit à de nombreuses contributions. Au cours du mois de septembre 2012 par exemple, la moitié des utilisateurs actifs de GitHub qui ont poussé au moins un changeset, l’ont fait moins de cinq fois, avec 22% (environ 44 000 personnes) qui ont poussé seulement un seul changeset ce mois-ci.

L’accès de l’open source aux amateurs présente certains avantages évidents.

Faciliter les usages

Un des problèmes récurrents, avec le logiciel open source, a été la qualité des finitions. La documentation, le design des sites web et l’ergonomie en général ont toujours été un problème — spécialement par rapport à de nombreux concurrents propriétaires.

Mais maintenant, avec les facilités de collaboration, des utilisateurs moins portés sur la technologie et la connaissance du code peuvent plus facilement participer à améliorer les logiciels sur lesquels ils travaillent (ce qui peut être des petites choses comme l’humanisation des messages d’erreur de codage ou de légers changements graphiques en une ligne de CSS qui optimisent le rendu des sites web des navigateurs, anciennes versions incluses, et sur les téléphones mobiles).

Dans le nouvel open source, les gens veulent utiliser la technologie sans avoir besoin de devenir des experts. La facilité d’utilisation est plus valorisée que jamais.

Éviter de réinventer la roue

Les développeurs aiment les défis et plus ils ont de chances de les relever, plus leurs solutions peuvent être astucieuses. C’était parfait lorsque les utilisateurs de ces solutions étaient eux aussi des gens très compétents techniquement comme ceux qui prenaient plaisir à résoudre astucieusement ces anciens problèmes.

Mais les amateurs préfèrent les solutions qu’ils peuvent tenir pour acquises : une fois qu’un problème est résolu, ils reviennent rarement en arrière pour le réexaminer. Et dans la mesure où les amateurs ne créeront qu’à partir des solutions les plus compréhensibles, cela contraint les développeurs à élaborer des solutions simples qui rendent les problèmes complexes plus faciles à appréhender.

Soutenir un écosystème plus vaste

Node.js, projet dans lequel je suis activement impliqué, définit des modèles suffisamment simples pour que les gens puissent écrire de petites bibliothèques indépendantes et les publier à leur gré. Tous ceux qui s’impliquent dans l’écosystème peuvent en tirer profit sans coordination. C’est le pôle inverse de l’énorme pile verticale qui accompagne des tas d’outils et fonctionnalités (tels que dans les systèmes intégrant des plugins, comme Ember, Dojo et YUI) qui sont nécessaires pour réussir à développer dans des environnement propriétaires (pensez à Cocoa et au développement pour iOS). Dans les environnements ouverts, tels que Node.js sur GitHub, nous constatons que des API bien plus légères peuvent facilement tirer parti du reste de l’écosystème sans coordination. Moins il y a de coordination entre les développeurs et les bibliothèques et plus nous pouvons créer de la valeur.

GitHub a donné les capacités à une nouvelle génération de collaborer, de créer, de produire. Beaucoup de développeurs regretteront l’abandon des normes culturelles précédentes, telles que le statut descommiters (ceux qui sont autorisés à envoyer le code sur le dépôt) ou la bonne vieille guerre pour le choix de la bonne licence — mais l’avenir est déjà entre les mains d’une nouvelle génération qui a évolué.

Ce n’est pas un simple outil : c’est à la naissance d’une nouvelle culture à laquelle nous assistons.

>>> Licence : Creative Commons By-Sa.

Comme un jardin d’Éden

Comme un jardin d’Éden

Monnaie Libre reçoit dans cet épisode (du 20 février 2013) le blogueur Thierry Crouzet, ingénieur, journaliste, auteur à répétition d’essais, de nouvelles et de romans traitant d’internet, de la complexité, de la liberté. En 2012 il avait débranché. En 2013 il revient plus branché que jamais et vient de commettre un post percutant « Le revenu de base comme jardin d’Éden » dans lequel il explique sa vision du code monétaire privateur comme incompatible avec un code monétaire libre, et il cite en exemple le projet OpenUDC.

L’émission nous entraîne ainsi dans la discussion sur les codes démocratiques, les travaux d’Etienne Chouard, les évolutions des communautés des logiciels libres, les modes de gouvernance, mais aussi les semences végétales privatrices, et plus généralement les points aveugles irréductibles inhérents aux systèmes complexes. Un feu d’artifice avec toute l’énergie voulue !

crouzet

Thierry Crouzet

>>> Le blog de Thierry Crouzet
>>> Musique Creative Common by sa « lovely » de Tryad.
>>> Générique GNUArt « no more dreams » de nighter

>>> Monnaie libre est diffusée sous Licence Creative Commons Attribution 3.0

 

 

Tour de France du Numérique pour l’Éducation ou pour Microsoft ?

Tour de France du Numérique pour l’Éducation ou pour Microsoft ?

Nous sommes en 2013 et nous n’avons toujours pas réussi à éradiquer ce triste symptôme qui frappe depuis des années l’Éducation nationale française, à savoir la marchandisation Microsoft de nos écoles et son malheureux corollaire : le déni volontaire du logiciel libre et de sa culture.

Dernier exemple en date, cette initiative qui de prime abord semble tout aussi innocente que louable : le « Tour de France du Numérique pour l’Éducation ».

Elle est ainsi présentée sur le site du projet :

Le Café Pédagogique et le réseau SCEREN (CNDP-CRDP) sont heureux de vous inviter à l’étape du Tour de France du Numérique pour l’Éducation qui se tiendra dans votre région.
Ce rendez-vous sera l’occasion de rencontres et d’échanges sur des pratiques pédagogiques innovantes autour du numérique. Venez rencontrer des enseignants innovants.
Découvrez leurs projets et leurs usages des nouvelles technologies numériques en classe de l’école au lycée.
Venez tester les nouveautés dans les domaines des équipements, solutions et contenus numériques pour l’enseignement.
Nous vous attendons nombreux !

Si vous êtes un lecteur régulier de longue date du Framablog, vous savez qu’il faut se méfier de la marque déposée « enseignants innovants » du Café Pédagogique et de son principal bailleur de fonds Microsoft (cf tous ces billets passés mais aussi ce remarquable article de feu OWNI : Microsoft programme l’école). Et pourtant nous aurions tant aimé qu’il n’en aille pas de même cette fois-ci…

Déjà observons le look du site (Edit : Comme cela a été signalé dans les commentaires, l’image de la page en question a, tiens, tiens, changé depuis. On n’y voit plus que deux enfants derrière un écran anodin, fini l’ostensible tablette Windows 8 !) :

Tour de France du Numérique pour l'Éducation

Quelles jolies couleurs, quelle jolie typographie et surtout quelle jolie tablette, n’est-ce pas ! Dans la mesure où nous avons tous été matraqués (sans le souhaiter) de publicités Windows 8 depuis la rentrée, il n’y a plus qu’à faire le rapprochement. Et, en effet, on apprend tout en bas que Microsoft est partenaire de l’opération.

Mais #INDECT, ça sert à quoi ?

Mais #INDECT, ça sert à quoi ?

Qu’est ce que INDECT ?

INDECT, l’équivalent d’Echelon pour l’Europe, c’est bon, mangez-en qu’ils nous disent !

Oui, sauf que…

Si vous ne connaissiez toujours pas le projet européen INDECT, dédié à la surveillance généralisée par video-surveillanceProtection, voici une petite vidéo en français qui résume à peu près tout.

Cette vidéo n’est pas officielle, mais issue d’Anonymous, d’où la voix robotisée. De ce fait, suivant votre degré de paranoïa, vous pourriez percevoir quelques images terrifiantes, mais ce ne saurait être que coïncidences avec la future réalité.

D’ailleurs, ça me fait penser qu’aux États-Unis, il y a aussi le NGI, dans un concept très similaire.

Voici un communiqué supplémentaire à lire sur l’opération #OpBigBrother #IDP13 – International Day For Privacy

>>> Sources :  http://korben.info/quest-ce-que-indect.html

http://neosting.net/video/indect-ca-sert-a-quoi.html

>>> Vidéo diffusée en janvier 2013 par Korben &  sur leurs bogs respectifs.

Où va l’économie numérique ? : robotisation ou monopolisation ?

Où va l’économie numérique ? : robotisation ou monopolisation ?

“C’est peut-être difficile à croire, mais avant la fin de ce siècle, 70 % des emplois d’aujourd’hui sera remplacé par l’automatisation. Oui, cher lecteur, même votre travail vous sera enlevé par des machines. En d’autres termes, votre remplacement par un robot n’est qu’une question de temps”, affirme Kevin Kelly (@kevin2kelly) dans un passionnant article pour Wired intitulé : “meilleurs que les humains : pourquoi les robots vont (et doivent) prendre votre job”.

Votre remplacement par un robot n’est qu’une question de temps !

Ce bouleversement est induit par une deuxième vague dans l’automatisation, estime Kevin Kelly : une vague centrée sur la cognition artificielle, les capteurs bon marché, l’apprentissage automatique et l’intelligence distribuée. Et cette automatisation profonde va toucher tous les emplois, du travail manuel au travail intellectuel.

Après avoir remplacé les travailleurs à la chaîne, les robots vont remplacer les travailleurs dans les entrepôts. Ils seront capables de récupérer les colis, les trier et charger les commandes dans les camions. Le ramassage des fruits et légumes continuera à être robotisé, jusqu’à ce qu’aucun être humain n’y participe plus, hormis dans quelques fermes spécialisées. Dans les pharmacies, les robots distribueront les médicaments tandis que les pharmaciens se concentreront sur le conseil au patient. Le nettoyage des bureaux ou des écoles sera pris en charge par des robots nocturnes qui commenceront par faire des choses faciles à faire comme nettoyer les planchers ou les fenêtres avant finalement d’être capables de nettoyer les toilettes. Nos camions et voitures seront demain pilotés par des robots…

Alors que les robots ne vont cesser d’être intégrés aux tâches manuelles, ils vont également affecter le travail en col blanc. Narrative Science sait écrire des articles sur le sport à partir de statistiques et de résultats sportifs ou générer des résumés de performance boursière d’une entreprise à partir de textes trouvés sur le web. “Tout travail de paperasserie sera pris en charge par les robots, y compris une grande partie de la médecine. Même les domaines de la médecine qui ne sont pas définis par la paperasserie, comme la chirurgie, seront de plus en plus robotisés. Les tâches de routines de tout travaux à forte intensité d’information pourront être automatisées.” (…) La prise de contrôle par les robots sera épique… Et elle a déjà commencé.”

Si nous sommes à un point d’inflexion, estime Kelly, c’est parce que les machines ont acquis de l’intelligence. “Nous avons des idées préconçues sur la façon dont un robot intelligent devrait regarder et agir, et celles-ci peuvent nous faire oublier ce qui se passe déjà autour de nous. Nous pensons que l’intelligence artificielle doit être proche de celle de l’homme. Mais c’est là faire la même erreur que de croire que le vol artificiel devrait ressembler au vol des oiseaux et battre des ailes. Les robots vont penser différemment. Pour comprendre à quel point l’intelligence artificielle a déjà pénétré nos existences, nous devons nous débarrasser de l’idée que celle-ci sera la même que celle des hommes.”

Les robots de demain seront aussi simples à utiliser que des… ordinateurs

Prenez Baxter, le robot de travail de Rethink Robotic, conçu par Rodney Brooks (Wikipedia,@rodneyabrooks), l’inventeur du robot aspirateur Roomba. Baxter est un des premiers exemples d’une nouvelle classe de robots industriels créés pour travailler aux côtés des humains. Baxter n’a pas l’air impressionnant. Il a de grands bras musclés et un affichage à écran plat comme de nombreux robots industriels. Et les mains de Baxter effectuent des tâches manuelles répétitives, tout comme les robots d’usine savent le faire. Mais il est différent de trois façons importantes, souligne Kevin Kelly.

Les capacités de Baxter
Image : les capacités de Baxter.

Tout d’abord, il peut regarder autour de lui et indiquer où il regarde en bougeant les grands yeux animés qu’il a sur la tête. Il est capable de percevoir les humains qui travaillent près de lui pour éviter de les blesser. Et les humains peuvent voir s’il les voit. Jusqu’à présent, les robots industriels ne savaient pas faire cela, ce qui expliquait qu’ils devaient être physiquement séparés des humains. Un robot d’usine typique est la plupart du temps emprisonné dans un grillage ou une cage en verre. Ils sont tout simplement trop dangereux parce qu’ils ne sont pas conscients des autres. Cette isolement empêchait jusqu’à présent que de tels robots de travaillent dans une petite boutique par exemple, où il n’est pas facile de trouver de la place pour isoler quelque chose. On ne pouvait pas leur faire passer ou récupérer des matériaux facilement, sans mesures de sécurité lourdes. Mais avec Baxter, vous pouvez le brancher sur une prise de votre garage et travailler à ses côtés, sans risque.

N’importe qui peut former Baxter. Il n’est pas aussi rapide, puissant et précis que d’autres robots industriels, mais il est plus intelligent. Pour apprendre quelque chose au robot, il vous suffit de saisir ses bras et de les guider pour qu’il fasse les mouvements corrects de la séquence qu’il doit faire.“C’est une forme d’apprentissage simple consistant à montrer ce qu’il faut faire. Baxter apprend une procédure, puis la répète. Tout travailleur est capable de faire cet apprentissage au robot. Vous n’avez même plus besoin de savoir lire ou écrire.” Jusqu’à présent, les robots industriels nécessitaient des ingénieurs et des programmeurs hautement qualifiés pour écrire des milliers de lignes de code (et les déboguer) pour instruire le robot d’un simple changement de tâche. Le coût réel d’un robot industriel classique n’est pas son matériel, mais son fonctionnement, souligne Kevin Kelly. Les robots industriels coûtent plus de 100 000 dollars à l’achat, mais il faut compter au moins jusqu’à 4 fois ce montant pour le programmer, le former, le maintenir à jour ou le faire évoluer.

La troisième différence est donc que Baxter ne coûte pas cher. Vendus au prix de 22 000 dollars, nous sommes là dans un rapport de coût bien différent de ses prédécesseurs. Baxter est le premier robot-PC, et comme avec un ordinateur, l’utilisateur peut interagir directement et immédiatement avec lui, sans avoir besoin d’experts et l’utiliser pour des choses peu sérieuses voir frivoles. “De petits fabricants peuvent se l’offrir pour lui faire emballer des marchandises, pour personnaliser la peinture de leurs produits ou gérer leurs machines d’impression 3D. Et vous pourriez même vous en servir pour équiper une usine qui fabrique des iPhone”, s’amuse Kevin Kelly.

Brooks spécule déjà sur comment ses robots vont transformer la fabrication d’une manière encore plus brutale que la dernière révolution technologique. “Pour le moment, nous pensons l’industrialisation par rapport à la Chine. Mais les coûts de fabrication s’effondrent à cause des robots et les coûts de transports sont appelés à devenir un facteur plus important que les coûts de production. La proximité ne sera pas chère. L’avenir est à un réseau d’usines localement franchisées où les produits seront fabriqués à quelques kilomètres de l’endroit où on en a besoin.”

Les étapes de notre remplacement par des robots

Kevin Kelly propose une matrice pour comprendre comment le remplacement de nos activités par des robots va évoluer.

Il y a d’abord les emplois que l’homme peut accomplir, mais que les robots peuvent faire encore mieux. Les humains savent tisser le coton, mais les métiers automatisés savent le faire encore mieux que nous et pour quelques centimes. La seule raison d’acheter du tissu fabriqué à la main aujourd’hui, c’est parce qu’on peut apprécier les irrégularités, les imperfections humaines qu’il présente. Mais beaucoup d’imperfections humaines n’ont pas de valeur, dans la conduite de véhicules par exemple.

Pourtant, pour les tâches complexes, nous avons toujours tendance à croire qu’on ne peut pas faire confiance aux ordinateurs et aux robots, souligne Kevin Kelly. C’est pourquoi nous avons été lents à reconnaître la façon dont ils maîtrisent certaines routines conceptuelles et parfois même leur maîtrise de routines physiques. Le pilote automatique sait faire voler un 787, mais, irrationnellement, nous plaçons des pilotes dans le cockpit pour assister le pilote automatique… au cas où. Dans les années 1990, les évaluations informatisées de prêts bancaires ont remplacé les évaluateurs humains. “Nous avons accepté une fiabilité absolue dans la fabrication de robots, bientôt nous allons l’accepter dans l’intelligence robotique et de service.”

Il y a ensuite les emplois que les humains ne peuvent pas faire, mais que les robots savent très bien faire. Si l’homme a du mal à visser une vis en laiton sans aide, l’automatisation est capable d’en visser des milliers à l’heure. Sans automatisation, nous ne saurions pas fabriquer d’ordinateurs qui exigent un certain degré de précision, de contrôle et d’attention que nos corps d’animaux ne possèdent pas. Aucun groupe humain ne saurait chercher à travers toutes les pages web du monde entier sans employer un robot pour cela. Les plus grands avantages que l’on tire des robots et de l’automatisation viennent du fait qu’ils occupent des emplois que nous serions incapables de faire. Nous n’avons pas la capacité d’attention pour scanner chaque millimètre de cellule à la recherche de cellules cancéreuses. “Nous ne donnons pas de bons emplois aux robots. La plupart du temps, nous leur donnons des emplois que nous serions incapables de faire. Sans eux, ces emplois resteraient vacants.”

Il y a également les nouveaux emplois créés par l’automatisation, ceux que nous ne savions pas que nous pourrions faire. Grâce aux robots et à l’intelligence informatique, nous pouvons faire des choses que nous n’aurions jamais imaginé faire. Conduire un chariot sur Mars, imprimer un motif sur un tissu qu’un ami nous a envoyé par e-mail… Des possibilités créées principalement grâce aux nouvelles capacités des machines. Ce sont autant d’emplois que les machines rendent possibles. Avant que nous n’inventions l’automobile, la climatisation, les écrans plats et les dessins animés, aucun habitant de la Rome Antique n’avait souhaité pouvoir regarder de dessins animés en se rendant à Athènes dans un confortable char climatisé. Les premières intelligences artificielles intégrées aux jeux d’action ont donné à des millions d’adolescents l’envie, le besoin, de devenir des concepteurs de jeux professionnels. Un rêve qu’aucun garçon de l’époque victorienne n’a jamais eu. Chaque succès de l’automatisation génère de nouvelles professions – professions que nous n’aurions pas imaginées sans l’impulsion de l’automatisation. Pour le dire autrement, la majeure partie des nouvelles tâches créées par l’automatisation sont des tâches que seulement d’autres automates peuvent réaliser. Il y a fort à parier que les professions qui gagneront le plus d’argent en 2050 dépendront d’automatismes et de machines qui n’ont pas encore été inventées, estime Kevin Kelly. Autrement dit, nous ne pouvons pas voir ces emplois d’où nous sommes, car nous ne pouvons pas encore voir les machines et les technologies qui les rendront possibles. Les robots créent des emplois que nous ne savions même pas que nous voudrions faire. Et ce n’est pas si trivial. “Nos désirs sont inspirés par nos inventions antérieures. L’industrialisation a fait bien plus que prolonger la durée de vie moyenne des hommes. Elle a permis à un grand pourcentage de la population de décider de ce qu’elle voulait être : ballerine, musicien, mathématicien, athlète, créateur de mode, maître de yoga, auteur de fan-fiction… Demain, bien des machines seront capables de faire certains de ces métiers à notre place. Mais nous ne cesserons pas de rêver à trouver de nouvelles réponses à ce que nous voulons faire.”

“Notre travail est de trouver et fabriquer de nouvelles choses, qui deviendront plus tard des tâches faites par les robots.” Dans les années à venir, les robots pilotes de voitures et de camions vont devenir omniprésents. Et cette automatisation va engendrer de nouvelles occupations humaines par exemple pour optimiser nos trajets.

“La révolution technologique éclatera quand tout le monde aura son robot personnel, quand les descendants de Baxter seront à notre entière disposition”, estime Kevin Kelly. Imaginez-vous à la tête d’une petite ferme biologique. Votre flotte de robots ouvriers accomplira le désherbage, luttera contre les ravageurs de culture, récoltera les produits tels que prescrits par un robot surveillant qui ne sera rien d’autre qu’une sonde dans le sol. Les robots effectueront tout ce qui peut être mesuré.

A l’heure actuelle, tout cela semble impensable. Nous ne savons pas imaginer un robot capable d’assembler un ensemble d’ingrédients dans un cadeau ou fabriquer des pièces de rechange pour notre tondeuse à gazon ou des matériaux pour notre cuisine. Nous ne pouvons pas imaginer que nos enfants auront des douzaines de robots dans leurs garages, ni qu’ils seront les premiers concepteurs d’appareils.

“Un jour, tout le monde aura accès à un robot personnel, mais en posséder un ne garantit pas le succès”, nuance Kevin Kelly. “Au contraire, le succès ira à ceux qui innovent dans l’organisation, l’optimisation et la personnalisation du processus de réalisation de travaux réalisés avec les machines. Le regroupement géographique de la production deviendra important, non pas pour assurer une différence de coût de main-d’oeuvre, mais à cause de la différence qu’introduira l’expertise humaine. C’est la symbiose homme-robot. Notre mission humaine sera de continuer à faire des emplois pour les robots et c’est une tâche qui ne sera jamais finie.”

L’intégration des robots à notre environnement suit une loi naturelle estime Kelly qui en détaille les étapes temporelles avec humour :

1. Un robot/ordinateur ne peut pas faire les tâches que je fais.
2. OK, il peut faire beaucoup d’entre elles, mais pas tout ce que je fais.
3. OK, il peut faire tout ce que je fais, sauf qu’il a besoin de moi quand il tombe en panne, ce qui est fréquent.
4. OK, il fonctionne parfaitement sur des trucs de routine, mais j’ai besoin de le former à de nouvelles tâches.
5. OK, il peut faire mon ancien boulot ennuyeux, parce qu’il est évident que ce n’était pas un travail que les humains étaient censés faire.
6. Wow, maintenant que les robots font mon ancien boulot, mon nouveau travail est beaucoup plus amusant et paie plus !
7. Je suis tellement content qu’un robot/ordinateur ne peut absolument pas faire ce que je fais maintenant.

“Ce n’est pas une course contre les machines. Si nous luttons contre elles, nous perdrons. Il s’agit d’une course avec les machines. Vous serez payé à l’avenir en fonction de la façon dont vous travaillez avec les robots. Quatre-vingt-dix pour cent de vos collègues de travail seront des machines invisibles. Et la plupart des choses que vous ferez ne seront pas possibles sans elles. Il y aura une ligne floue entre ce que vous faites et ce qu’elles font. Vous pourriez ne plus le considérer comme un emploi, du moins au début, car tout ce qui semble être une corvée sera fait par des robots.

Nous devons laisser les robots prendre le relais. Ils vont faire des travaux que nous avons faits, et les faire beaucoup mieux que nous. Ils prendront des emplois que nous ne pouvons pas faire du tout. Ils vont faire des travaux que nous n’avions même jamais imaginé qu’ils pourraient être faits. Et ils vont nous aider à trouver de nouveaux emplois pour nous-mêmes, de nouvelles taches qui élargissent qui nous sommes. Ils nous permettront de nous concentrer toujours plus sur ce que nous avons de plus humain. Laissons les robots prendre nos emplois et laissons-les nous aider à imaginer les emplois qui compteront demain.”

Mais tous les emplois ne sont pas interchangeables

Bien sûr, la vision de Kevin Kelly paraîtra à beaucoup d’entre nous à la fois stimulante et naïve. Stimulante par que Kelly dresse un pont entre robots et ordinateurs. Naïve, car il laisse penser que tout emploi équivaut à un autre.

L’automatisation du monde, que ce soit par des robots, des machines apprenantes, des serveurs ou des algorithmes, n’a pas les mêmes conséquences sur tous les emplois, comme le souligne pourtant sa matrice. Si les emplois de conception se déplacent à mesure que l’automatisation évolue, ce n’est pas le cas des emplois de manutention notamment. Mais l’automatisation ne concerne pas que les emplois productifs. Dans le commerce où la banque déjà, dans les services à la personne demain, des secteurs où l’emploi pèse très lourd et ne sont pas nécessairement délocalisables, les automates se démultiplient également, faisant disparaître nombre d’emplois qui ne sont pas tous remplacés par des emplois de conception.

Comme le soulignaient Erik Brynjolfsson et d’Andrew McAfee dans Race Against the Machine : les machines ont pris la place de certains types d’emplois qui n’ont pas été remplacés. Malgré la croissance économique, celle des emplois n’a pas suivi le même rythme (voir “Vers une innovation sans emplois”). Kevin Kelly semble balayer du revers de la main le fait que les emplois de conception dont nous aurons besoin demain pour faire fonctionner ces robots n’adressent ni les mêmes volumes, ni les mêmes publics que les emplois manuels perdus.

Pourtant, beaucoup d’économistes souhaitent rester optimistes. L’économiste du Laboratoire de recherche sur les systèmes intelligents du Centre de recherche de Palo Alto et du Santa Fe InstituteBrian Arthurqui pourtant dénonçait encore récemment que l’économie numérique ne crée par suffisamment d’emplois, souligne que la productivité américaine pourrait retrouver une croissance de 2 à 3 % par an dans la prochaine décennie à mesure que la robotisation se développera, explique Art Pline pour le magazine KiplingerHarold Sirkin, un expert du Boston Consulting Group, prédit qu’à moyen terme, l’automatisation va rendre les services et les biens plus abordables et développer l’emploi. Reste que tous les spécialistes n’ont pas cet optimisme. David Autor, économiste au MIT estime que pour contrecarrer les impacts de la robotique sur l’emploi, il faudra s’appuyer sur l’éducation et la formation des travailleurs pour les faire monter en compétences. Pas si simple.

Pas d’innovation sans automatisation

Néanmoins, là où Kelly touche juste, c’est quand il pointe que nous n’échapperons pas à l’automatisation du monde. Au contraire, même : il semble bien ne pas y avoir d’innovation sans automatisation. C’est d’ailleurs certainement notre manque d’automatisation qui explique en partie notre retard de compétitivité. Comme le souligne l’économiste Michel Volledans un entretien publié par Dominique Lacroix : “La France a 5 fois moins de robots que l’Allemagne et 2 fois moins que l’Italie. De plus, le parc français de robots a vieilli. En France, la durée de vie des robots est de 20 ans, en Allemagne, elle est de 10 ans.

Quand on discute de système d’information avec des dirigeants d’entreprise français, on entend très souvent : “L’informatique coûte trop cher”. On en a un exemple avec Henri Proglio à la tête d’EDF. La seule consigne donnée à son Directeur des systèmes d’information a été : “Diminuez le coût de l’informatique”. C’est exactement l’opposé de ce qu’il faut faire. Une informatique modernisée rend l’entreprise plus fluide, permet d’améliorer la relation client, de mieux la documenter.”

Même constat dans les chiffres de la Fédération internationale de la robotique. Fin 2011, la France comptait 34 000 robots, un chiffre à peine plus élevé que celui de l’Espagne (29 000), très inférieur à celui de l’Italie (61 000) ou de l’Allemagne (163 000). Et comme le soulignait Emmanuel Schafroth pour Yahoo! Finances : “l’écart se creuse par rapport à nos concurrents. L’industrie française a installé un peu plus de 3 000 nouveaux robots en 2011, les Allemands près de sept fois plus ! (…) Selon Alexandre Mirlicourtois, directeur des études économiques de Xerfi études, l’industrie française est tout bonnement en voie d’obsolescence : “nos calculs montrent qu’au niveau mondial, 8 à 10% du parc est mis au rebut chaque année, contre 4% seulement en France. Un robot dure plus d’une vingtaine d’années en France contre 10 ans seulement dans le reste du monde”, note-t-il.”

Chris Anderson, dans son livre, Makers, la nouvelle révolution industrielle ne dit pas autre chose quand il évoque par exemple le fonctionnement de l’usine de Tesla Motors aux alentours de Détroit, entièrement automatisée avec des robots Kuka. Une usine ressemblant plus à une énorme machine à commande numérique configurable pour fabriquer presque n’importe quoi, permettant de fabriquer simultanément plusieurs modèles d’automobiles différentes, avec des pièces totalement différentes et même en les alternant entre elles.

“Quoiqu’il arrive de Tesla, son modèle de production triomphera. Il reflète simplement l’orientation prise par la puissance des technologies de fabrication numérique. Ce n’est pas une coïncidence si les robots Kuka sont construits en Allemagne. Cette automatisation flexible explique pourquoi l’industrie manufacturière de l’Allemagne parvient à prospérer malgré ses coûts relativement élevés face à la concurrence chinoise au point d’être le moteur de l’économie européenne.”

“L’ordinateur ne se contente pas de piloter l’usine moderne, il en devient le modèle même. Infiniment flexibles et adaptables, les robots industriels universels peuvent être associés pour créer la machine universelle. Et comme les ordinateurs, ils fonctionnent à n’importe quelle échelle, celle de votre bureau comme celle de l’usine Tesla. C’est cela – pas seulement l’essor d’une technologie avancée, mais aussi sa démocratisation – qui est la véritable révolution.”

Un récent rapport de la Fondation pour l’innovation politique, think tank libéral français, presse la France à robotiser son économie pour la sauver, en en présentant les enjeux et les stratégies : la robotisation détruit certes des emplois industriels (mais qui seraient détruits à terme), mais elle seule permet d’ouvrir de nouveaux débouchés et de nouvelles méthodes de production. “En rendant de la compétitivité à l’outil industriel Français, les robots sont l’allié de l’emploi industriel”, estime leur auteur, Robin Rivaton, qui appelle à favoriser le renouvellement du parc de robot des industries françaises et à développer leur production en France.

La technologie n’est pas responsable de la montée des inégalités : les monopoles qu’elle favorise, oui !

Pourtant, c’est Paul Krugman, prix Nobel d’économie et éditorialiste star du New York Times qui explique peut-être le mieux que le développement des technologies n’est peut-être pas le coupable idéal. Dans un récent édito intitulé “Robots et barons voleurs” il tente une explication pour comprendre pourquoi les profits des entreprises sont à la hausse alors que les salaires et la rémunération du travail ne suivent pas. Depuis les années 90, les bénéfices des entreprises ont augmenté au détriment des travailleurs en général, y compris des travailleurs les plus diplômés, ceux qui étaient censés réussir dans l’économie d’aujourd’hui et qui, jusque dans les années 90 avaient plus profité que les travailleurs moins diplômés des fruits de la croissance. La technologie désormais déplace tous les travailleurs et pas seulement les moins diplômés. “L’une des raisons pour lesquelles certains fabricants de haute technologie tentent un mouvement de retour de leur production aux Etats-Unis est que la pièce la plus précieuse d’un ordinateur, la carte mère, est essentiellement fabriquée par des robots, donc la main-d’oeuvre asiatique bon marché n’est plus une raison pour les produire à l’étranger. “

Dans leur livre Erik Brynjolfsson et Andrew McAfee soutiennent que des histoires similaires se jouent dans de nombreux domaines, y compris dans de plus en plus d’industrie de services tels que la traduction ou la recherche juridique. La plupart des emplois déplacés sont hautement qualifiés et à hauts salaires : les inconvénients de la technologie ne frappent plus seulement les travailleurs manuels, souligne Krugman.

Barry Lynn et Phillip Longman de la New America Foundation soutiennent, de façon convaincante, à mon avis, que l’augmentation de la concentration des entreprises pourrait être un facteur important dans la stagnation de la demande de main-d’œuvre : les sociétés utilisant leurs monopoles grandissants pour augmenter les prix sans verser de gains proportionnels à leurs employés. Je ne sais pas qui du monopole ou de la technologie explique le plus la dévaluation du travail”, confesse Krugman, mais il est plus que temps d’y réfléchir vraiment.

Comme le souligne Izabella Kaminska sur Alphaville, le blog du Financial Times, si nous connaissons une stagnation de l’innovation, ce n’est pas parce que l’humanité serait devenue moins innovante, mais parce que les intérêts en place ont une plus grande incitation à imposer de la rareté, à ralentir l’innovation. Ce que viendra d’ailleurs confirmer Krugman quelques semaines plus tard, comme l’explique encore Izabella Kaminska : la puissance des robots et de la technologie permettent certes de réduire le taux d’emploi. Mais plutôt que d’aider ceux qui ont perdu leur emploi à cause de la technologie, les entreprises utilisent la puissance de leurs monopoles pour augmenter le rendement du capital. C’est ce qui explique la montée d’inégalités.

Pour le dire plus simplement, ce n’est pas tant la technologie (la “robotisation” du monde) qui explique la montée des inégalités, que le développement de monopoles basés sur ces technologies.

Hubert Guillaud

>>> Source : http://www.internetactu.net/2013/01/17/ou-va-leconomie-numerique-23-robotisation-ou-monopolisation/

>>> Par  le 17/01/13

Le gouvernement confondrait-il République et féodalité ?

Benjamin Bayart. Le gouvernement confondrait-il République et féodalité ?

Suite aux débordements de fin d’année 2012 concernant des propos tenus autour de différents hashtags de type #SiMonFilsEstGay sur le service Twitter, la toile s’est enflammée, comme Paul Da Silva, et le gouvernement s’est exprimé. Le problème n’est en réalité pas du côté de Twitter, ni de ses utilisateurs qui se sont exprimés avec parfois une bonne dose de haine et de violence (sacro-sainte liberté d’expression), mais la réponse dans une tribune dans LeMonde.fr de Najat Vallaud-Belkacem, ministre des droits des femmes et porte-parole du gouvernement, titrant ; « Twitter doit respecter les valeurs de la République« . La ministre semble vouloir s’entretenir avec Twitter pour trouver une solution et le rendre responsable. Le filtrage n’est alors plus très loin.

Benjamin Bayart (FDN) a tenu à lui répondre à son tour, en s’exprimant dans une tribune libre, que je me permets de reprendre mot pour mot, et que je ne peux que vous encourager à lire.


Dans une tribune récente, publiée par Le Monde, Najat Vallaud-Belkacem nous a expliqué qu’au nom des valeurs de la République, il était nécessaire d’accorder au Seigneur de Touitteur droit de haut et basse justice sur ses terres. Dans la mesure où ça ne fait pas partie des valeurs habituellement défendues par la porte-parole du gouvernement, essayons d’analyser comment elle est arrivée à ce contresens.

La forme de la tribune

La tribune de la porte-parole du gouvernement est subtilement articulée. Pour les gens qui connaissent bien les questions de droit sur Internet, le billet est même équilibré et relativement juste. Mais pour le reste du bon peuple de France, il est largement faussé.

En effet, la ministre explique de manière claire le problème : des propos racistes, antisémites, ou homophobes sont tenus très ouvertement sur twitter. Elle explique que c’est illégal, mais également dangereux : les problèmes liés à l’homosexualité sont à l’origine d’un grand nombre de suicides chez les jeunes, et laisser impunis des propos de ce type y contribue. Et elle demande donc à Twitter de trouver une solution pour que ce ne soit plus possible.

Ensuite, de manière beaucoup moins lisible, par des allusions à la loi dite de confiance en l’économie numérique, au régime juridique de responsabilité des intermédiaires techniques, aux limites fixées en 2004 par le Conseil constitutionnel à ce régime, elle rappelle le contexte juridique. Twitter ne pourrait agir que dans un certain nombre de cas très précis, et le gouvernement souhaite simplement ouvrir un dialogue.

Quand on connaît les références nécessaires, c’est assez lisible. Le gouvernement veut juste froncer les sourcils en public, mais ne va pas bouleverser le droit. Quand on ne connaît pas ces références, on retient que Twitter va devoir empêcher les gens d’être méchants, en rétablissant l’ordre dans sa cour de récré.

Cette présentation est donc pernicieuse : elle vise à dire des choses fausses à une majorité de gens, tout en calmant d’avance la critique.

Le fond de la tribune

Le fond du propos ministériel, une fois qu’on en a retiré la mauvaise foi de sa formulation, pose cependant problème. Quand des gens se comportent mal, mettons qu’ils volent des mobylettes, ou qu’ils braconnent, ou qu’ils disent des choses interdites, les valeurs de la République nous disent que la police (pouvoir exécutif) et la justice (pouvoir judiciaire) doivent intervenir pour faire respecter la loi (pouvoir législatif), il me semble.

Ce que nous dit la porte-parole du gouvernement c’est que le seigneur des lieux doit se charger de faire la police et de réprimer les débordements quand ils ont lieu chez lui. Le gouvernement appelle donc à ce que sur Internet, on rétablisse les privilèges de juridiction donnant des pouvoirs de police et de justice aux seigneurs locaux.

Neutralité du Net

Vu comme ça, on sent bien que c’est une bêtise. Pour arriver à cette bêtise, la méthode est simple. Première étape, on rend Twitter responsable de ce qui se passe sur son réseau. Il devient donc responsable des bêtises que je peux dire avec mon compte twitter, me supprimant mon statut d’adulte responsable. Pour éviter de s’attirer les foudres de la loi, ou les gros yeux du gouvernement (on est léger en foudre en ce moment), Twitter va donc devoir surveiller ce que font les citoyens pour détecter les comportements problématiques et intervenir (police). Ensuite, il faudra bien qu’il puisse empêcher la publication des messages, puisqu’il en est responsable. Il a donc un droit de censure sur tout le contenu qu’il transporte (justice).

C’est un des nombreux pièges du débat sur la neutralité des réseaux : le rôle des intermédiaires techniques est fondamental. C’est sur ce rôle que repose celle de nos libertés qui est la mère de toutes les autres, la liberté d’expression. Rendre les intermédiaires techniques responsables de ce que font les utilisateurs, c’est rétablir un système féodal, et tuer la liberté d’expression. C’est exactement l’inverse qu’il faut faire : les intermédiaires techniques doivent être responsables du bon transport des propos de tous, sans discrimination. C’est la justice qui se chargera de sanctionner les abus prévus par la loi, pas Twitter.

L’ordre public

Enfin, sur le fond du problème qui n’était pas le fond du billet. Si le gouvernement se préoccupe vraiment du risque que les propos homophobes font courir à notre jeunesse, d’abord c’est une bonne nouvelle, ensuite il faut changer de méthode. Les propos homophobes les plus dangereux ne sont pas ceux qui circulent sur twitter et ne sont relayés par personne, mais ceux qui sont tenus par des élus (…)

Mme la ministre, faites appliquer la loi. Demandez aux procureurs d’agir systématiquement contre les propos homophobes, racistes ou antisémites. Twitter se fera un devoir de répondre à toutes les demandes d’identification des auteurs, j’en suis certain.

Mais ne rendez pas l’outil responsable de l’usage, c’est la première étape de la sortie de l’État de droit.

 

 

>>> Publié par Cyrille Neosting dans Actualité le  | Liens : http://nst.im/Z2oDc6 Image | Mots-clés : 

>>> Source & plus d’infos sur : http://neosting.net/actualite/tribune-libre-benjamin-bayart-le-gouvernement-confondre-republique-feodalite.html