Planet Libre

Okki : Les cinq extensions les plus populaires

Dans le but de connaître les extensions les plus populaires du moment, le site OMG! Ubuntu! avait demandé à ses lecteurs quelles étaient leurs extensions préférées.

1. Dash to Dock

Dash to Dock

Sans surprise, la première place revient à Dash to Dock. Ce dernier, permet de bénéficier d’un dock sur le bureau, permettant ainsi de pouvoir lancer des applications ou de basculer entre ces dernières sans avoir besoin de passer par la vue d’ensemble des activités.

De nombreuses options sont proposées, aussi bien au niveau de la personnalisation : choix du moniteur, position à l’écran (gauche, bas, haut, droite), masquage intelligent (automatique, seulement quand une application est en plein écran, quand il ne gêne pas les fenêtres…), taille du dock et des icônes, transparence…

Que du comportement : affichage ou non des applications favorites ou celles en cours de fonctionnement; choix de basculer vers la fenêtre d’une application déjà lancée quand on clique sur son icône ou d’ouvrir plutôt une nouvelle fenêtre; permettre de changer d’espace de travail en faisant défiler la souris au-dessus du dock…

La prochaine version (déjà disponible dans le dépôt git, pour les plus impatients) devrait également permettre d’isoler les espaces de travail dans le but de n’afficher que les icônes des applications en cours de fonctionnement sur l’espace courant.

2. TopIcons Plus

TopIcons Plus

Là encore, sans surprise, il s’agit de répondre à un fréquent reproche envers GNOME, en déplaçant les indicateurs (Skype, Franz, Telegram, Dropbox…) du tiroir de messagerie situé en bas à gauche, vers la barre supérieure.

3. Caffeine

Là, par contre, je suis plutôt étonné de voir cette extension en troisième position. Vu son nom, je pensais qu’il s’agissait d’une aide à la déconnexion pour les personnes passant beaucoup trop de temps devant leur écran, histoire de les inciter à faire une petite pause devant la machine à café. Mais en fait non. De cliquer sur l’icône en forme de tasse à café permet seulement d’activer ou de désactiver la mise en veille et l’écran de veille.

Une option permet d’ajouter une liste d’applications devant activer Caffeine automatiquement.

4. Drop Down Terminal

Sur le même principe que Guake, Drop Down Terminal permet d’obtenir, d’une simple pression de la touche ² (raccourci bien évidemment configurable), un terminal dans la moitié supérieure de l’écran, dans le but de pouvoir rapidement et à tout moment taper une ligne de commande.

5. Top Panel Workspace Scroll

Cette extension permet de changer d’espace de travail en faisant défiler la souris au-dessus de la barre supérieure. Pour rappel, Dash to Dock propose une option similaire, mais au-dessus du dock.

Mentions honorables

Au coude à coude pour la sixième place, on peut également citer Todo.txt, qui permet de créer une liste de tâches (ajout, suppression, marquage des tâches comme étant terminées, rassemblement par projet ou contexte, archivage des tâches terminées, priorisation…). Pixel Saver, qui permet de supprimer la barre de titre des fenêtres maximisées dans le but de gagner quelques pixels. Et pour finir, gTile, qui permet d’organiser les fenêtres en grille.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Journal du hacker : Liens intéressants Journal du hacker semaine #27

Pour la 27ème semaine de 2016, voici 5 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Okki : Sortie de BleachBit 1.12

BleachBit 1.12

BleachBit est une application qui permet d’optimiser le fonctionnement du système d’exploitation et de protéger la vie privée de ses utilisateurs. Il supprime les fichiers et les enregistrements inutiles des nombreuses applications prises en charge (cache, cookies, fichiers temporaires, journaux système, historique de navigation…), ce qui permet au système de fonctionner plus rapidement et de libérer de l’espace disque.

Similaire à CCleaner, il a l’avantage d’être libre, sans publicités, et de fonctionner aussi bien sous Windows que sous GNU/Linux ;)

En ce qui concerne les nouveautés apportées par cette version 1.12, nous noterons :

  • Correction d’un bug avec Google Chrome 51
  • Correction d’un bug concernant le nettoyage des miniatures avec les dernières versions de Chromium et Google Chrome
  • Correction d’un bug concernant le nettoyage de Firefox
  • Correction d’un plantage lorsque le fichier BleachBit.ini est corrompu
  • Mise à jour du nettoyeur des environnements de bureau GNOME et KDE
  • Mise à jour du nettoyeur des applications EasyTAG, Epiphany, Evolution, Rhythmbox et Transmission
  • Mise à jour du nettoyeur X11
  • Migration de GnomeVFS (qui est déprécié) vers GIO
  • Ajout de paquets DEB  pour Ubuntu 16.04 (Xenial Xerus) et RPM pour Fedora 24

Nous noterons également qu’à la suite des nombreuses dérives de SourceForge ces dernières années, comme un nombre croissant d’applications libres, BleachBit a finit par aller voir ailleurs. Le projet bénéficie désormais de son propre nom de domaine et d’un nouvel hébergeur, qui offre dans la foulée la prise en charge des protocoles HTTP/2 et IPv6, un accès sécurisé au travers d’HTTPS (TLS version 1.2), ainsi que l’utilisation d’un CDN (apparemment CloudFlare).

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Les anciens Léviathans II — Internet. Pour un contre-ordre social

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?

Cet article est une re-publication sur le framablog, car ce texte s’inscrit dans une série de réflexions.

Vous avez raté les épisodes précédents ?

La série d’articles sur le framablog

De la légitimité

Michel Foucault, disparu il y a trente ans, proposait d’approcher les grandes questions du monde à travers le rapport entre savoir et pouvoir. Cette méthode a l’avantage de contextualiser le discours que l’on est en train d’analyser : quels discours permettent d’exercer quels pouvoirs ? Et quels pouvoirs sont censés induire quelles contraintes et en vertu de quels discours ? Dans un de ses plus célèbres ouvrages, Surveiller et punir[1], Foucault démontre les mécanismes qui permettent de passer de la démonstration publique du pouvoir d’un seul, le monarque qui commande l’exécution publique des peines, à la normativité morale et physique imposée par le contrôle, jusqu’à l’auto-censure. Ce n’est plus le pouvoir qui est isolé dans la forteresse de l’autorité absolue, mais c’est l’individu qui exerce lui-même sa propre coercition. Ainsi, Surveiller et punir n’est pas un livre sur la prison mais sur la conformation de nos rapports sociaux à la fin du XXe siècle.

 

 

Deux autres auteurs et œuvres pas du tout importants. Du tout, du tout.

Deux autres auteurs et œuvres pas du tout importants. Du tout, du tout.

 

Les modèles économiques ont suivi cet ordre des choses : puisque la société est individualiste, c’est à l’individu que les discours doivent s’adresser. La plupart des modèles économiques qui préexistent à l’apparition de services sur Internet furent considérés, au début du XXIe siècle, comme les seuls capables de générer des bénéfices, de l’innovation et du bien-être social. L’exercice de la contrainte consistait à susciter le consentement des individus-utilisateurs dans un rapport qui, du moins le croyait-on, proposait une hiérarchie entre d’un côté les producteurs de contenus et services et, de l’autre côté, les utilisateurs. Il n’en était rien : les utilisateurs eux-mêmes étaient supposés produire des contenus œuvrant ainsi à la normalisation des rapports numériques où les créateurs exerçaient leur propre contrainte, c’est-à-dire accepter le dévoilement de leur vie privée (leur identité) en guise de tribut à l’expression de leurs idées, de leurs envies, de leurs besoins, de leurs rêves. Que n’avait-on pensé plus tôt au spectaculaire déploiement de la surveillance de masse focalisant non plus sur les actes, mais sur les éléments qui peuvent les déclencher ? Le commerce autant que l’État cherche à renseigner tout comportement prédictible dans la mesure où, pour l’un il permet de spéculer et pour l’autre il permet de planifier l’exercice du pouvoir. La société prédictible est ainsi devenue la force normalisatrice en fonction de laquelle tout discours et tout pouvoir s’exerce désormais (mais pas exclusivement) à travers l’organe de communication le plus puissant qui soit : Internet. L’affaire Snowden n’a fait que focaliser sur l’un de ses aspects relatif aux questions des défenses nationales. Mais l’aspect le plus important est que, comme le dit si bien Eben Moglen dans une conférence donnée à Berlin en 2012[2], « nous n’avons pas créé l’anonymat lorsque nous avons inventé Internet. »

Depuis le milieu des années 1980, les méthodes de collaboration dans la création de logiciels libres montraient que l’innovation devait être collective pour être assimilée et partagée par le plus grand nombre. La philosophie du Libre s’opposait à la nucléarisation sociale et proposait un modèle où, par la mise en réseau, le bien-être social pouvait émerger de la contribution volontaire de tous adhérant à des objectifs communs d’améliorations logicielles, techniques, sociales. Les créations non-logicielles de tout type ont fini par suivre le même chemin à travers l’extension des licences à des œuvres non logicielles. Les campagnes de financement collaboratif, en particulier lorsqu’elles visent à financer des projets sous licence libre, démontrent que dans un seul et même mouvement, il est possible à la fois de valider l’impact social du projet (par l’adhésion du nombre de donateurs) et assurer son développement. Pour reprendre Eben Moglen, ce n’est pas l’anonymat qui manque à Internet, c’est la possibilité de structurer une société de la collaboration qui échappe aux modèles anciens et à la coercition de droit privé qu’ils impliquent. C’est un changement de pouvoir qui est à l’œuvre et contre lequel toute réaction sera nécessairement celle de la punition : on comprend mieux l’arrivée plus ou moins subtile d’organes gouvernementaux et inter-gouvernementaux visant à sanctionner toute incartade qui soit effectivement condamnable en vertu du droit mais aussi à rigidifier les conditions d’arrivée des nouveaux modèles économiques et structurels qui contrecarrent les intérêts (individuels eux aussi, par définition) de quelques-uns. Nous ne sommes pas non plus à l’abri des resquilleurs et du libre-washing cherchant, sous couvert de sympathie, à rétablir une hiérarchie de contrôle.

Dans sa Lettre aux barbus[3], le 5 juin 2014, Laurent Chemla vise juste : le principe selon lequel « la sécurité globale (serait) la somme des sécurités individuelles » implique que la surveillance de masse (rendue possible, par exemple, grâce à notre consentement envers les services gratuits dont nous disposons sur Internet) provoque un déséquilibre entre d’une part ceux qui exercent le pouvoir et en ont les moyens et les connaissances, et d’autre part ceux sur qui s’exerce le pouvoir et qui demeurent les utilisateurs de l’organe même de l’exercice de ce pouvoir. Cette double contrainte n’est soluble qu’à la condition de cesser d’utiliser des outils centralisés et surtout s’en donner les moyens en « (imaginant) des outils qui créent le besoin plutôt que des outils qui répondent à des usages existants ». C’est-à-dire qu’il relève de la responsabilité de ceux qui détiennent des portions de savoir (les barbus, caricature des libristes) de proposer au plus grand nombre de nouveaux outils capables de rétablir l’équilibre et donc de contrecarrer l’exercice illégitime du pouvoir.

Une affaire de compétences

Par bien des aspects, le logiciel libre a transformé la vie politique. En premier lieu parce que les licences libres ont bouleversé les modèles[4] économiques et culturels hérités d’un régime de monopole. En second lieu, parce que les développements de logiciels libres n’impliquent pas de hiérarchie entre l’utilisateur et le concepteur et, dans ce contexte, et puisque le logiciel libre est aussi le support de la production de créations et d’informations, il implique des pratiques démocratiques de décision et de liberté d’expression. C’est en ce sens que la culture libre a souvent été qualifiée de « culture alternative » ou « contre-culture » parce qu’elle s’oppose assez frontalement avec les contraintes et les usages qui imposent à l’utilisateur une fenêtre minuscule pour échanger sa liberté contre des droits d’utilisation.

Contrairement à ce que l’on pouvait croire il y a seulement une dizaine d’années, tout le monde est en mesure de comprendre le paradoxe qu’il y a lorsque, pour pouvoir avoir le droit de communiquer avec la terre entière et 2 amis, vous devez auparavant céder vos droits et votre image à une entreprise comme Facebook. Il en est de même avec les formats de fichiers dont les limites ont vite été admises par le grand public qui ne comprenait et ne comprend toujours pas en vertu de quelle loi universelle le document écrit il y a 20 ans n’est aujourd’hui plus lisible avec le logiciel qui porte le même nom depuis cette époque. Les organisations libristes telles la Free Software Foundation[5], L’Electronic Frontier Foundation[6], l’April[7], l’Aful[8], Framasoft[9] et bien d’autres à travers le monde ont œuvré pour la promotion des formats ouverts et de l’interopérabilité à tel point que la décision publique a dû agir en devenant, la plupart du temps assez mollement, un organe de promotion de ces formats. Bien sûr, l’enjeu pour le secteur public est celui de la manipulation de données sensibles dont il faut assurer une certaine pérennité, mais il est aussi politique puisque le rapport entre les administrés et les organes de l’État doit se faire sans donner à une entreprise privée l’exclusivité des conditions de diffusion de l’information.

Extrait de l'expolibre de l'APRIL

Extrait de l’expolibre de l’APRIL

 

Les acteurs associatifs du Libre, sans se positionner en lobbies (alors même que les lobbies privés sont financièrement bien plus équipés) et en œuvrant auprès du public en donnant la possibilité à celui-ci d’agir concrètement, ont montré que la société civile est capable d’expertise dans ce domaine. Néanmoins, un obstacle de taille est encore à franchir : celui de donner les moyens techniques de rendre utilisables les solutions alternatives permettant une émancipation durable de la société. Peine perdue ? On pourrait le croire, alors que des instances comme le CNNum (Conseil National du Numérique) ont tendance à se résigner[10] et penser que les GAFA (Google, Apple, Facebook et Amazon) seraient des autorités incontournables, tout comme la soumission des internautes à cette nouvelle forme de féodalité serait irrémédiable.

Pour ce qui concerne la visibilité, on ne peut pas nier les efforts souvent exceptionnels engagés par les associations et fondations de tout poil visant à promouvoir le Libre et ses usages auprès du large public. Tout récemment, la Free Software Foundation a publié un site web multilingue exclusivement consacré à la question de la sécurité des données dans l’usage des courriels. Intitulé Email Self Defense[11], ce guide explique, étape par étape, la méthode pour chiffrer efficacement ses courriels avec des logiciels libres. Ce type de démarche est en réalité un symptôme, mais il n’est pas seulement celui d’une réaction face aux récentes affaires d’espionnage planétaire via Internet.

Pour reprendre l’idée de Foucault énoncée ci-dessus, le contexte de l’espionnage de masse est aujourd’hui tel qu’il laisse la place à un autre discours : celui de la nécessité de déployer de manière autonome des infrastructures propres à l’apprentissage et à l’usage des logiciels libres en fonction des besoins des populations. Auparavant, il était en effet aisé de susciter l’adhésion aux principes du logiciel libre sans pour autant déployer de nouveaux usages et sans un appui politique concret et courageux (comme les logiciels libres à l’école, dans les administrations, etc.). Aujourd’hui, non seulement les principes sont socialement intégrés mais de nouveaux usages ont fait leur apparition tout en restant prisonniers des systèmes en place. C’est ce que soulève très justement un article récent de Cory Doctorow[12] en citant une étude à propos de l’usage d’Internet chez les jeunes gens. Par exemple, une part non négligeable d’entre eux suppriment puis réactivent au besoin leurs comptes Facebook de manière à protéger leurs données et leur identité. Pour Doctorow, être « natifs du numérique » ne signifie nullement avoir un sens inné des bons usages sur Internet, en revanche leur sens de la confidentialité (et la créativité dont il est fait preuve pour la sauvegarder) est contrecarré par le fait que « Facebook rend extrêmement difficile toute tentative de protection de notre vie privée » et que, de manière plus générale, « les outils propices à la vie privée tendent à être peu pratiques ». Le sous-entendu est évident : même si l’installation logicielle est de plus en plus aisée, tout le monde n’est capable d’installer chez soi des solutions appropriées comme un serveur de courriel chiffré.

Que faire ?

Le diagnostic posé, que pouvons-nous faire ? Le domaine associatif a besoin d’argent. C’est un fait, d’ailleurs remarqué par le gouvernement français, qui avait fait de l’engagement associatif la grande « cause nationale de l’année 2014 ». Cette action[13] a au moins le mérite de valoriser l’économie sociale et solidaire, ainsi que le bénévolat. Les associations libristes sont déjà dans une dynamique similaire depuis un long moment, et parfois s’essoufflent… En revanche, il faut des investissements de taille pour avoir la possibilité de soutenir des infrastructures libres dédiées au public et répondant à ses usages numériques. Ces investissements sont difficiles pour au moins deux raisons :

  • la première réside dans le fait que les associations ont pour cela besoin de dons en argent. Les bonnes volontés ne suffisent pas et la monnaie disponible dans les seules communautés libristes est à ce jour en quantité insuffisante compte tenu des nombreuses sollicitations ;
  • la seconde découle de la première : il faut lancer un mouvement de financements participatifs ou des campagnes de dons ciblées de manière à susciter l’adhésion du grand public et proposer des solutions adaptées aux usages.

Pour cela, la première difficulté sera de lutter contre la gratuité. Aussi paradoxal que cela puisse paraître, la gratuité (relative) des services privateurs possède une dimension attractive si puissante qu’elle élude presque totalement l’existence des solutions libres ou non libres qui, elles, sont payantes. Pour rester dans le domaine de la correspondance, il est très difficile aujourd’hui de faire comprendre à Monsieur Dupont qu’il peut choisir un hébergeur de courriel payant, même au prix « participatif » d’1 euro par mois. En effet, Monsieur Dupont peut aujourd’hui utiliser, au choix : le serveur de courriel de son employeur, le serveur de courriel de son fournisseur d’accès à Internet, les serveurs de chez Google, Yahoo et autres fournisseurs disponibles très rapidement sur Internet. Dans l’ensemble, ces solutions sont relativement efficaces, simples d’utilisation, et ne nécessitent pas de dépenses supplémentaires. Autant d’arguments qui permettent d’ignorer la question de la confidentialité des courriels qui peuvent être lus et/ou analysés par son employeur, son fournisseur d’accès, des sociétés tierces…

Pourtant des solutions libres, payantes et respectueuses des libertés, existent depuis longtemps. C’est le cas de Sud-Ouest.org[14], une plate-forme d’hébergement mail à prix libre. Ou encore l’association Lautre.net[15], qui propose une solution d’hébergement de site web, mais aussi une adresse courriel, la possibilité de partager ses documents via FTP, la création de listes de discussion, etc. Pour vivre, elle propose une participation financière à la gestion de son infrastructure, quoi de plus normal ?

Aujourd’hui, il est de la responsabilité des associations libristes de multiplier ce genre de solutions. Cependant, pour dégager l’obstacle de la contrepartie financière systématique, il est possible d’ouvrir gratuitement des services au plus grand nombre en comptant exclusivement sur la participation de quelques-uns (mais les plus nombreux possible). En d’autres termes, il s’agit de mutualiser à la fois les plates-formes et les moyens financiers. Cela ne rend pas pour autant les offres gratuites, simplement le coût total est réparti socialement tant en unités de monnaie qu’en contributions de compétences. Pour cela, il faut savoir convaincre un public déjà largement refroidi par les pratiques des géants du web et qui perd confiance.

Framasoft propose des solutions

Parmi les nombreux projets de Framasoft, il en est un, plus généraliste, qui porte exclusivement sur les moyens techniques (logiciels et matériels) de l’émancipation du web. Il vise à renouer avec les principes qui ont guidé (en des temps désormais très anciens) la création d’Internet, à savoir : un Internet libre, décentralisé (ou démocratique), éthique et solidaire (l.d.e.s.).

Framasoft n’a cependant pas le monopole de ces principes l.d.e.s., loin s’en faut, en particulier parce que les acteurs du Libre œuvrent tous à l’adoption de ces principes. Mais Framasoft compte désormais jouer un rôle d’interface. À l’instar d’un Google qui rachète des start-up pour installer leurs solutions à son compte et constituer son nuage, Framasoft se propose depuis 2010, d’héberger des solutions libres pour les ouvrir gratuitement à tout public. C’est ainsi que par exemple, des particuliers, des syndicats, des associations et des entreprises utilisent les instances Framapad et Framadate. Il s’agit du logiciel Etherpad, un système de traitement de texte collaboratif, et d’un système de sondage issu de l’Université de Strasbourg (Studs) permettant de convenir d’une date de réunion ou créer un questionnaire. Des milliers d’utilisateurs ont déjà bénéficié de ces applications en ligne ainsi que d’autres, qui sont listées sur Framalab.org[16].

Depuis le début de l’année 2014, Framasoft a entamé une stratégie qui, jusqu’à présent est apparue comme un iceberg aux yeux du public. Pour la partie émergée, nous avons tout d’abord commencé par rompre radicalement les ponts avec les outils que nous avions tendance à utiliser par pure facilité. Comme nous l’avions annoncé lors de la campagne de don 2013, nous avons quitté les services de Google pour nos listes de discussion et nos analyses statistiques. Nous avons choisi d’installer une instance Bluemind, ouvert un serveur Sympa, mis en place Piwik ; quant à la publicité et les contenus embarqués, nous pouvons désormais nous enorgueillir d’assurer à tous nos visiteurs que nous ne nourrissons plus la base de données de Google. À l’échelle du réseau Framasoft, ces efforts ont été très importants et ont nécessité des compétences et une organisation technique dont jusque là nous ne disposions pas.

L'état de la Dégooglisation en octobre 2015...

L’état de la Dégooglisation en octobre 2015…

 

Nous ne souhaitons pas nous arrêter là. La face immergée de l’iceberg est en réalité le déploiement sans précédent de plusieurs services ouverts. Ces services ne sont pas seulement proposés, ils sont accompagnés d’une pédagogie visant à montrer comment[17] installer des instances similaires pour soi-même ou pour son organisation. Nous y attachons d’autant plus d’importance que l’objectif n’est pas de commettre l’erreur de proposer des alternatives centralisées mais d’essaimer au maximum les solutions proposées.

Au mois de juin, nous avons lancé une campagne de financement participatif afin d’améliorer Etherpad (sur lequel est basé notre service Framapad) en travaillant sur un plugin baptisé Mypads : il s’agit d’ouvrir des instances privées, collaboratives ou non, et les regrouper à l’envi, ce qui permettra in fine de proposer une alternative sérieuse à Google Docs. À l’heure où j’écris ces lignes, la campagne est une pleine réussite et le déploiement de Mypads (ainsi que sa mise à disposition pour toute instance Etherpad) est prévue pour le dernier trimestre 2014. Nous avons de même comblé les utilisateurs de Framindmap, notre créateur en ligne de carte heuristiques, en leur donnant une dimension collaborative avec Wisemapping, une solution plus complète.

Au mois de juillet, nous avons lancé Framasphère[18], une instance Diaspora* dont l’objectif est de proposer (avec Diaspora-fr[19]) une alternative à Facebook en l’ouvrant cette fois au maximum en direction des personnes extérieures au monde libriste. Nous espérons pouvoir attirer ainsi l’attention sur le fait qu’aujourd’hui, les réseaux sociaux doivent afficher clairement une éthique respectueuse des libertés et des droits, ce que nous pouvons garantir de notre côté.

Enfin, après l’été 2014, nous comptons de même offrir aux utilisateurs un moteur de recherche (Framasearx) et d’ici 2015, si tout va bien, un diaporama en ligne, un service de visioconférence, des services de partage de fichiers anonymes et chiffrés, et puis… et puis…

Aurons-nous les moyens techniques et financiers de supporter la charge ? J’aimerais me contenter de dire que nous avons la prétention de faire ainsi œuvre publique et que nous devons réussir parce qu’Internet a aujourd’hui besoin de davantage de zones libres et partagées. Mais cela ne suffit pas. D’après les derniers calculs, si l’on compare en termes de serveurs, de chiffre d’affaires et d’employés, Framasoft est environ 38.000 fois plus petit que Google[20]. Or, nous n’avons pas peur, nous ne sommes pas résignés, et nous avons nous aussi une vision au long terme pour changer le monde[21]. Nous savons qu’une population de plus en plus importante (presque majoritaire, en fait) adhère aux mêmes principes que ceux du modèle économique, technique et éthique que nous proposons. C’est à la société civile de se mobiliser et nous allons développer un espace d’expression de ces besoins avec les moyens financiers de 200 mètres d’autoroute en équivalent fonds publics. Dans les mois et les années qui viennent, nous exposerons ensemble des méthodes et des exemples concrets pour améliorer Internet. Nous aider et vous investir, c’est rendre possible le passage de la résistance à la réalisation.

Pour aller plus loin :

Ce document est placé sous Licence Art Libre 1.3 (Document version 1.0)
Paru initialement dans Linux Pratique n°85 Septembre/Octobre 2014, avec leur aimable autorisation.

Notes

[1] Michel Foucault, Surveiller et punir. Naissance de la prison, Paris : Gallimard, 1975 ; http://fr.wikipedia.org/wiki/Surveiller_et_punir

[2] Eben Moglen, « Why Freedom of Thought Requires Free Media and Why Free Media Require Free Technology », Re:Publica Conference, 02 mai 2012, Berlin ; http://12.re-publica.de/panel/why-freedom-of-thought-requires-free-media-and-why-free-media-require-free-technology/

[3] Laurent Chemla, « Lettre aux barbus », Mediapart, 05/06/2014 ; http://blogs.mediapart.fr/blog/laurent-chemla/050614/lettre-aux-barbus

[4] Benjamin Jean, Option libre. Du bon usage des licences libres, Paris : Framasoft/Framabook, 2011 ; http://framabook.org/option-libre-du-bon-usage-des-licences-libres

[5] La FSF se donne pour mission mondiale la promotion du logiciel libre et la défense des utilisateurs ; http://www.fsf.org/

[6] L’objectif de l’EFF est de défendre la liberté d’expression sur Internet, ce qui implique l’utilisation des logiciels libres ; http://www.eff.org

[7] April. Promouvoir et défendre le logiciel libre ; http://www.april.org

[8] Association Francophone des Utilisateurs de Logiciels Libres ; https://aful.org

[9] Framasoft, La route est longue mais la voie est libre ; http://framasoft.org

[10] Voir à ce sujet l’analyse du dernier rapport du CNNum sur « la neutralité des plateformes », par Stéphane Bortzmeyer ; http://www.bortzmeyer.org/neutralite-plateformes.html

[11] Autodéfense courriel ; https://emailselfdefense.fsf.org/fr/.

[12] Cory Doctorow, « Vous êtes “natif du numérique” ? – Ce n’est pas si grave, mais… », trad. fr. sur Framablog, le 6 juin 2014 ; https://framablog.org/index.php/post/2014/06/05/vous-etes-natifs-num%C3%A9riques-pas-grave-mais

[13] Sera-t-elle efficace ? c’est une autre question

[14] Plateforme libre d’hébergement mail à prix libre ; https://www.sud-ouest.org

[15] L’Autre Net, hébergeur associatif autogéré ; http://www.lautre.net

[16] Le laboratoire des projets Framasoft ; https://framalab.org

[17] On peut voir ce tutoriel d’installation de Wisemapping comme exemple de promotion de la décentralisation ; http://framacloud.org/cultiver-son-jardin/installation-de-wisemapping/

[18] Un réseau social libre, respectueux et décentralisé ; https://framasphere.org

[19] Noeud du réseau Diaspora*, hébergé en France chez OVH ; https://diaspora-fr.org/

[20] Voir au sujet de la dégooglisation d’Internet la conférence de Pierre-Yves Gosset lors des Rencontres Mondiales du Logiciel Libre, juillet 2014, Montpellier ; http://video.rmll.info/videos/quelles-alternatives-a-google-retours-sur-lexperience-framacloud

[21] Cette vision du monde vaut bien celle de Google, qui faisait l’objet de la Une de Courrier International du mois de mai 2014. http://www.courrierinternational.com/article/2014/05/27/google-maitre-du-futur.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

RaspbianFrance : Transmission sur OSMC, installer un client Torrent sur votre Raspberry Pi

Ce tutoriel fait suite à notre article dédié aux sous-titres OpenSubtitle sur OSMC. Pour rappel, François L s’est mis en tête de créer le tutoriel parfait pour rendre OSMC complètement indépendant !
D’abord destinée à ses amis, François a décidé de partager son œuvre à la communauté. Nous avons ainsi travaillé ensemble afin de mettre en place une série de tutoriels dans le but de vous aider à mettre en place OSMC.

Dans cet article nous allons vous guider pas à pas dans l’installation de Transmission, un client Torrent open source, sur votre Raspberry Pi !

Pré-requis pour installer Transmission sur OSMC

Comme pour notre tutoriel précédent, nous considérons que vous avez déjà installé OSMC sur votre Raspberry Pi.
Si ce n’est pas le cas, reportez-vous à notre tutoriel sur l’installation de Kodi sur la Raspberry Pi.
Pour rappel, afin d’installer OSMC correctement, vous aurez au minimum besoin d'une Raspberry Pi 3, laquelle sera couplée à une alimentation, et devra disposer d’une carte MicroSD sur laquelle sera installé OSMC.

Installer un client torrent sur OSMC

Comme pour OpenSubtitle, tout va se passer via l’interface graphique. Sur OSMC, le client torrent qui nous intéresse est disponible sous forme d’add-on. Nous allons donc installer Transmission via l’appStore de OSMC.
Sélectionnez « My OSMC », puis « APP STORE » et enfin choisissez « Transmission Torrent Client ».
Une fois sélectionné, Transmission va s’installer tout seul sur votre Raspberry Pi.

Maintenant que Transmission est installé sur la Raspberry Pi, nous allons devoir le configurer !
Pour réaliser la configuration du client torrent, nous avons besoin de nous connecter à la Raspberry en SSH.

Configuration de Transmission sur votre Raspberry Pi

Dans ce tutoriel, nous allons configurer notre le client torrent Transmission de façon à obtenir un système avec un disque dur branché à la Raspberry Pi 3, et où les fichiers téléchargés en torrent sont enregistrés sur le disque dur externe.

Monter un disque dur externe sur OSMC

Au démarrage de la machine, OMSC monte automatiquement les disques durs dans le dossier /media.

Ainsi vous retrouverez votre disque à cet emplacement :

/media/

Nous allons nous connecter en SSH pour modifier la configuration de transmission.
Si vous ne les avez pas modifiés, les identifiants SSH par défaut de OSMC sont pour le nom d’utilisateur osmc et pour le mot de passe osmc.
Si vous ne savez pas comment vous connecter en SSH à OSMC, vous pouvez suivre notre tutoriel pour apprendre à vous connecter à votre Raspberry Pi avec SSH.

Configurer Transmission pour enregistrer les torrents sur le disque dur externe

Une fois la connexion ssh établie, nous allons éditer le fichier de configuration de notre client torrent.
Pour cela, utilisez la commande suivante :

sudo nano /etc/transmission-daemon/settings.json

C’est dans ce fichier que nous allons préciser où vont s’enregistrer les fichiers téléchargés par transmission.
Par défaut les fichiers téléchargés et en cours de téléchargement sont situés sur la carte SD, ce qui n’est pas l’idéal si vous ne disposez pas de beaucoup d’espace de stockage !
Nous allons donc modifier le chemin pour que les fichiers téléchargés par OSMC soient enregistrés sur notre disque dur.

Rendez-vous à la ligne « download-dir » et modifier la ligne pour avoir :

"download-dir": "/media/monDisque/Downloads"

Nous allons effectuer la même chose à la ligne « incomplete-dir ». Cette ligne renseigne le dossier dans lequel sont placés les fichiers en cours de téléchargement.
Modifier donc la ligne pour avoir :

"incomplete-dir": "/media/monDisque/DownloadsTemp",

Une fois les chemins changés, sauvegadez les modifications en faisant CTRL+X.
L’éditeur va alors vous demander de sauvegarder le fichier modifié, tapez « O » pour oui.
Enfin, il vous demandera le nom du fichier à enregistrer, appuyez simplement sur la touche « Entrée », sans modifier le nom du fichier.

La configuration de Transmission est maintenant terminée.

Accéder au client torrent Transmission sur votre Raspberry Pi

Vous pouvez accéder au client torrent via un navigateur internet. Pour cela, il vous suffit de vous rendre sur le port 9091 sur l’IP de la Raspberry Pi. Pour exemple, chez nous cela donne 192.168.1.12 :9091.

Vous pouvez également accéder à Transmission depuis l’extérieur si vous ouvrez le port 9091 de votre box. Pour cela, consultez notre tutoriel dédié à l’ouverture des ports et au DynDNS.

Maintenant que le client torrent Transmission est installé et configuré sur votre Raspberry Pi, vous pouvez désormais télécharger directement vos films sur OSMC sans avoir besoin de passer par un ordinateur puis de les transférer sur la Raspberry Pi.

Cet article Transmission sur OSMC, installer un client Torrent sur votre Raspberry Pi est apparu en premier sur Raspbian-France.

Gravatar de RaspbianFrance
Original post of RaspbianFrance.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Les anciens Léviathans I — Le contrat social fait 128 bits… ou plus

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :

Chiffrer nos données est un acte censé protéger nos vies privées. Dans le contexte de la surveillance massive de nos communications, il devient une nécessité.

Mais peut-on mettre en balance la notion de vie privée et la paix entre tous que le contrat social est censé nous garantir ? Le prétendu choix entre liberté et sécurité tendrait à montrer que le pouvoir de l’État ne souffre aucune option. Et pourtant, les anciennes conceptions ont la vie dure.

Quand Manuel Valls s’exprime

Dans un article de RUE 89, le journaliste Andréa Fradin revenait sur une allocution du premier ministre M. Valls, tenue le 16 octobre 2015 à l’occasion de la présentation de la Stratégie nationale pour la sécurité numérique. Durant son discours, M. Valls tenait ces propos :

Mais – s’il était nécessaire de donner à nos services de renseignement les outils indispensables pour assumer leurs missions dans la société numérique – mon gouvernement reste favorable à ce que les acteurs privés continuent de bénéficier pleinement, pour se protéger, de toutes les ressources qu’offre la cryptologie légale.

Et le journaliste de s’interroger sur la signification de ce que pourrait bien être la « cryptologie légale », dans la mesure où le fait de pouvoir chiffrer des communications ne se pose pas en ces termes. Sur son site, l’ANSSI est très claire :

L’utilisation d’un moyen de cryptologie est libre. Il n’y a aucune démarche à accomplir.

En revanche, la fourniture, l’importation, le transfert intracommunautaire et l’exportation d’un moyen de cryptologie sont soumis, sauf exception, à déclaration ou à demande d’autorisation.

Si M. Valls s’adressait essentiellement aux professionnels des communications, une telle déclaration mérite que l’on s’y arrête un peu. Elle résonne particulièrement fort dans le contexte juridique, social et émotionnel très particulier qui a vu se multiplier l’adoption de lois et de procédures qui mettent fortement en danger les libertés de communication et d’expression, sous couvert de lutte contre le terrorisme, ainsi que l’illustrait le Projet de loi renseignement au printemps 2015.

Extrait de la conférence "Dégooglisons Interneté

Extrait de la conférence “Dégooglisons Internet”

On note que M. Valls précise que les moyens de « cryptologie légale » sont laissés au libre choix des acteurs privés « pour se protéger ». En effet, comme le rappelle l’ANSSI, le fait de fournir un moyen de chiffrer des communications doit faire l’objet d’une déclaration ou d’une autorisation. C’est uniquement dans le choix des systèmes préalablement autorisés, que M. Valls concède aux acteurs privés qui en ressentent le besoin d’aller piocher le meilleur moyen d’assurer la confidentialité et l’authenticité de leurs échanges ou des échanges de leurs utilisateurs.

C’est sans doute cela qu’il fallait comprendre dans cette phrase. À ceci près que rappeler ce genre d’éléments aussi basiques à des acteurs déjà bien établis dans le secteur des communications numériques, ressemble bien plutôt à une mise en garde : il y a du chiffrement autorisé et il y a du chiffrement qui ne l’est pas. En d’autres termes, du point de vue des fournisseurs comme du point de vue des utilisateurs, tout n’est pas permis, y compris au nom de la protection de la vie privée.

La question du choix entre respect de la vie privée (ou d’autres libertés comme les libertés d’expression et de communication) et l’intérêt suprême de l’État dans la protection de ses citoyens, est une question qui est à l’heure actuelle bien loin d’être tranchée (si elle peut l’être un jour). Habituellement caricaturée sur le mode binaire du choix entre sécurité et liberté, beaucoup ont essayé ces derniers temps de calmer les ardeurs des partisans des deux camps, en oubliant comme nous le verrons dans les prochaines sections, que le choix datait d’au moins des premiers théoriciens du Contrat Social, il y a trois siècles. L’histoire de PGP (Pretty Good Privacy) et du standard OpenPGP est jalonnée de cette dualité (sécurité et liberté) dans notre conception du contrat social.

Autorité et PGP

La première diffusion de PGP était déjà illégale au regard du droit à l’exportation des produits de chiffrement, ce qui a valu à son créateur, Philip Zimmermann quelques ennuis juridiques au début des années 1990. La France a finalement suivi la politique nord-américaine concernant PGP en autorisant l’usage mais en restreignant son étendue. C’est l’esprit du décret 99-200 du 17 mars 1999, qui autorise, sans formalité préalable, l’utilisation d’une clé de chiffrement à condition qu’elle soit inférieure ou égale à 128 bits pour chiffrer des données. Au-delà, il fallait une autorisation jusqu’au vote de la Loi sur l’économie numérique en 2004, qui fait sauter le verrou des 128 bits (art. 30-1) pour l’usage du chiffrement (les moyens, les logiciels, eux, sont soumis à déclaration1).

Si l’on peut aisément mettre le doigt sur les lacunes du système PGP2, il reste qu’une clé de chiffrement à 128 bits, si l’implémentation est correcte, permet déjà de chiffrer très efficacement des données, quelles qu’elles soient. Lorsque les activités de surveillance de masse de la NSA furent en partie révélées par E. Snowden, on apprit que l’une des pratiques consiste à capter et stocker les contenus des communications de manière exhaustive, qu’elles soient chiffrées ou non. En cas de chiffrement, la NSA compte sur les progrès techniques futurs pour pouvoir les déchiffrer un jour où l’autre, selon les besoins. Ce gigantesque travail d’archivage réserve en principe pour l’avenir des questions de droit plutôt inextricables (par exemple l’évaluation du degré de préméditation d’un crime, ou le fait d’être suspect parce qu’on peut établir que 10 ans plus tôt Untel était en relation avec Untel). Mais le principal sujet, face à ce gigantesque travail d’espionnage de tout l’Internet, et d’archivage de données privées lisibles et illisibles, c’est de savoir dans quelle mesure il est possible de réclamer un peu plus que le seul respect de la vie privée. Pour qu’une agence d’État s’octroie le droit de récupérer dans mon intimité des données qu’elle n’est peut-être même pas capable de lire, en particulier grâce à des dispositifs comme PGP, il faut se questionner non seulement sur sa légitimité mais aussi sur la conception du pouvoir que cela suppose.

Si PGP a finalement été autorisé, il faut bien comprendre quelles en sont les limitations légales. Pour rappel, PGP fonctionne sur la base du binôme clé publique / clé privée. Je chiffre mon message avec ma clé de session, générée aléatoirement à 128 bits (ou plus), et cette clé de session est elle-même chiffrée avec la clé publique du destinataire (qui peut largement excéder les 128 bits). J’envoie alors un paquet contenant a) le message chiffré avec ma clé de session, et b) ma clé de session chiffrée par la clé publique de mon destinataire. Puis, comme ce dernier possède la clé privée qui va de pair avec sa clé publique, lui seul va pouvoir déchiffrer le message. On comprend donc que la clé privée et la clé publique ont des rôles bien différents. Alors que la clé privée sert à chiffrer les données, la clé publique sert contrôler l’accès au contenu chiffré. Dans l’esprit du décret de 1999, c’est la clé de session qui était concernée par la limitation à 128 bits.

PGP a donc été autorisé pour au moins trois raisons, que je propose ici à titre de conjectures :

  • parce que PGP devenait de plus en plus populaire et qu’il aurait été difficile d’en interdire officiellement l’usage, ce qui aurait supposé une surveillance de masse des échanges privés ( !),
  • parce que PGP est une source d’innovation en termes de services et donc porteur d’intérêts économiques,
  • parce que PGP, limité en chiffrement des contenus à 128 bits, permettait d’avoir un étalon de mesure pour justifier la nécessité de délivrer des autorisations pour des systèmes de chiffrement supérieurs à 128 bits, c’est-à-dire des chiffrements hautement sécurisés, même si la version autorisée de PGP est déjà très efficace. Après 2004, la question ne se pose plus en termes de limitation de puissance mais en termes de surveillance des moyens (ce qui compte, c’est l’intention de chiffrer et à quel niveau).

En somme c’est une manière pour l’État de retourner à son avantage une situation dans laquelle il se trouvait pris en défaut. Je parle en premier lieu des États-Unis, car j’imagine plutôt l’État français (et les États européens en général) en tant que suiveur, dans la mesure où si PGP est autorisé d’un côté de l’Atlantique, il aurait été de toute façon contre-productif de l’interdire de l’autre. En effet, Philip Zimmermann rappelle bien les enjeux dans son texte « Pourquoi j’ai écrit PGP ». La principale raison qui justifie selon lui l’existence de PGP, est qu’une série de dispositions légales entre 1991 et 1994 imposaient aux compagnies de télécommunication américaines de mettre en place des dispositions permettant aux autorités d’intercepter en clair des communications. En d’autres termes, il s’agissait d’optimiser les dispositifs de communication pour faciliter leur accès par les services d’investigation et de surveillance aujourd’hui tristement célèbres. Ces dispositions légales ont été la cause de scandales et furent en partie retirés, mais ces intentions cachaient en vérité un programme bien plus vaste et ambitieux. Les révélations d’E. Snowden nous en ont donné un aperçu concret il y a seulement deux ans.

Inconstitutionnalité de la surveillance de masse

Là où l’argumentaire de Philip Zimmermann devient intéressant, c’est dans la justification de l’intention de créer PGP, au delà de la seule réaction à un contexte politique dangereux. Pour le citer :

[…] Il n’y a rien de mal dans la défense de votre intimité. L’intimité est aussi importante que la Constitution. Le droit à la vie privée est disséminé implicitement tout au long de la Déclaration des Droits. Mais quand la Constitution des États-Unis a été bâtie, les Pères Fondateurs ne virent aucun besoin d’expliciter le droit à une conversation privée. Cela aurait été ridicule. Il y a deux siècles, toutes les conversations étaient privées. Si quelqu’un d’autre était en train d’écouter, vous pouviez aller tout simplement derrière l’écurie et avoir une conversation là. Personne ne pouvait vous écouter sans que vous le sachiez. Le droit à une conversation privée était un droit naturel, non pas seulement au sens philosophique, mais au sens des lois de la physique, étant donné la technologie de l’époque. Mais avec l’arrivée de l’âge de l’information, débutant avec l’invention du téléphone, tout cela a changé. Maintenant, la plupart de nos conversations sont acheminées électroniquement. Cela permet à nos conversations les plus intimes d’être exposées sans que nous le sachions.

L’évocation de la Constitution des États-Unis est tout à fait explicite dans l’argumentaire de Philip Zimmermann, car la référence à laquelle nous pensons immédiatement est le Quatrième amendement (de la Déclaration des Droits) :

Le droit des citoyens d’être garantis dans leurs personne, domicile, papiers et effets, contre les perquisitions et saisies non motivées ne sera pas violé, et aucun mandat ne sera délivré, si ce n’est sur présomption sérieuse, corroborée par serment ou affirmation, ni sans qu’il décrive particulièrement le lieu à fouiller et les personnes ou les choses à saisir.

En d’autres termes, la surveillance de masse est anticonstitutionnelle. Et cela va beaucoup plus loin qu’une simple affaire de loi. Le Quatrième amendement repose essentiellement sur l’adage très britannique my home is my castle, c’est à dire le point de vue de la castle doctrine, une rémanence du droit d’asile romain (puis chrétien). C’est-à-dire qu’il existe un lieu en lequel toute personne peut trouver refuge face à l’adversité, quelle que soit sa condition et ce qu’il a fait, criminel ou non. Ce lieu pouvant être un temple (c’était le cas chez les Grecs), un lieu sacré chez les romains, une église chez les chrétiens, et pour les peuples qui conféraient une importance viscérale à la notion de propriété privée, comme dans l’Angleterre du XVIe siècle, c’est la demeure. La naissance de l’État moderne (et déjà un peu au Moyen Âge) encadra fondamentalement ce droit en y ajoutant des conditions d’exercice, ainsi, par exemple, dans le Quatrième Amendement, l’existence ou non de « présomptions sérieuses ».

 Do you need a backdoor ?

Microsoft : Do you need a backdoor… to you castle ?

État absolu, soif d’absolu

Le besoin de limiter drastiquement ce qui ressort de la vie privée, est éminemment lié à la conception de l’État moderne et du contrat social. En effet, ce qui se joue à ce moment de l’histoire, qui sera aussi celui des Lumières, c’est une conception rationnelle de la vie commune contre l’irrationnel des temps anciens. C’est Thomas Hobbes qui, parmi les plus acharnés du pouvoir absolu de l’État, traumatisé qu’il était par la guerre civile, pensait que rien ne devait entraver la survie et l’omnipotence de l’État au risque de retomber dans les âges noirs de l’obscurantisme et du déchaînement des passions. Pour lui, le pacte social ne tient que dans la mesure où, pour le faire respecter, l’État peut exercer une violence incommensurable sur les individus qui composent le tissu social (et ont conféré à l’État l’exercice de cette violence). Le pouvoir de l’État s’exerce par la centralisation et la soumission à l’autorité, ainsi que le résume très bien Pierre Dockès dans son article « Hobbes et le pouvoir »3.

Mais qu’est-ce qui était irrationnel dans ces temps anciens, par exemple dans la République romaine ? Beaucoup de choses à vrai dire, à commencer par le polythéisme. Et justement, l’asylum latin fait partie de ces conceptions absolues contre lesquelles les théoriciens du contrat social se débattront pour trouver des solutions. L’État peut-il ou non supporter l’existence d’un lieu où son pouvoir ne pourrait s’exercer, en aucun cas, même s’il existe des moyens techniques pour le faire ? C’est le tabou, dans la littérature ethnologique, dont la transgression oblige le transgresseur à se soumettre à une forme d’intervention au-delà de la justice des hommes, et par là oblige les autres hommes à l’impuissance face à cette transgression innommable et surnaturelle.

À cet absolu générique s’opposent donc les limitations de l’État de droit. Dans le Code Civil français, l’article 9 stipule : « Chacun a droit au respect de sa vie privée. Tout est dans la notion de respect, que l’on oublie bien vite dans les discussions, ici et là, autour des conditions de la vie privée dans un monde numérique. La définition du respect est une variable d’ajustement, alors qu’un absolu ne se discute pas. Et c’est cette soif d’absolu que l’on entend bien souvent réclamée, car il est tellement insupportable de savoir qu’un ou plusieurs États organisent une surveillance de masse que la seule réaction proportionnellement inverse que peuvent opposer les individus au non-respect de la vie privée relève de l’irrationnel : l’absolu de la vie privée, l’idée qu’une vie privée est non seulement inviolable mais qu’elle constitue aussi l’asylum de nos données numériques.

Qu’il s’agisse de la vie privée, de la propriété privée ou de la liberté d’expression, à lire la Déclaration des droits de l’homme et du citoyen de 1789, elles sont toujours soumises à deux impératifs. Le premier est un dérivé de l’impératif catégorique kantien : « ne fais pas à autrui ce que tu n’aimerais pas qu’on te fasse » (article 4 de la Déclaration), qui impose le pouvoir d’arbitrage de l’État (« Ces bornes ne peuvent être déterminées que par la Loi ») dans les affaires privées comme dans les affaires publiques. L’autre impératif est le principe de souveraineté (article 3 de la Déclaration) selon lequel « Le principe de toute Souveraineté réside essentiellement dans la Nation. Nul corps, nul individu ne peut exercer d’autorité qui n’en émane expressément ». En d’autres termes, il faut choisir : soit les règles de l’État pour la paix entre les individus, soit le retour à l’âge du surnaturel et de l’immoralité.

À l’occasion du vote concernant la Loi Renseignement, c’est en ces termes que furent posés nombre de débats autour de la vie privée sous l’apparent antagonisme entre sécurité et liberté. D’un côté, on opposait la loi comme le moyen sans lequel il ne pouvait y avoir d’autre salut qu’en limitant toujours plus les libertés des individus. De l’autre côté, on voyait la loi comme un moyen d’exercer un pouvoir à d’autres fins (ou profits) que la paix sociale : maintenir le pouvoir de quelques uns ou encore succomber aux demandes insistantes de quelques lobbies.

Mais très peu se sont penché sur la réaction du public qui voyait dans les révélations de Snowden comme dans les lois « scélérates » la transgression du tabou de la vie privée, de l’asylum. Comment ? Une telle conception archaïque n’est-elle pas depuis longtemps dépassée ? Il y aurait encore des gens soumis au diktat de la Révélation divine ? et après tout, qu’est-ce qui fait que j’accorde un caractère absolu à un concept si ce n’est parce qu’il me provient d’un monde d’idées (formelles ou non) sans être le produit de la déduction rationnelle et de l’utilité ? Cette soif d’absolu, si elle ne provient pas des dieux, elle provient du monde des idées. Or, si on en est encore à l’opposition Platon vs. Aristote, comment faire la démonstration de ce qui n’est pas démontrable, savoir : on peut justifier, au nom de la sécurité, que l’État puisse intervenir dans nos vie privées, mais au nom de quoi justifier le caractère absolu de la vie privée ? Saint Augustin, au secours !

À ceci près, mon vieil Augustin, que deux éléments manquent encore à l’analyse et montrent qu’en réalité le caractère absolu du droit à la vie privée, d’où l’État serait exclu quelle que soit sa légitimité, a muté au fil des âges et des pratiques démocratiques.

Dialogue entre droit de savoir et droit au secret

C’est l’autorité judiciaire qui exerce le droit de savoir au nom de la manifestation de la vérité. Et à l’instar de la vie privée, la notion de vérité possède un caractère tout aussi absolu. La vie privée manifeste, au fond, notre soif d’exercer notre droit au secret. Ses limites ? elles sont instituées par la justice (et particulièrement la jurisprudence) et non par le pouvoir de l’État. Ainsi le Rapport annuel 2010 de la Cour de Cassation exprime parfaitement le cadre dans lequel peut s’exercer le droit de savoir en rapport avec le respect de la vie privée :

Dans certains cas, il peut être légitime de prendre connaissance d’une information ayant trait à la vie privée d’une personne indépendamment de son consentement. C’est dire qu’il y a lieu de procéder à la balance des intérêts contraires. Un équilibre doit être trouvé, dans l’édification duquel la jurisprudence de la Cour de cassation joue un rôle souvent important, entre le droit au respect de la vie privée et des aspirations, nombreuses, à la connaissance d’informations se rapportant à la vie privée d’autrui. Lorsqu’elle est reconnue, la primauté du droit de savoir sur le droit au respect de la vie privée se traduit par le droit de prendre connaissance de la vie privée d’autrui soit dans un intérêt privé, soit dans l’intérêt général.

En d’autres termes, il n’y a aucun archaïsme dans la défense de la vie privée face à la décision publique : c’est simplement que le débat n’oppose pas vie privée et sécurité, et en situant le débat dans cette fausse dialectique, on oublie que le premier principe de cohésion sociale, c’est la justice. On retrouve ici aussi tous les contre-arguments avancés devant la tendance néfaste des gouvernements à vouloir automatiser les sanctions sans passer par l’administration de la justice. Ainsi, par exemple, le fait de se passer d’un juge d’instruction pour surveiller et sanctionner le téléchargement « illégal » d’œuvres cinématographiques, ou de vouloir justifier la surveillance de toutes les communications au nom de la sécurité nationale au risque de suspecter tout le monde. C’est le manque (subi ou consenti) de justice qui conditionne toutes les dictatures.

Le paradoxe est le suivant : en situant le débat sur le registre sécurité vs. liberté, au nom de l’exercice légitime du pouvoir de l’État dans la protection des citoyens, on place le secret privé au même niveau que le secret militaire et stratégique, et nous serions alors tous des ennemis potentiels, exactement comme s’il n’y avait pas d’État ou comme si son rôle ne se réduisait qu’à être un instrument de répression à disposition de quelques-uns contre d’autres, ou du souverain contre la Nation. Dans ce débat, il ne faudrait pas tant craindre le « retour à la nature » mais le retour à la servitude.

Le second point caractéristique du droit de savoir, est qu’on ne peut que lui opposer des arguments rationnels. S’il s’exerce au nom d’un autre absolu, la vérité, tout l’exercice consiste à démontrer non pas le pourquoi mais le comment il peut aider à atteindre la vérité (toute relative qu’elle soit). On l’autorise alors, ou pas, à l’aune d’un consentement éclairé et socialement acceptable. On entre alors dans le règne de la déduction logique et de la jurisprudence. Pour illustrer cela, il suffit de se pencher sur les cas où les secrets professionnels ont été cassés au nom de la manifestation de la vérité, à commencer par le secret médical. La Cour de cassation explique à ce sujet, dans son Rapport 2010 :

[…] La chambre criminelle a rendu le 16 février 2010 (Bull. crim. 2010, no 27, pourvoi no 09-86.363) une décision qui, entre les droits fondamentaux que sont la protection des données personnelles médicales d’une part, et l’exercice des droits de la défense d’autre part, a implicitement confirmé l’inopposabilité du secret au juge d’instruction, mais aussi la primauté du droit de la défense qui peut justifier, pour respecter le principe du contradictoire, que ce secret ne soit pas opposable aux différentes parties.

Au risque de rappeler quelques principes évidents, puisque nous sommes censés vivre dans une société rationnelle, toute tentative de casser un secret et s’immiscer dans la vie privée, ne peut se faire a priori que par décision de justice à qui l’on reconnaît une légitimité « prudentielle ». Confier ce rôle de manière unilatérale à l’organe d’exercice du pouvoir de l’État, revient à nier ce partage entre l’absolu et le rationnel, c’est à dire révoquer le contrat social.

La sûreté des échanges est un droit naturel et universel

Comme le remarquait Philip Zimmermann, avant l’invention des télécommunications, le droit à avoir une conversation privée était aussi à comprendre comme une loi physique : il suffisait de s’isoler de manière assez efficace pour pouvoir tenir des échanges d’information de manière complètement privée. Ce n’est pas tout à fait exact. Les communications ont depuis toujours été soumises au risque de la divulgation, à partir du moment où un opérateur et/ou un dispositif entrent en jeu. Un rouleau de parchemin ou une lettre cachetée peuvent toujours être habilement ouverts et leur contenu divulgué. Et d’ailleurs la principale fonction du cachet n’était pas tant de fermer le pli que de l’authentifier.

C’est pour des raisons de stratégie militaire, que les premiers chiffrements firent leur apparition. Créés par l’homme pour l’homme, leur degré d’inviolabilité reposait sur l’habileté intellectuelle de l’un ou l’autre camp. C’est ainsi que le chiffrement ultime, une propriété de la nature (du moins, de la logique algorithmique) a été découvert : le chiffre de Vernam ou système de chiffrement à masque jetable. L’idée est de créer un chiffrement dont la clé (ou masque) est aussi longue que le message à chiffrer, composée de manière aléatoire et utilisable une seule fois. Théoriquement impossible à casser, et bien que présentant des lacunes dans la mise en œuvre pratique, cette méthode de chiffrement était accessible à la puissance de calcul du cerveau humain. C’est avec l’apparition des machines que les dés ont commencés à être pipés, sur trois plans :

  • en dépassant les seules capacités humaines de calcul,
  • en rendant extrêmement rapides les procédures de chiffrement et de déchiffrement,
  • en rendant accessibles des outils puissants de chiffrement à un maximum d’individus dans une société « numérique ».

Dans la mesure où l’essentiel de nos communications, chargées de données complexes et à grande distance, utilisent des machines pour être produites (ou au moins formalisées) et des services de télécommunications pour être véhiculées, le « droit naturel » à un échange privé auquel faisait allusion Philip Zimmermann, passe nécessairement par un système de chiffrement pratique, rapide et hautement efficace. PGP est une solution (il y en a d’autres).

Capture du 2016-06-26 20-20-04

PGP est-il efficace ? Si le contrôle de l’accès à nos données peut toujours nous échapper (comme le montrent les procédures de surveillance), le chiffrement lui-même, ne serait-ce qu’à 128 bits « seulement », reste à ce jour assez crédible. Cette citation de Wikipédia en donne la mesure :

À titre indicatif, l’algorithme AES, dernier standard d’algorithme symétrique choisi par l’institut de standardisation américain NIST en décembre 2001, utilise des clés dont la taille est au moins de 128 bits soit 16 octets, autrement dit il y en a 2128. Pour donner un ordre de grandeur sur ce nombre, cela fait environ 3,4×1038 clés possibles ; l’âge de l’univers étant de 1010 années, si on suppose qu’il est possible de tester 1 000 milliards de clés par seconde (soit 3,2×1019 clés par an), il faudra encore plus d’un milliard de fois l’âge de l’univers. Dans un tel cas, on pourrait raisonnablement penser que notre algorithme est sûr. Toutefois, l’utilisation en parallèle de très nombreux ordinateurs, synchronisés par internet, fragilise la sécurité calculatoire.

Les limites du chiffrement sont donc celles de la physique et des grands nombres, et à ce jour, ce sont des limites déjà largement acceptables. Tout l’enjeu, désormais, parce que les États ont montré leur propension à retourner l’argument démocratique contre le droit à la vie privée, est de disséminer suffisamment les pratiques de chiffrement dans le corps social. Ceci de manière à imposer en pratique la communication privée-chiffrée comme un acte naturel, un libre choix qui borne, en matière de surveillance numérique, les limites du pouvoir de l’État à ce que les individus choisissent de rendre privé et ce qu’ils choisissent de ne pas protéger par le chiffrement.

Conclusion

Aujourd’hui, la définition du contrat social semble passer par un concept supplémentaire, le chiffrement de nos données. L’usage libre des pratiques de chiffrement est borné officiellement à un contrôle des moyens, ce qui semble suffisant, au moins pour nécessiter des procédures judiciaires bien identifiées dans la plupart des cas où le droit de savoir s’impose. Idéalement, cette limite ne devrait pas exister et il devrait être possible de pouvoir se servir de systèmes de chiffrement réputés inviolables, quel que soit l’avis des gouvernements.

L’inviolabilité est une utopie ? pas tant que cela. En 2001, le chercheur Michael Rabin avait montré lors d’un colloque qu’un système réputé inviolable était concevable. En 2005, il a publié un article éclairant sur la technique de l’hyper-chiffrement (hyper encryption) intitulé « Provably unbreakable hyper-encryption in the limited access model », et une thèse (sous la direction de M. Rabin) a été soutenue en 2009 par Jason K. Juang, librement accessible à cette adresse. Si les moyens pour implémenter de tels modèles sont limités à ce jour par les capacités techniques, la sécurité de nos données semble dépendre de notre volonté de diminuer davantage ce qui nous sépare d’un système 100 % efficace d’un point de vue théorique.

Le message de M. Valls, à propos de la « cryptologie légale » ne devrait pas susciter de commentaires particuliers puisque, effectivement, en l’état des possibilités techniques et grâce à l’ouverture de PGP, il est possible d’avoir des échanges réputés privés à défaut d’être complètement inviolables. Néanmoins, il faut rester vigilant quant à la tendance à vouloir définir légalement les conditions d’usage du chiffrement des données personnelles. Autant la surveillance de masse est (devrait être) inconstitutionnelle, autant le droit à chiffrer nos données doit être inconditionnel.

Doit-on craindre les pratiques d’un gouvernement plus ou moins bien intentionné ? Le Léviathan semble toutefois vaciller : non pas parce que nous faisons valoir en droit notre intimité, mais parce que d’autres Léviathans se sont réveillés, en dehors du droit et dans une nouvelle économie, sur un marché dont ils maîtrisent les règles. Ces nouveaux Léviathans, il nous faut les étudier avec d’autres concepts que ceux qui définissent l’État moderne.

Pour aller plus loin :
  1. On peut se reporter au site de B. Depail (Univ. Marne-La-Vallée) de qui expose les aspects juridiques de la signature numérique, en particulier la section « Aspects juridiques relatifs à la cryptographie ».
  2. Voir « Surveillance généralisée : aux limites de PGP », MISC, 75, 2014.
  3. Pierre Dockès, « Hobbes et le pouvoir », Cahiers d’économie politique, 50.1, 2006, pp. 7-25.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

arpinux : De HandyLinux à DFLinux : tous les détails de la transition

bonjour les humain-e-s

Pour commencer, je voudrais remercier l'équipe de Debian-Facile pour son accueil "en catastrophe" d'une bande de HLers bruyants et dissipés

alors ... cette transition, comment ça va se passer ?
   très bien

Non sans rire, le but de cet article est de vous expliquer très précisément le processus de transition pour compléter l'annonce de fusion des communautés HandyLinux et Debian-Facile. Un fil de discussion est spécialement dédié à ce sujet sur notre forum si vous avez encore des questions après la lecture de cet article.


Mon système est-il toujours sécurisé ?Oui ! Votre installation HandyLinux en place ne va pas exploser ou se mettre à déconner pendant la transition vers Debian-Facile !
HandyLinux utilise les dépôts Debian ainsi que ses dépôts spécifiques. Tout reste en place, signé et maintenu jusqu'en 2018.


Je souhaite passer à Debian "pure"
Pour cela, rien de plus simple, il vous suffit de suivre pas à pas le tutoriel pour handy2debian , et en moins de temps qu'il n'en faut pour lire cet article, vous serez passé à Debian ! Merci @vous


Je ne souhaite pas passer à DebianSi vous ne vous sentez pas prêt pour Debian, si vous doutez de vos compétences ou si vous n'en voyez pas l'utilité tout simplement ;) , rien ne vous oblige à passer à Debian... mais ... HandyLinux est une Debian .
Quel que soit votre niveau en informatique ou l'usage que vous faites de votre machine, vous utilisez un système libre et alternatif basé sur Debian, la distribution qui depuis plus de 20 ans, délivre une informatique éthique grâce à quelques milliers de contributrices et contributeurs à travers le monde.

Alors voyons ce qu'il va se passer pour votre installation d'HandyLinux dans les mois à venir.


Je suis sur HandyLinux v1 "Wheezy"HandyLinux v1 est basée sur Debian Wheezy et les dépôts Debian correspondants sont maintenus jusqu'au 31 mai 2018 (dixit Debian )
Les dépôts HandyLinux v1 sont également maintenus jusqu'à la même date.
Donc si vous utilisez HandyLinux-v1 et ne souhaitez rien changer à votre système, rien ne vous y oblige avant 2018.


Je suis sur HandyLinux v2 "Jessie"HandyLinux v2 est basée sur Jessie et Debian en assure le support jusqu'en 2020. Ce ne sera pas le cas pour HandyLnux.
Cela signifie concrètement que les outils spécifiques "handylinux" (handymenu, handysoft, handytri ...) ne seront plus maintenus sur les dépôts "handylinux" au-delà de 2018.


Que va-t-il se passer à la fin du support en mai 2018 ?

Si vous êtes utilisateurs HandyLinux-v1, vous devrez mettre à jour votre version , de la même façon que si vous deviez passer sur "handylinux-v3", mais ce sera simplement un autre nom. La méthode recommandée par Debian pour la mise à jour complète de la version reste la réinstallation... un peu logique pour passer d'un v1 à une v3, quelle que soit l'application/distribution

Si vous êtes utilisateur HandyLinux-v2, vous devrez passer à DFLinux (ou le futur nom choisi par la communauté debian-facile). Pour cela, une simple modification de votre sources.list permettra de "basculer" sur DFLinux et de conserver vos outils "handylinux". D'ici là, j'aurais certainement mis en place un mode semi-automatique vous permettant de "cliquer pour mettre à jour" ... ou alors vous aurez apprivoisé votre système et serez déjà passé à Debian


Et pour le forum ?Le forum actuel reste en place et nous continuerons d'assurer le support.
Dans le même temps, nous invitons les utilisateurs à venir nous rejoindre sur le forum Debian-Facile dès qu'ils le peuvent afin de profiter au mieux cette fusion et de réduire la gestion "en double" le plus vite possible. Notre équipe active s'y trouve déjà et vous attend
  • bonus ? toute la communauté Debian-Facile vous attend aussi pour filer un coup de main.
  • bonus 2 ?? le forum Debian-Facile contient bien plus de messages [Résolu] que notre petit forum handylinux, vous trouverez ainsi plus vite une solution à votre problème
  • bonus 3 ??? ils aiment le chocolat
  • malus ? il va falloir changer le marque-page de votre navigateur internet


Y-aura-t-il une HandyLinux-2.6 à la rentrée ?

Si HandyLinux-2.6 il y a , ce sera une simple version de maintenance, c'est à dire avec les mises à jour Debian, mais les outils handylinux resteront pour l'instant inchangés (sauf en cas de bug bien sûr). Pas de grandes nouveautés car je ne sais absolument pas au moment où j'écris cet article, ce qu'il va advenir de l'actuelle "handylinux", je ne souhaite donc pas faire d'annonce dans le vide ;) .

Ce sera la dernière version produite par l'équipe en place... à moins qu'on ne soit déjà tous sur Debian-Facile, à travailler sur DFLinux à ce moment là .


Plus de précisions sur cette DFLinux ?

DFLinux est un projet initié par Debian-Facile et ayant pour but d'offrir une version pré-configurée, libre et légère de Debian pour les novices. Cette distribution tourne pour l'instant avec le bureau LXDE pour assurer une légèreté maximale et pouvoir ainsi être testé sur la grande majorité des machines ( ça vous rappelle rien ? ) . L'équipe HandyLinux associé à l'équipe Debian-Facile reprend ce concept avec quelques nouveautés : DFLinux sera distribuée sous 3 version afin de respecter les différents choix et obligations de chaque utilisateurs;

  • DFLinux-light : une version Debian avec le bureau LXDE, très légère, libre et agrémentée d'un minimum d'applications pour utiliser son ordinateur. Cette version sera aussi parfaite pour tester rapidement votre matériel en session d'essai Live
  • DFLinux-base : une version Debian avec le bureau XFCE, légère, libre et livrée avec une suite de logiciels pour les applications courantes. C'est la version de base utilisée pour le plan d'apprentissage
  • DFLinux-full : une version Debian avec un bureau au choix, les drivers non-libres intégrés, une suite complète d'applications. C'est la version "clone" d'HandyLinx

Les trois versions intègreront les outils facilitants made in handylinux, une documentation complète, un manuel du débutant et tous les liens vers les tutoriels texte/vidéos du portail Debian-Facile. Elles seront distribuées en i386 (dual kernel pour le non-PAE) et amd64 ce qui offrira, en plus des images ISO officielles Debian, une série d'ISOs francophones pré-configurées.

Le plan d'apprentissage

Ce projet initié par Starsheep, prévoit d'allier une documentation, des tutoriels et une distribution au sein d'un processus d'apprentissage progressif : au lieu de présenter la documentation classée par thèmes ou catégories, le plan d'apprentissage sera gradué en fonction du niveau de l'utilisateur. Ainsi, à son rythme, chacun pourra acquérir l'autonomie numérique en s'aidant de petits cours, tutoriels texte et vidéos et surtout, un accès direct aux travaux pratiques grâce à DFLinux comme support de base.

Les versions de DFLinux seront toutes intégrées dans ce processus qui, nous l'espérons, permettra d'ouvrir un porte plus large sur Debian pour les novices et/ou utilisateurs m$

Le but du plan d'apprentissage n'est pas de transformer tous les utilisateurs en libristes militants (quoi que... ) !

Le but du plan d'apprentissage est de vous permettre de le stopper à tout moment, dès que le niveau atteint vous satisfait !! Le système progressif du plan d'apprentissage est spécialement conçu pour pouvoir être interrompu : une série de petits modules pédagogiques simples s'enchaînent, une fois votre utilisation informatique couverte par le plan, vous pouvez arrêter, vous savez utiliser votre ordinateur pour vos tâches usuelles.

Si vous êtes plus curieux ou désirez mieux contrôler votre environnement numérique, vous pouvez continuer le plan d'apprentissage, améliorer vos connaissances, et nous rejoindre afin de contribuer aux logiciels libres


Désolé ...

j'avais initialement prévu d'assurer une transition sur deux mois afin de préparer tout le monde et ne laisser personne derrière. Les attaques sur le forum handylinux m'ont obligé à accélérer le processus et à faire en deux jours ce qu'il était prévu de faire sur deux mois.

merci à toutes et tous pour vos retours positifs et vos soutiens, je reviens bientôt pour vous tenir au courant de chaque détail de cette transition en direct

++

arp

HandyLinux - la distribution Debian sans se prendre la tête...

Gravatar de arpinux
Original post of arpinux.Votez pour ce billet sur Planet Libre.

mozillaZine-fr : Servo, le nouveau moteur qui pourrait bouleverser le marché des navigateurs

servoCe n’est pas nous qui l’affirmons, mais Daniel Glazman, dans cette vidéo tournée il y a deux jours à la conférence Web2Day. Étant donné sa connaissance du terrain et son franc-parler, on peut lui faire confiance que quelque chose de gros se prépare. Peut-être même le retour en grâce tant attendu de Firefox ? Si toutefois Firefox adoptait ce nouveau moteur dans un temps assez proche… Pas d’emballement, donc, mais voici pour la prospérité une retranscription (abrégée) de ce que dit Daniel :

Il y a un nouveau entrant absolument majeur qui risque de chambouler tout le marché, c’est Servo de Mozilla. Servo est un peu la « disruptive innovation » à l’intérieur même de Mozilla, puisqu’il ne dérive pas de Gecko. Il n’est pas écrit dans le même langage, il est écrit en Rust. Il est multi-threadé. Son layout est parallèle. Et pour l’instant, en termes de vitesse, les gains sont hallucinants. C’est un truc de dingue ! Là où ça risque de beaucoup changer la donne, c’est moins sur le desktop, où on a des bécanes de course, que sur ça [il montre son téléphone mobile] où la consommation de la batterie est un enjeu absolument stratégique.

Gravatar de mozillaZine-fr
Original post of mozillaZine-fr.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : chemspeed : un autre jeu html5

C'est les vacances! Alors pour ne pas tout oublier, et pour s'occuper au cours des transports pour trouver/déménager votre nouvel appart à 3h de chez vous suite aux mutations, vous avez chemspeed :

Le but du jeu? Faire le plus grand score.
Pour gagner des points, il faut écrire le nom de l'élément avant qu'il ne soit tombé hors de l'écran. Attention aux accents :)

Le code du jeu est toujours disponible en affichant le code source de la page où en allant directement ici. J'ai utilisé phaser qui décidément me plaît beaucoup :)

Amusez-vous bien :)

@Starsheep : t'as de nouveaux scores à battre ;)

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

genma : Yunohost, Freebox et IPv6

De plus en plus de réseaux proposent une adresse en IPv6. Je ne détaillerai pas ce qu'est IPv6, le pourquoi et la nécessité de le développer...

Obtenir une IPv6 sur sa machine Yunohost

Dans les prérequis, il y a :
- sur la Freebox, dans la partie administration, avoir activer l'IPv6.
- avoir IPv6 d'actif sur l'OS sur lequel se trouve Yunohost (Debian Jessie dans mon cas)

Avec l'IPv6, chaque machine se voit attribuer une IP publique, basée sur l'IP principale (celle de la Freebox) et l'adresse MAC de l'équipement concerné (pour faire simple). Une fois IPv6 activée sur la Freebox, la machine Yunohost étant réglée en DHCP (avec comme paramétrage au niveau de la Freebox de toujours associer la même IP), la machine se voit attribuer 2 IPv6.

Une adresse commençant par fe80: : qui est une adresse locale (fonctionnant uniquement sur le sous réseau physique local : le switch et le wifi de la Freebox). Une adresse commençant par 2a01:exxx:xxxx:xxxx : qui est une adresse publique (La Freebox ayant l'adresse 2a01:exxx:xxxx:xxxx::1)

Pour chaque machine ayant une IPv6 , la Freebox ouvre un tunnel vers Internet (indépendamment de la redirection de ports nécessaire pour l'adresse en IPv4 qui n'est que privée, liée au réseau local. Le NAT et la redirection de ports de l'IPv4 publique de la Freebox vers l'IPv4 locale de la machine sous Yunohost n'est utile qu'en IPv4). La redirection n'est donc plus nécessaire puisque la machine peut être attaquée via le tunnel V6. Comme indiqué, l'adresse IPv6 est publique : la machine est donc directement visible et accessible depuis Internet (d'où la nécessité de surveiller les logs, de faire les mises à jour, d'avoir un pare-feu activé, fail2ban... tout ce qui est installé et configuré par défaut dans Yunohost).

On peut voir ces deux adresses via un

sudo ifconfig /all

eth0 Link encap:Ethernet HWaddr 78:xx:xx:xx:xx:xx
inet adr:192.168.0.1 Bcast:192.168.0.255 Masque:255.255.255.0
adr inet6: 2a01:exxx:xxxx:xxxx:b81b/64 Scope:Global
adr inet6: fe80::7a2b:cbff:fea8:b81b/64 Scope:Lien
(...)

Configuration du DNS

Si on a un nom de domaine, par exemple mondomaine.fr, il faut noter l'adresse IPv6 publique de la machine sous Yunohost et dans la configuration des entrées DNS, en plus de l'entrée correspondant à l'association de l'IPv4 publique de la Freebox (ici représentée par XYZ.XYZ.XYZ.XYZ)

Nom Type Valeur
@ A XYZ.XYZ.XYZ.XYZ

On ajoute une entrée AAAA avec l'adresse IPv6 publique de la machine sous Yunohost (ici représentée par 2a01:exxx:xxxx:xxxx:b81b)

Nom Type Valeur
@ A XYZ.XYZ.XYZ.XYZ
@ AAAA 2a01:exxx:xxxx:xxxx:b81b

Validation de l'accessibilité en IPv6

Depuis une autre machine, sur un réseau extérieur et pour lequel on a une adresse IPv6, on peut vérifier qu'un

ping -v6 mondomaine.fr

répond et renvoie bien l'adresse IPv6 de la machine Yunohost.

On peut aussi tester un traceroute, ou encore, depuis un navigateur, saisir dans la barre d'adresse (avec les crochets, contrairement à une IPv4)

http://[2a01:exxx:xxxx:xxxx:b81b]

et ça doit afficher la même page par défaut que si on va sur l'url http://mondomaine.fr

Conclusion

Si ça marche, votre machine Yunohost est bien accessible en IPv6 de l'extérieur. Pratique quand on souhaite s'y connecter depuis un réseau sur lequel on n'a pas d'IPv4 (seulement de l'IPv6).

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Les nouveaux Léviathans II — Surveillance et confiance (b)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la section précédente)

Note de l’auteur :

Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Trouver les bonnes clés

Cette logique du marché, doit être analysée avec d’autres outils que ceux de l’économie classique. L’impact de l’informationnalisation et la concentration des acteurs de l’économie numérique ont sans doute été largement sous-estimés, non pas pour les risques qu’ils font courir aux économies post-industrielles, mais pour les bouleversements sociaux qu’ils impliquent. Le besoin de défendre les droits et libertés sur Internet et ailleurs n’est qu’un effet collatéral d’une situation contre laquelle il est difficile d’opposer seulement des postures et des principes.

Il faut entendre les mots de Marc Rotenberg, président de l’Electronic Privacy Information Center (EPIC), pour qui le débat dépasse désormais la seule question de la neutralité du réseau ou de la liberté d’expression1. Pour lui, nous avons besoin d’analyser ce qui structure la concentration du marché. Mais le phénomène de concentration dans tous les services de communication que nous utilisons implique des échelles tellement grandes, que nous avons besoin d’instruments de mesure au moins aussi grands. Nous avons besoin d’une nouvelle science pour comprendre Internet, le numérique et tout ce qui découle des formes d’automatisation.

Diapositive extraite de la conférence "Dégooglisons Internet"

Diapositive extraite de la conférence “Dégooglisons Internet”

On s’arrête bien souvent sur l’aspect le plus spectaculaire de la fuite d’environ 1,7 millions de documents grâce à Edward Snowden en 2013, qui montrent que les États, à commencer par les États-Unis, ont créé des systèmes de surveillance de leurs populations au détriment du respect de la vie privée. Pour beaucoup de personnes, cette atteinte doit être ramenée à la dimension individuelle : dois-je avoir quelque chose à cacher ? comment échapper à cette surveillance ? implique-t-elle un contrôle des populations ? un contrôle de l’expression ? en quoi ma liberté est-elle en danger ? etc. Mais peu de personnes se sont réellement interrogées sur le fait que si la NSA s’est fait livrer ces quantités gigantesques d’informations par des fournisseurs de services (comme par exemple, la totalité des données téléphoniques de Verizon ou les données d’échanges de courriels du service Hotmail de Microsoft) c’est parce que ces entreprises avaient effectivement les moyens de les fournir et que par conséquent de telles quantités d’informations sur les populations sont tout à fait exploitables et interprétables en premier lieu par ces mêmes fournisseurs.

Face à cela, plusieurs attitudes sont possibles. En les caricaturant, elles peuvent être :

  • Positivistes. On peut toujours s’extasier devant les innovations de Google surtout parce que la culture de l’innovation à la Google est une composante du story telling organisé pour capter l’attention des consommateurs. La communication est non seulement exemplaire mais elle constitue un modèle d’après Google qui en donne même les recettes (cf. les deux liens précédents). Que Google, Apple, Microsoft, Facebook ou Amazon possèdent des données me concernant, cela ne serait qu’un détail car nous avons tous l’opportunité de participer à cette grande aventure du numérique (hum !).
  • Défaitistes. On n’y peut rien, il faut donc se contenter de protéger sa vie privée par des moyens plus ou moins dérisoires, comme par exemple faire du bruit pour brouiller les pistes et faire des concessions car c’est le prix à payer pour profiter des applications bien utiles. Cette attitude consiste à échanger l’utilité contre l’information, ce que nous faisons à chaque fois que nous validons les clauses d’utilisation des services GAFAM.
  • Complotistes. Les procédés de captation des données servent ceux qui veulent nous espionner. Les utilisations commerciales seraient finalement secondaires car c’est contre l’emploi des données par les États qu’il faut lutter. C’est la logique du moins d’État contre la liberté du nouveau monde numérique, comme si le choix consistait à donner notre confiance soit aux États soit aux GAFAM, liberté par contrat social ou liberté par consommation.

Les objectifs de cette accumulation de données sont effectivement différents que ceux poursuivis par la NSA et ses institutions homologues. La concentration des entreprises crée le besoin crucial d’organiser les monopoles pour conserver un marché stable. Les ententes entre entreprises, repoussant toujours davantage les limites juridiques des autorités de régulations, créent une logique qui ne consiste plus à s’adapter à un marché aléatoire, mais adapter le marché à l’offre en l’analysant en temps réel, en utilisant les données quotidiennes des utilisateurs de services. Il faut donc analyser ce capitalisme de surveillance, ainsi que le nomme Shoshana Zuboff, car comme nous l’avons vu :

  • les États ont de moins en moins les capacités de réguler ces activités,
  • nous sommes devenus des produits de variables qui configurent nos comportements et nos besoins.

L’ancienne conception libérale du marché, l’acception économique du contrat social, reposait sur l’idée que la démocratie se consolide par l’égalitarisme des acteurs et l’équilibre du marché. Que l’on adhère ou pas à ce point de vue, il reste qu’aujourd’hui le marché ne s’équilibre plus par des mécanismes libéraux mais par la seule volonté de quelques entreprises. Cela pose inévitablement une question démocratique.

Dans son rapport, Antoinette Rouvroy en vient à adresser une série de questions sur les répercutions de cette morphologie du marché. Sans y apporter franchement de réponse, elle en souligne les enjeux :

Ces dispositifs d’« anticipation performative » des intentions d’achat (qui est aussi un court-circuitage du processus de transformation de la pulsion en désir ou en intention énonçable), d’optimisation de la force de travail fondée sur la détection anticipative des performances futures sur base d’indicateurs produits automatiquement au départ d’analyses de type Big Data (qui signifie aussi une chute vertigineuse du « cours de l’expérience » et des mérites individuels sur le marché de l’emploi), posent des questions innombrables. L’anticipation performative des intentions –et les nouvelles possibilités d’actions préemptives fondées sur la détection des intentions – est-elle compatible avec la poursuite de l’autodétermination des personnes ? Ne faut-il pas concevoir que la possibilité d’énoncer par soi-même et pour soi-même ses intentions et motivations constitue un élément essentiel de l’autodétermination des personnes, contre cette utopie, ou cette dystopie, d’une société dispensée de l’épreuve d’un monde hors calcul, d’un monde où les décisions soient autre chose que l’application scrupuleuse de recommandations automatiques, d’un monde où les décisions portent encore la marque d’un engagement subjectif ? Comment déterminer la loyauté de ces pratiques ? L’optimisation de la force de travail fondée sur le profilage numérique est-il compatible avec le principe d’égalité et de non-discrimination ?2

Ce qui est questionné par A. Rouvroy, c’est ce que Zuboff nomme le capitalisme de surveillance, du moins une partie des pratiques qui lui sont inhérentes. Dès lors, au lieu de continuer à se poser des questions, il est important d’intégrer l’idée que si le paradigme a changé, les clés de lecture sont forcément nouvelles.

Déconstruire le capitalisme de surveillance

Shoshana Zuboff a su identifier les pratiques qui déconstruisent l’équilibre originel et créent ce nouveau capitalisme. Elle pose ainsi les jalons de cette nouvelle « science » qu’appelle de ses vœux Marc Rotenberg, et donne des clés de lecture pertinentes. L’essentiel des concepts qu’elle propose se trouve dans son article « Big other : surveillance capitalism and the prospects of an information civilization », paru en 20153. Dans cet article S. Zuboff décortique deux discours de Hal Varian, chef économiste de Google et s’en sert de trame pour identifier et analyser les processus du capitalisme de surveillance. Dans ce qui suit, je vais essayer d’expliquer quelques clés issues du travail de S. Zuboff.

Sur quelle stratégie repose le capitalisme de surveillance ?

Il s’agit de la stratégie de commercialisation de la quotidienneté en modélisant cette dernière en autant de données analysées, inférences et prédictions. La logique d’accumulation, l’automatisation et la dérégulation de l’extraction et du traitement de ces données rendent floues les frontières entre vie privée et consommation, entre les firmes et le public, entre l’intention et l’information.

Qu’est-ce que la quotidienneté ?

Il s’agit de ce qui concerne la sphère individuelle mais appréhendée en réseau. L’informationnalisation de nos profils individuels provient de plusieurs sources. Il peut s’agir des informations conventionnelles (au sens propre) telles que nos données d’identité, nos données bancaires, etc. Elles peuvent résulter de croisements de flux de données et donner lieu à des inférences. Elles peuvent aussi provenir des objets connectés, agissant comme des sensors ou encore résulter des activités de surveillance plus ou moins connues. Si toutes ces données permettent le profilage c’est aussi par elles que nous déterminons notre présence numérique. Avoir une connexion Internet est aujourd’hui reconnu comme un droit : nous ne distinguons plus nos activités d’expression sur Internet des autres activités d’expression. Les activités numériques n’ont plus à être considérées comme des activités virtuelles, distinctes de la réalité. Nos pages Facebook ne sont pas plus virtuelles que notre compte Amazon ou notre dernière déclaration d’impôt en ligne. Si bien que cette activité en réseau est devenue si quotidienne qu’elle génère elle-même de nouveaux comportements et besoins, produisant de nouvelles données analysées, agrégées, commercialisées.

Extraction des données

S. Zuboff dresse un inventaire des types de données, des pratiques d’extraction, et les enjeux de l’analyse. Il faut cependant comprendre qu’il y a de multiples manières de « traiter » les données. La Directive 95/46/CE (Commission Européenne) en dressait un inventaire, déjà en 19954 :

« traitement de données à caractère personnel » (traitement) : toute opération ou ensemble d’opérations effectuées ou non à l’aide de procédés automatisés et appliquées à des données à caractère personnel, telles que la collecte, l’enregistrement, l’organisation, la conservation, l’adaptation ou la modification, l’extraction, la consultation, l’utilisation, la communication par transmission, diffusion ou toute autre forme de mise à disposition, le rapprochement ou l’interconnexion, ainsi que le verrouillage, l’effacement ou la destruction.

Le processus d’extraction de données n’est pas un processus autonome, il ne relève pas de l’initiative isolée d’une ou quelques firmes sur un marché de niche. Il constitue désormais la norme commune à une multitude de firmes, y compris celles qui n’œuvrent pas dans le secteur numérique. Il s’agit d’un modèle de développement qui remplace l’accumulation de capital. Autant cette dernière était, dans un modèle économique révolu, un facteur de production (par les investissements, par exemple), autant l’accumulation de données est désormais la clé de production de capital, lui-même réinvesti en partie dans des solutions d’extraction et d’analyse de données, et non dans des moyens de production, et pour une autre partie dans la valorisation boursière, par exemple pour le rachat d’autres sociétés, à l’image des multiples rachats de Google.

Neutralité et indifférence

Les données qu’exploite Google sont très diverses. On s’interroge généralement sur celles qui concernent les catégories auxquelles nous accordons de l’importance, comme par exemple lorsque nous effectuons une recherche au sujet d’une mauvaise grippe et que Google Now nous propose une consultation médicale à distance. Mais il y a une multitude de données dont nous soupçonnons à peine l’existence, ou apparemment insignifiantes pour soi, mais qui, ramenées à des millions, prennent un sens tout à fait probant pour qui veut les exploiter. On peut citer par exemple le temps de consultation d’un site. Si Google est prêt à signaler des contenus à l’administration des États-Unis, comme l’a dénoncé Julian Assange ou si les relations publiques de la firme montrent une certaine proximité avec les autorités de différents pays et l’impliquent dans des programmes d’espionnage, il reste que cette attitude coopérante relève essentiellement d’une stratégie économique. En réalité, l’accumulation et l’exploitation des données suppose une indifférence formelle par rapport à leur signification pour l’utilisateur. Quelle que soit l’importance que l’on accorde à l’information, le postulat de départ du capitalisme de surveillance, c’est l’accumulation de quantités de données, non leur qualité. Quant au sens, c’est le marché publicitaire qui le produit.

L’extraction et la confiance

S. Zuboff dresse aussi un court inventaire des pratiques d’extraction de Google. L’exemple emblématique est Google Street View, qui rencontra de multiples obstacles à travers le monde : la technique consiste à s’immiscer sur des territoires et capturer autant de données possible jusqu’à rencontrer de la résistance qu’elle soit juridique, politique ou médiatique. Il en fut de même pour l’analyse du courrier électronique sur Gmail, la capture des communications vocales, les paramètres de confidentialité, l’agrégation des données des comptes sur des services comme Google+, la conservation des données de recherche, la géolocalisation des smartphones, la reconnaissance faciale, etc.

En somme, le processus d’extraction est un processus à sens unique, qui ne tient aucun compte (ou le moins possible) de l’avis de l’utilisateur. C’est l’absence de réciprocité.

On peut ajouter à cela la puissance des Big Data dans l’automatisation des relations entre le consommateur et le fournisseur de service. Google Now propose de se substituer à une grande partie de la confidentialité entre médecin et patient en décelant au moins les causes subjectives de la consultation (en interprétant les recherches). Hal Varian lui-même vante les mérites de l’automatisation de la relation entre assureurs et assurés dans un monde où l’on peut couper à distance le démarrage de la voiture si le client n’a pas payé ses traites. Des assurances santé et même des mutuelles ( !) proposent aujourd’hui des applications d’auto-mesure (quantified self)de l’activité physique, dont on sait pertinemment que cela résultera sur autant d’ajustements des prix voire des refus d’assurance pour les moins chanceux.

La relation contractuelle est ainsi automatisée, ce qui élimine d’autant le risque lié aux obligations des parties. En d’autres termes, pour éviter qu’une partie ne respecte pas ses obligations, on se passe de la confiance que le contrat est censé formaliser, au profit de l’automatisation de la sanction. Le contrat se résume alors à l’acceptation de cette automatisation. Si l’arbitrage est automatique, plus besoin de recours juridique. Plus besoin de la confiance dont la justice est censée être la mesure.

Entre l’absence de réciprocité et la remise en cause de la relation de confiance dans le contrat passé avec l’utilisateur, ce sont les bases démocratiques de nos rapports sociaux qui sont remises en question puisque le fondement de la loi et de la justice, c’est le contrat et la formalisation de la confiance.

 Don’t feed the Google

Warning : Don’t feed the Google

Qu’implique cette nouvelle forme du marché ?

Plus Google a d’utilisateurs, plus il rassemble des données. Plus il y a de données plus leur valeur predictive augmente et optimise le potentiel lucratif. Pour des firmes comme Google, le marché n’est pas composé d’agents rationnels qui choisissent entre plusieurs offres et configurent la concurrence. La société « à la Google » n’est plus fondée sur des relations de réciprocité, même s’il s’agit de luttes sociales ou de revendications.

L’« uberisation » de la société (voir le début de cet article) qui nous transforme tous en employés ou la transformation des citoyens en purs consommateurs, c’est exactement le cauchemar d’Hannah Arendt que S. Zuboff cite longuement :

Le dernier stade de la société de travail, la société d’employés, exige de ses membres un pur fonctionnement automatique, comme si la vie individuelle était réellement submergée par le processus global de la vie de l’espèce, comme si la seule décision encore requise de l’individu était de lâcher, pour ainsi dire, d’abandonner son individualité, sa peine et son inquiétude de vivre encore individuellement senties, et d’acquiescer à un type de comportement, hébété, « tranquillisé » et fonctionnel. Ce qu’il y a de fâcheux dans les théories modernes du comportement, ce n’est pas qu’elles sont fausses, c’est qu’elles peuvent devenir vraies, c’est qu’elles sont, en fait, la meilleure mise en concept possible de certaines tendances évidentes de la société moderne. On peut parfaitement concevoir que l’époque moderne (…) s’achève dans la passivité la plus inerte, la plus stérile que l’Histoire ait jamais connue.5

Devant cette anticipation catastrophiste, l’option choisie ne peut être l’impuissance et le laisser-faire. Il faut d’abord nommer ce à quoi nous avons affaire, c’est-à-dire un système (total) face auquel nous devons nous positionner.

Qu’est-ce que Big Other et que peut-on faire ?

Il s’agit des mécanismes d’extraction, marchandisation et contrôle. Ils instaurent une dichotomie entre les individus (utilisateurs) et leur propre comportement (pour les transformer en données) et simultanément ils produisent de nouveaux marchés basés justement sur la prédictibilité de ces comportements.

(Big Other) est un régime institutionnel, omniprésent, qui enregistre, modifie, commercialise l’expérience quotidienne, du grille-pain au corps biologique, de la communication à la pensée, de manière à établir de nouveaux chemins vers les bénéfices et les profits. Big other est la puissance souveraine d’un futur proche qui annihile la liberté que l’on gagne avec les règles et les lois.6

Avoir pu mettre un nom sur ce nouveau régime dont Google constitue un peu plus qu’une illustration (presque initiateur) est la grande force de Shoshana Zuboff. Sans compter plusieurs articles récents de cette dernière dans la Frankfurter Allgemeine Zeitung, il est étonnant que le rapport d’Antoinette Rouvroy, postérieur d’un an, n’y fasse aucune mention. Est-ce étonnant ? Pas vraiment, en réalité, car dans un rapport officiellement remis aux autorités européennes, il est important de préciser que la lutte contre Big Other (ou de n’importe quelle manière dont on peut l’exprimer) ne peut que passer par la légitimité sans faille des institutions. Ainsi, A. Rouvroy oppose les deux seules voies envisageables dans un tel contexte officiel :

À l’approche « law and economics », qui est aussi celle des partisans d’un « marché » des données personnelles, qui tendrait donc à considérer les données personnelles comme des « biens » commercialisables (…) s’oppose l’approche qui consiste à aborder les données personnelles plutôt en fonction du pouvoir qu’elles confèrent à ceux qui les contrôlent, et à tenter de prévenir de trop grandes disparités informationnelles et de pouvoir entre les responsables de traitement et les individus. C’est, à l’évidence, cette seconde approche qui prévaut en Europe.

Or, devant Google (ou devant ce Big Other) nous avons vu l’impuissance des États à faire valoir un arsenal juridique, à commencer par les lois anti-trust. D’une part, l’arsenal ne saurait être exhaustif : il concernerait quelques aspects seulement de l’exploitation des données, la transparence ou une série d’obligations comme l’expression des finalités ou des consentements. Il ne saurait y avoir de procès d’intention. D’autre part, nous pouvons toujours faire valoir que des compagnies telles Microsoft ont été condamnées par le passé, au moins par les instances européennes, pour abus de position dominante, et que quelques millions d’euros de menace pourraient suffire à tempérer les ardeurs. C’est faire peu de cas d’au moins trois éléments :

  1. l’essentiel des compagnies dont il est question sont nord-américaines, possèdent des antennes dans des paradis fiscaux et sont capables, elles, de menacer financièrement des pays entiers par simples effets de leviers boursiers.
  2. L’arsenal juridique qu’il faudrait déployer avant même de penser à saisir une cour de justice, devrait être rédigé, voté et décrété en admettant que les jeux de lobbies et autres obstacles formels soient entièrement levés. Cela prendrait un minimum de dix ans, si l’on compte les recours envisageables après une première condamnation.
  3. Il faut encore caractériser les Big Data dans un contexte où leur nature est non seulement extrêmement diverse mais aussi soumise à des process d’automatisation et calculatoires qui permettent d’en inférer d’autres quantités au moins similaires. Par ailleurs, les sources des données sont sans cesse renouvelées, et leur stockage et analyse connaissent une progression technique exponentielle.

Dès lors, quels sont les moyens de s’échapper de ce Big Other ? Puisque nous avons changé de paradigme économique, nous devons changer de paradigme de consommation et de production. Grâce à des dispositifs comme la neutralité du réseau, garantie fragile et obtenue de longue lutte, il est possible de produire nous même l’écosystème dans lequel nos données sont maîtrisées et les maillons de la chaîne de confiance sont identifiés.

Facebook is watching you

Facebook is watching you

Confiance et espaces de confiance

Comment évoluer dans le monde du capitalisme de surveillance ? telle est la question que nous pouvons nous poser dans la mesure où visiblement nous ne pouvons plus nous extraire d’une situation de soumission à Big Other. Quelles que soient nos compétences en matière de camouflage et de chiffrement, les sources de données sur nos individualités sont tellement diverses que le résultat de la distanciation avec les technologies du marché serait une dé-socialisation. Puisque les technologies sur le marché sont celles qui permettent la production, l’analyse et l’extraction automatisées de données, l’objectif n’est pas tant de s’en passer que de créer un système où leur pertinence est tellement limitée qu’elle laisse place à un autre principe que l’accumulation de données : l’accumulation de confiance.

Voyons un peu : quelles sont les actuelles échappatoires de ce capitalisme de surveillance ? Il se trouve qu’elles impliquent à chaque fois de ne pas céder aux facilités des services proposés pour utiliser des solutions plus complexes mais dont la simplification implique toujours une nouvelle relation de confiance. Illustrons ceci par des exemples relatifs à la messagerie par courrier électronique :

  • Si j’utilise Gmail, c’est parce que j’ai confiance en Google pour respecter la confidentialité de ma correspondance privée (no comment !). Ce jugement n’implique pas que moi, puisque mes correspondants auront aussi leurs messages scannés, qu’ils soient utilisateurs ou non de Gmail. La confiance repose exclusivement sur Google et les conditions d’utilisation de ses services.
  • L’utilisation de clés de chiffrement pour correspondre avec mes amis demande un apprentissage de ma part comme de mes correspondants. Certains services, comme ProtonMail, proposent de leur faire confiance pour transmettre des données chiffrées tout en simplifiant les procédures avec un webmail facile à prendre en main. Les briques open source de Protonmail permettent un niveau de transparence acceptable sans que j’en aie toutefois l’expertise (si je ne suis pas moi-même un informaticien sérieux).
  • Si je monte un serveur chez moi, avec un système libre et/ou open source comme une instance Cozycloud sur un Raspeberry PI, je dois avoir confiance dans tous les domaines concernés et sur lesquels je n’ai pas forcément l’expertise ou l’accès physique (la fabrication de l’ordinateur, les contraintes de mon fournisseur d’accès, la sécurité de mon serveur, etc.), c’est-à-dire tous les aspects qui habituellement font l’objet d’une division du travail dans les entreprises qui proposent de tels services, et que j’ai la prétention de rassembler à moi tout seul.

Les espaces de relative autonomie existent donc mais il faut structurer la confiance. Cela peut se faire en deux étapes.

La première étape consiste à définir ce qu’est un tiers de confiance et quels moyens de s’en assurer. Le blog de la FSFE a récemment publié un article qui résume très bien pourquoi la protection des données privées ne peut se contenter de l’utilisation plus ou moins maîtrisée des technologies de chiffrement7. La FSFE rappelle que tous les usages des services sur Internet nécessitent un niveau de confiance accordé à un tiers. Quelle que soit son identité…

…vous devez prendre en compte :

  • la bienveillance : le tiers ne veut pas compromettre votre vie privée et/ou il est lui-même concerné ;
  • la compétence : le tiers est techniquement capable de protéger votre vie privée et d’identifier et de corriger les problèmes ;
  • l’intégrité : le tiers ne peut pas être acheté, corrompu ou infiltré par des services secrets ou d’autres tiers malveillants ;

Comment s’assurer de ces trois qualités ? Pour les défenseurs et promoteurs du logiciel libre, seules les communautés libristes sont capables de proposer des alternatives en vertu de l’ouverture du code. Sur les quatre libertés qui définissent une licence libre, deux impliquent que le code puisse être accessible, audité, vérifié.

Est-ce suffisant ? non : ouvrir le code ne conditionne pas ces qualités, cela ne fait qu’endosser la responsabilité et l’usage du code (via la licence libre choisie) dont seule l’expertise peut attester de la fiabilité et de la probité.

En complément, la seconde étape consiste donc à définir une chaîne de confiance. Elle pourra déterminer à quel niveau je peux m’en remettre à l’expertise d’un tiers, à ses compétences, à sa bienveillance…. Certaines entreprises semblent l’avoir compris et tentent d’anticiper ce besoin de confiance. Pour reprendre les réflexions du Boston Consulting Group, l’un des plus prestigieux cabinets de conseil en stratégie au monde :

(…) dans un domaine aussi sensible que le Big Data, la confiance sera l’élément déterminant pour permettre à l’entreprise d’avoir le plus large accès possible aux données de ses clients, à condition qu’ils soient convaincus que ces données seront utilisées de façon loyale et contrôlée. Certaines entreprises parviendront à créer ce lien de confiance, d’autres non. Or, les enjeux économiques de ce lien de confiance sont très importants. Les entreprises qui réussiront à le créer pourraient multiplier par cinq ou dix le volume d’informations auxquelles elles sont susceptibles d’avoir accès. Sans la confiance du consommateur, l’essentiel des milliards d’euros de valeur économique et sociale que le Big Data pourrait représenter dans les années à venir risquerait d’être perdu.8

En d’autres termes, il existe un marché de la confiance. En tant que tel, soit il est lui aussi soumis aux effets de Big Other, soit il reste encore dépendant de la rationalité des consommateurs. Dans les deux cas, le logiciel libre devra obligatoirement trouver le créneau de persuasion pour faire adhérer le plus grand nombre à ses principes.

Une solution serait de déplacer le curseur de la chaîne de confiance non plus sur les principaux acteurs de services, plus ou moins dotés de bonnes intentions, mais dans la sphère publique. Je ne fais plus confiance à tel service ou telle entreprise parce qu’ils indiquent dans leurs CGU qu’ils s’engagent à ne pas utiliser mes données personnelles, mais parce que cet engagement est non seulement vérifiable mais aussi accessible : en cas de litige, le droit du pays dans lequel j’habite peut s’appliquer, des instances peuvent se porter parties civiles, une surveillance collective ou policière est possible, etc. La question n’est plus tellement de savoir ce que me garantit le fournisseur mais comment il propose un audit public et expose sa responsabilité vis-à-vis des données des utilisateurs.

S’en remettre à l’État pour des services fiables ? Les États ayant démontré leurs impuissances face à des multinationales surfinancées, les tentatives de cloud souverain ont elles aussi été des échecs cuisants. Créer des entreprises de toutes pièces sur fonds publics pour proposer une concurrence directe à des monopoles géants, était inévitablement un suicide : il aurait mieux valu proposer des ressources numériques et en faciliter l’accès pour des petits acteurs capables de proposer de multiples solutions différentes et alternatives adaptées aux besoins de confiance des utilisateurs, éventuellement avec la caution de l’État, la réputation d’associations nationales (association de défense des droits de l’homme, associations de consommateurs, etc.), bref, des assurances concrètes qui impliquent les utilisateurs, c’est-à-dire comme le modèle du logiciel libre qui ne sépare pas utilisation et conception.

Ce que propose le logiciel libre, c’est davantage que du code, c’est un modèle de coopération et de cooptation. C’est la possibilité pour les dynamiques collectives de réinvestir des espaces de confiance. Quel que soit le service utilisé, il dépend d’une communauté, d’une association, ou d’une entreprise qui toutes s’engagent par contrat (les licences libres sont des contrats) à respecter les données des utilisateurs. Le tiers de confiance devient collectif, il n’est plus un, il est multiple. Il ne s’agit pas pour autant de diluer les responsabilités (chaque offre est indépendante et s’engage individuellement) mais de forcer l’engagement public et la transparence des recours.

Chatons solidaires

Si s’échapper seul du marché de Big Other ne peut se faire qu’au prix de l’exclusion, il faut opposer une logique différente capable, devant l’exploitation des données et notre aliénation de consommateurs, de susciter l’action et non la passivité, le collectif et non l’individu. Si je produis des données, il faut qu’elles puissent profiter à tous ou à personne. C’est la logique de l’open data qui garanti le libre accès à des données placées dans le bien commun. Ce commun a ceci d’intéressant que tout ce qui y figure est alors identifiable. Ce qui n’y figure pas relève alors du privé et diffuser une donnée privée ne devrait relever que du seul choix délibéré de l’individu.

Le modèle proposé par le projet CHATONS (Collectif d’Hébergeurs Alternatifs, Transparents, Ouverts, Neutres et Solidaires) de Framasoft repose en partie sur ce principe. En adhérant à la charte, un hébergeur s’engage publiquement à remplir certaines obligations et, parmi celles-ci, l’interdiction d’utiliser les données des utilisateurs pour autre chose que l’évaluation et l’amélioration des services.

Comme écrit dans son manifeste (en version 0.9), l’objectif du collectif CHATONS est simple :

L’objectif de ce collectif est de mailler les initiatives de services basés sur des solutions de logiciels libres et proposés aux utilisateurs de manière à diffuser toutes les informations utiles permettant au public de pouvoir choisir leurs services en fonction de leurs besoins, avec un maximum de confiance vis-à-vis du respect de leur vie privée, sans publicité ni clause abusive ou obscure.

En lançant l’initiative de ce collectif, sans toutefois se placer dans une posture verticale fédérative, Framasoft ouvre une porte d’échappatoire. L’essentiel n’est pas tant de maximiser la venue de consommateurs sur quelques services identifiés mais de maximiser les chances pour les consommateurs d’utiliser des services de confiance qui, eux, pourront essaimer et se multiplier. Le postulat est que l’utilisateur est plus enclin à faire confiance à un hébergeur qu’il connaît et qui s’engage devant d’autres hébergeurs semblables, ses pairs, à respecter ses engagements éthiques. Outre l’utilisation de logiciels libres, cela se concrétise par trois principes

  1. Mutualiser l’expertise : les membres du collectif s’engagent à partager les informations pour augmenter la qualité des services et pour faciliter l’essaimage des solutions de logiciels libres utilisées. C’est un principe de solidarité qui permettra, à terme, de consolider sérieusement le tissu des hébergeurs concernés.
  2. Publier et adhérer à une charte commune. Cette charte donne les principaux critères techniques et éthiques de l’activité de membre. L’engagement suppose une réciprocité des échanges tant avec les autres membres du collectif qu’avec les utilisateurs.
  3. Un ensemble de contraintes dans la charte publique implique non seulement de ne s’arroger aucun droit sur les données privées des utilisateurs, mais aussi de rester transparent y compris jusque dans la publication de ses comptes et rapports d’activité. En tant qu’utilisateur je connais les engagements de mon hébergeur, je peux agir pour le contraindre à les respecter tout comme les autres hébergeurs peuvent révoquer de leur collectif un membre mal intentionné.

Le modèle CHATONS n’est absolument pas exclusif. Il constitue même une caricature, en quelque sorte l’alternative contraire mais pertinente à GAFAM. Des entreprises tout à fait bien intentionnées, respectant la majeure partie de la charte, pourraient ne pas pouvoir entrer dans ce collectif à cause des contraintes liées à leur modèle économique. Rien n’empêche ces entreprises de monter leur propre collectif, avec un niveau de confiance différent mais néanmoins potentiellement acceptable. Si le collectif CHATONS décide de restreindre au domaine associatif des acteurs du mouvement, c’est parce que l’idée est d’essaimer au maximum le modèle : que l’association philatélique de Trifouille-le-bas puisse avoir son serveur de courriel, que le club de football de Trifouille-le-haut puisse monter un serveur owncloud et que les deux puissent mutualiser en devenant des CHATONS pour en faire profiter, pourquoi pas, les deux communes (et donc la communauté).

Un chaton, deux chatons... des chatons !

Un chaton, deux chatons… des chatons !

Conclusion

La souveraineté numérique est souvent invoquée par les autorités publiques bien conscientes des limitations du pouvoir qu’implique Big Other. Par cette expression, on pense généralement se situer à armes égales contre les géants du web. Pouvoir économique contre pouvoir républicain. Cet affrontement est perdu d’avance par tout ce qui ressemble de près ou de loin à une procédure institutionnalisée. Tant que les citoyens ne sont pas eux-mêmes porteurs d’alternatives au marché imposé par les GAFAM, l’État ne peut rien faire d’autre que de lutter pour sauvegarder son propre pouvoir, c’est-à-dire celui des partis comme celui des lobbies. Le serpent se mord la queue.

Face au capitalisme de surveillance, qui a depuis longtemps dépassé le stade de l’ultra-libéralisme (car malgré tout il y subsistait encore un marché et une autonomie des agents), c’est à l’État non pas de proposer un cloud souverain mais de se positionner comme le garant des principes démocratiques appliqués à nos données numériques et à Internet : neutralité sans faille du réseau, garantie de l’équité, surveillance des accords commerciaux, politique anti-trust affirmée, etc. L’éducation populaire, la solidarité, l’intelligence collective, l’expertise des citoyens, feront le reste, quitte à ré-inventer d’autres modèles de gouvernance (et de gouvernement).

Nous ne sommes pas des êtres a-technologiques. Aujourd’hui, nos vies sont pleines de données numériques. Avec Internet, nous en usons pour nous rapprocher, pour nous comprendre et mutualiser nos efforts, tout comme nous avons utilisé en leurs temps le téléphone, les voies romaines, le papyrus, et les tablettes d’argile. Nous avons des choix à faire. Nous pouvons nous diriger vers des modèles exclusifs, avec ou sans GAFAM, comme la généralisation de block chains pour toutes nos transactions. En automatisant les contrats, même avec un système ouvert et neutre, nous ferions alors reposer la confiance sur la technologie (et ses failles), en révoquant toute relation de confiance entre les individus, comme si toute relation interpersonnelle était vouée à l’échec. L’autre voie repose sur l’éthique et le partage des connaissances. Le projet CHATONS n’est qu’un exemple de système alternatif parmi des milliers d’autres dans de multiples domaines, de l’agriculture à l’industrie, en passant par la protection de l’environnement. Saurons-nous choisir la bonne voie ? Saurons-nous comprendre que les relations d’interdépendances qui nous unissent sur terre passent aussi bien par l’écologie que par le partage du code ?

Pour aller plus loin :
  1. Discours prononcé lors d’une conférence intitulée Surveillance capitalism : A new societal condition rising lors du sommet CPDP (Computers Privacy and Data protection), Bruxelles, 27-29 janvier 2016 (video).
  2. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, janvier 2016.
  3. Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, pp.&nbspp;75-89.
  4. Directive 95/46/CE du Parlement européen et du Conseil, du 24 octobre 1995, relative à la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données.
  5. Hannah Arendt, La condition de l’homme moderne, Paris : Calmann-Lévy, Agora, 1958, pp. 400-401.
  6. Shoshana Zuboff, « Big other : surveillance capitalism and the prospects of an information civilization », Journal of Information Technology, 30, 2015, p.&nbspp;81.
  7. h2, « Why Privacy is more than Crypto », blog Emergency Exit, FSFE, 31 mai 2016.
  8. Carol Umhoefer et al., Le Big Data face au défi de la confiance, The Boston Consulting Group, juin 2014.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

blog-libre : non, la blogosphère n’est pas encore morte

Ces cinq derniers jours, j’ai eu assez peu de temps pour me poser et feuilleter mes flux RSS. Pas mal boulot, un aller-retour à la campagne, un pique nique TAFTApéro à Lyon pour célébrer cette année d’action militante et la manifestation contre la Loi Travail mardi soir pour s’insurger contre le deuxième 49.3 de la droite PS.

Et quelle surprise ce jour de voir mon flux « blogs » avec 54 nouveaux articles à lire, en 5 jours !

blogosphere 05 juillet 2016

Hey, les gars, la blogosphère n’est pas encore morte ! Hourra  :)

 

– Damien

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

arpinux : HandyLinux devient DFLinux pour grandir encore et toucher encore plus de novices

bonjour les humain-e-s
J'ai le plaisir de vous annoncer la future fusion des projets HandyLinux et Debian-Facile
Debian-Facile est un portail pour les utilisateurs Debian porté par une association loi 1901 . Ce portail intègre une documentation complète , un forum d'entraide , des outils en ligne , une page de démarrage rapide , ainsi qu'un salon de discussion IRC.

L'équipe Debian-Facile avait mis en place une distribution francophone pour aider l'utilisateur à découvrir Debian, mais cela demande beaucoup de temps et des contributeurs. Ce projet restait "en stationnement" 'dixit DF

De notre côté, HandyLinux est une distribution fonctionnelle qui en deux ans, a fait la preuve de son efficacité quant à l'apprivoisement du novice windowsien ... cela dit,  notre communauté ne grandit pas ... on est arrivé à la fameuse bascule ...

Une des armes du logiciel libre, c'est la diversité que l'on y trouve
Un des soucis avec le logiciel libre, c'est la dispersion des ressources
...
Il faut trouver l'équilibre et alors que tout se divise et se multiplie dans le monde merveilleux du Libre, jai décidé de tenter l'union, la fusion, la collaboration mutuellement profitable...
Lorsque j'ai proposé cette idée sur debian-facile, j'ai reçu un accueil plus que chaleureux et cela m'a conforté dans l'idée qu'il fallait passer au stade supérieur.


Ce que Debian-Facile vous apporte
  • Un site solide et stable maintenu par une communauté en place depuis 10 ans
  • Une documentation généraliste plus complète que celle d'HandyLinux (spécialisée dans les applis intégrées)
  • Une association loi 1901 bien plus sérieuse que notre simple "bonne volonté"


Ce que nous amenons à Debian-Facile
  • Un outil physique (la distribution) comme support d'apprentissage à Debian : votre disribution ne disparaîtra pas !
  • Des contribut-eur-rice-s impliqué-e-s et motivé-e-s
  • Notre(ma?) passion pour la documentation et les tutoriels


Que va-t-il arriver à la distribution "HandyLinux" ?"HandyLinux" va devenir "DFLinux" : une version simplifiée et adaptée de Debian pour les novices. HandyLinux va redevenir ce qu'elle a toujours été : un outil. Elle va s'inscrire dans un cadre d'apprentissage Debian plus large que notre petit site handylinux.org : vous serez plus entourés, mieux aidés et au lieu de demander quelque chose à 3 dev, vous le demanderez à toute une équipe de débianneux barbus mais pas trop

Que va-t-il arriver aux utilisateurs HandyLinux ?Il faut bien comprendre qu'HandyLinux est une Debian Derivative 100% compatible avec Debian et donc, si vous utilisez HandyLinux, vous utilisez déjà Debian !
  • Votre système restera stable, sécurisé et maintenu : je reste responsable des dépôts handylinux qui seront actifs jusqu'en 2018.
  • Vous pouvez continuer à utiliser HandyLinux sans soucis, trouver de l'aide dans la documentation complète intégrée, et venir sur le forum debian-facile pour trouver de l'aide. Vous y retrouverez d'ailleurs la plupart des membres actifs "handylinux"


Comment la transition va-t-elle être assurée ?
  • Le forum actuel reste ouvert le temps de "faire passer" celles et ceux qui veulent sur le forum debian-facile. Notez que le support sera plus efficace chez debian-facile.
  • La documentation a déjà fait l'objet d'une refonte et les utilisateurs handylinux ont déjà leur propre manuel intégré ;) .Toute la documentation utilisable par le wiki Debian-Facile sera exportée, puis la documentation handylinux sera fermée avec redirection vers le wiki Debian-Facile et notre nouveau site de documentation en ligne.
  • Le blog reste ouvert le temps de faire passer les dernières annonces, puis il sera fermé en écriture et aux commentaires mais restera en ligne jusqu'en 2018, date de fin du support handylinux-v2.
  • Les pages spéciales comme la page de démarrage internet ou les contribution graphiques resteront accessibles de la même façon jusqu'en 2018.


Et c'est pour quand précisément ?Alors je voulais prendre l'été tranquille pour vous préparer un joli cadeau, mais une intervention sur le forum m'a obligé à accélérer quelque peu la procédure. J'aurais préféré le faire en douceur, vous comprendrez que je ne pouvais garder le silence plus longtemps . Mais rien ne presse et on a tout le temps avant la fin du support HandyLinux prévu pour 2018.

Pourquoi ne pas continuer HandyLinux ?Le projet HandyLinux a atteint ses limites, mais si vous désirez vraiment par-dessus tout "sauver" handylinux, les sources sont disponibles et je vous cède gracieusement le nom de domaine et l'espace d'hébergement (100Go chez OVH) sur simple demande publique et motivée. Notez que si vous prenez cette décision, il faudra maintenir les dépôts debian rattachés à la distro, le blog, le forum, le wiki bilingue et bien sûr, la maintenance générale du site et de l'hébergement ;)

On vous attend sur Debian-Facile !Vous pouvez dès maintenant nous rejoindre sur le forum d'entraide Debian-Facile sans oublier de vous présenter , on passera vous faire un petit coucou

++
arp
HandyLinux - la distribution Debian sans se prendre la tête...

Gravatar de arpinux
Original post of arpinux.Votez pour ce billet sur Planet Libre.

Goffi : guide : écrire un greffon pour SàT

Cela fait plusieurs fois qu’on me demande comment contribuer à SàT, le projet étant conséquent il n’est pas facile d’accès. Aussi voici un article d’introduction pour l’écriture d’un greffon pour le backend.

Il est très utile d’avoir lu l'article d’introduction sur l’architecture de SàT avant. L’intérêt de faire un greffon backend est qu’il fonctionnera avec tous les frontaux, autrement dit sur le web, sur le bureau, sur appareils portables (bientôt) voire en ligne de commande ou autre.

Nous allons faire un classique « Salut à Toi le monde ! » bien connu des développeurs.

avant de commencer, quelques remarques en vrac

Quelques remarques et notions utiles à savoir, ne vous inquiétez pas si vous ne comprenez pas tout du premier coup :

  • SàT est actuellement en Python 2, le passage à Python 3 ayant été bloqué principalement par Twisted jusqu’ici. Mais les choses ont beaucoup avancé récemment, et Twisted fonctionne désormais partiellement avec Python 3, la partie XMPP est aussi en cours de portage, et le passage à Python 3 pourra être envisagé pour SàT 0.8 (après la version « grand public » donc).

  • le style de code suit à peu près les conventions de la PEP 8, mais pas entièrement. En particulier les noms de méthodes utilisent le CamelCase pour rester cohérent avec le code de Twisted, et la limite des 80 caractères n’est pas respectée (il n’est pas impossible que cela change dans le futur), vous aurez plus de détails sur le wiki (notez bien la partie sur les docstrings).

  • le backend de SàT est entièrement asynchrone, en utilisant Twisted. C’est probablement le plus difficile à appréhender pour un débutant, et vous pouvez commencer en regardant comment font les autres parties du code pour comprendre les grandes lignes. La chose la plus importante à retenir est qu’il ne faut jamais faire de code « bloquant », c’est-à-dire long à s’exécuter, car ça bloquera tout le backend. S’il est indispensable de bloquer pour une raison ou une autre (un module tiers à utiliser par exemple), vous devrez utiliser des processus séparés. La documentation sur le site mentionné est relativement fournie quand vous vous sentirez d’approfondir le domaine…

  • la hierarchie du code (src) est actuellement comme suit:

    • bridge gère la communication avec les frontaux, c’est l'IPC (actuellement D-Bus mais d’autres options sont possibles)
    • core contient comme son nom l’indique le cœur du backend (le « Service » SàT, le client XMPP, les constantes, les exceptions spécifiques à SàT, la gestion des logs et de la traduction)
    • memory gère tout ce qui est conservation des données que ce soit en mémoire vive ou sur disque (via Sqlite pour le moment, mais d’autres options sont possibles)
    • plugins contient… les greffons, c’est à eux que l’on va s’intéresser par la suite
    • stdui contient les interfaces XMLUI de base (nous reparlerons de XMLUI plus bas)
    • test est le répertoire où sont comme vous vous en doutez les tests unitaires ou autre.
    • tmp est une hiérarchie que nous avons dû créer pour mettre du code temporaire destiné à être intégré par des projets tiers que nous utilisons, en particulier Wokkel à l’heure actuelle
    • tools est la hiérarchie un peu « fourre-tout » pour les choses utiles, en particulier XMLUI et les triggers dont nous reparlerons plus tard. La sous-hiérarchie « common » contient les modules utilisés/ables à la fois par le backend et les frontaux.
    • twisted enfin est uniquement utilisé pour l’intégration à Twisted
  • on parle souvent de profil (profile en anglais et dans le code) qui correspond à un compte XMPP.
    En mode mono-utilisateur (Primitivus ou Cagou par exemple), cela peut correspondre à plusieurs comptes d’un même utilisateur (par exemple j’ai un profil jabberfr et un autre libervia.org pour mes 2 comptes correspondant). En mode multi-utilisateur (avec Libervia par exemple), cela correspond à des comptes d’utilisateurs différents.

  • à la notion de « profile » s’ajoute celle de « profile_key ». C’est en fait en mot clef qui indique un profil à utiliser (vous les trouverez dans les constantes avec PROF_KEY_XXX). En particulier PROF_KEY_DEFAULT indique d’utiliser le profil par défaut, et PROF_KEY_NONE indique une valeur non renseignée qui provoquera une exception si elle est utilisée avec getClient (voir plus bas).

  • dans les classes, on utilise souvent un attribut « host » (self.host la plupart du temps), qui correspond à l’instance du service SàT, et qui permet d'accéder à beaucoup de choses (le « bridge », la partie « memory », etc).

  • dans les méthodes, vous verrez souvent les paramètres « client » ou « profile ». « profile » correspond au nom du profil dont on a parlé plus haut, et client à l’instance du client XMPP et donc à la session associée à ce profil.
    On passe du profil au client en faisant « host.getClient(profile) » et du client au profil en faisant « client.profile ».
    Avant « profile » était systématiquement utilisé et placé en dernier paramètre (avec une valeur par défaut de C.PROF_KEY_NONE qui indique une valeur non renseignée). Désormais il a été décidé de toujours utiliser client comme premier argument, et profile uniquement quand c’est nécessaire (à l’entrée ou la sortie du « bridge » par exemple), aussi le code passe petit à petit à la nouvelle convention, et vous pouvez voir les 2 cas.

  • en début de fichier, il est souvent utile de faire ces imports :

    from sat.core.constants import Const as C from sat.core.i18n import _, D_ from sat.core.log import getLogger log = getLogger(__name__) from sat.core import exceptions

    La première ligne permet d’accéder aux constantes, avec C pour que ça reste court et lisible.
    La seconde importe la fonction gettext « _ » qui traduit le texte dans la langue locale au moment de son utilisation, et « D_ » qui indique qu’un texte est à traduire, mais que la traduction aura lieu plus tard dynamiquement (utile pour un menu par exemple, qu’on peut traduire différemment selon les profils).
    Les 2 suivantes instancient un loggeur qu’on peut utiliser assez classiquement avec log.[niveau](message), par exemple log.debug(u"mon message de debug")
    Enfin la dernière ligne permet d’utiliser les exceptions spécifiques à SàT, vous pouvez lire le code du module idoine pour plus d’infos.

Avec tout ça on a l’essentiel pour s’attaquer au code.

création du fichier et déclaration du plugin

La première chose à faire est de créer un fichier python dans le répertoire plugins et dont le nom commence par "plugin_".
De tels fichiers sont automatiquement importés par le backend au démarrage, et à terme il devrait être possible de les mettre ailleurs (par exemple dans un dossier personnel) et de les télécharger et installer automatiquement.
Vous constaterez que les greffons existant sont nommés avec leur type puis leur nom, et que ceux qui implémentent des XEPs prennent le nom de la XEP (par exemple plugin_xep_0045.py).

Nous allons maintenant déclarer le greffon, pour delà nous utilisons une variable (un dictionnaire) nommée PLUGIN_INFO et placée en début de fichier. Voici un exemple d’en-tête avec celui du greffon XEP-0045 (le salon de groupe MUC) :

PLUGIN_INFO = { "name": "XEP-0045 Plugin", "import_name": "XEP-0045", "type": "XEP", "protocols": ["XEP-0045"], "dependencies": [], "recommendations": [C.TEXT_CMDS], "main": "XEP_0045", "handler": "yes", "description": _(u"""Implementation of Multi-User Chat""") }

voici les informations données:

  • name : nom « lisible par un humain » donné au greffon
  • import_name : nom court utilisé pour référencer ce greffon par ailleurs (depuis d’autres greffons par exemple) pour accéder à ce greffon par la suite, vous pourrez utiliser host.plugins[nom d'import], ainsi ici vous pourrez faire host.plugins["XEP-0045"]
  • type : une information sur ce que qui est implémenté ; est-ce une XEP (type "XEP"), ou expérimentation (type "EXP") ? L’information n’est pas encore utilisée, mais elle devrait permettre de filtrer les greffons à l’avenir, quand ils seront téléchargeables depuis un dépôt. Les types courants ont leur constante de la forme PLUG_TYPE_*
  • protocols : une liste de protocoles implémenté le cas échéant. Les XEP sont toujours référencées sous la forme XEP-0xxx avec « XEP » en majuscules.
  • dependencies : autres greffons indispensables pour faire fonctionner celui-ci. C'est une liste de noms correspondant au « import_name » voulus. Ces greffons seront importés avant celui en cours, et s’ils ne sont pas disponibles l'import échouera
  • recommendations : greffons non indispensable pour faire fonctionner celui en cours, mais qui apportent des améliorations si présents. Fonctionne de la même manière que dependencies sauf que l'import n’échouera pas si ces greffons ne sont pas disponibles
  • main : classe principale du greffon, c’est cette classe qui sera instanciée à l'import et qu’on référencera en faisant host.plugins[XXX]
  • handler : s’il vaut "yes", indique que le greffon va réagir à des requêtes XML particulières, toute autre valeur indique le contraire. Nous reparlerons des handlers plus tard
  • description: texte décrivant ce que fait le greffon. Vous remarquerez la présence du _() qui est utilisé pour la traduction (gettext)

Pour notre greffon que nous allons mettre dans un fichier plugin_misc_salut_le_monde.py placé dans src/plugins, nous allons utiliser le code suivant :

#!/usr/bin/env python2 # -*- coding: utf-8 -*- from sat.core.constants import Const as C from sat.core.i18n import _ from sat.core.log import getLogger log = getLogger(__name__) PLUGIN_INFO = { "name": u"Salut le monde", "import_name": "SALUT_MONDE", "type": C.PLUG_TYPE_MISC, "main": "Salut", "handler": "no", "description": _(u"""Plugin to learn basic concepts of SàT""") } class Salut(object): def __init__(self, host): log.info(_(u"Salut à Toi le monde !"))

C'est à peu près le greffon le plus simple que vous puissiez faire. En lançant SàT, vous devriez voir quelque chose similaire à ceci dans les logs :

2016-07-05 19:15:31+0200 [-] [sat.core.sat_main] importing plugin: Salut le monde 2016-07-05 19:15:31+0200 [-] [sat.plugins.plugin_misc_salut_le_monde] Salut à Toi le monde ! XMLUI

Bon tout ça c’est bien gentil, mais il serait quand même sympa d’avoir notre message sur les frontaux.

Comme vous le savez, SàT est multi-frontaux, autrement dit un message peut être affiché sur Libervia (interface web), sur Primitivus (interface console), (bientôt) sur Cagou (interface bureau/appareils portatifs) ou encore dans Emacs avec l’interface « Sententia ».
Tous ces frontaux affichent les informations différemment : qui avec du texte directement, qui en HTML, qui via un cadriciel graphique, etc. Il serait ennuyant de devoir refaire l’affichage de l’interface pour chaque frontal, aussi nous avons créé un mini langage XML qui permet de décrire une interface de manière générique : XMLUI.
C’est un langage descriptif simple et qui reste volontairement de haut niveau pour que le frontal affiche l’information comme il l’entend. On décrit des choses comme des textes, des JID, ou des listes.

XMLUI contient 2 classes « mères » principales : un widget (texte ou mot de passe par exemple), et un « container » (conteneur) qui dispose les widgets d’une certaine façon (verticalement, 2 par 2, en liste, etc). Vous pouvez lire le code gérant cela dans tools.xml_tools.

La création d’une interface se veut assez simple, et xml_tools contient des méthodes pour aider. Par exemple, l’interface suivante utilisée dans l'UI standard pour le gestionnaire de profils (dans stdui.ui_profile_manager) permet de demander un mot de passe si nécessaire :

form_ui = xml_tools.XMLUI("form", title=D_('Profile password for {}').format(profile), submit_id='') form_ui.addPassword('profile_password', value='') d = xml_tools.deferredUI(self.host, form_ui, chained=True) d.addCallback(self._authenticateProfile, profile) return {'xmlui': form_ui.toXml()}

Rien de bien compliqué. Quelques remarques sur ce code :

  • on utilise D_ pour le titre, car il peut être traduit différemment d’un profil à l’autre
  • une UI XML peut être soumise (c.-à-d. un résultat est envoyé par le frontal au backend, le mot de passe par exemple), et la méthode appelée dans le backend retourne un dictionnaire. Si celui-ci est vide, le dialogue est fini, s’il retourne une nouvelle interface avec la clef « xmlui », celle-ci sera affichée.
  • pour soumettre une interface on peut soit enregistrer une callback via host.registerCallback (l’identifiant retourné sera utilisé avec submit_id au moment de la création de l'UI), soit utiliser une XMLUI « déferrée » comme ici, ce qui permet d’utiliser le mécanisme de Deferred de Twisted, submit_id doit dans ce cas être une chaîne vide.

Pour notre greffon de test, nous n’avons pas besoin de quelque chose nécessitant une réponse, nous pouvons utiliser la méthode xml_tools.note qui facilite les choses.

Pour utiliser une XMLUI, il y a plusieurs méthodes : création d’une callback via un menu par exemple, ou envoi d’un signal aux frontaux pour leur indiquer qu’il faut afficher l’interface, c’est ce que nous allons faire ici avec la méthode host.actionNew :

host.actionNew({"xmlui": xml_tools.note(u"Salut à Toi le monde !").toXml()}, profile=profile)

Remarquez le toXml() nécessaire pour convertir l'UI XML en texte utilisable à travers le bridge.

Nous avons presque notre greffon qui affiche un message, mais il y a encore un problème à régler : le greffon est importé au chargement du backend, un moment où les frontaux ne sont pas encore actifs, aussi nous ne pouvons pas afficher le message dans l'__init__, il serait envoyé dans le vide.

La solution est simple : nous allons afficher le message quand le profil est connecté. Dans ce cas, la méthode profileConnected, si elle existe, est appelé pour chaque greffon, avec pour seul argument le nom de profil.

Notre code devient donc :

#!/usr/bin/env python2 # -*- coding: utf-8 -*- from sat.core.constants import Const as C from sat.core.i18n import _ from sat.core.log import getLogger log = getLogger(__name__) from sat.tools import xml_tools PLUGIN_INFO = { "name": u"Salut le monde", "import_name": "SALUT_MONDE", "type": C.PLUG_TYPE_MISC, "main": "Salut", "handler": "no", "description": _(u"""Plugin to learn basic concepts of SàT""") } class Salut(object): def __init__(self, host): self.host = host log.info(_(u"Salut à Toi le monde !")) def profileConnected(self, profile): msg = u"Salut à vous {} et le monde !".format(profile) self.host.actionNew({"xmlui": xml_tools.note(msg).toXml()}, profile=profile)

En lançant Primitivus, voici ce que l’on voit :

résultat avec Primitivus

…et avec Libervia :

résultat avec Libervia

Vous aurez un message équivalent sur les autres frontaux.

À savoir également

Nous n’irons pas plus loin pour ce premier guide afin de ne pas être trop indigeste, mais il peut être utile d’expliquer succinctement d’autre éléments :

  • il y a des paramètres que vous pouvez utiliser pour configurer votre greffon. Ils sont déclarés en XML, et il existe 2 types : « general » pour un paramètre global du backend (par exemple le port d’un serveur), et « individual » pour les paramètres qui changent avec les profils, ce qui est le cas le plus courant (par exemple le JID est un paramètre individuel).

  • il y a un mécanisme de menus qui permettent d’associer une action (souvent un XMLUI) à un menu. Il y a plusieurs types de menus (regardez les constantes C.MENU_*) : C.MENU_GLOBAL sera le menu principal, tandis que C.MENU_JID_CONTEXT sera utilisé en cliquant sur un jid (un contact par exemple).

  • si votre greffon gère une tâche longue quelconque (par exemple un transfert de fichier), il y a un mécanisme pour gérer les progressions, regardez les méthodes progress* pour avoir une idée de leur fonctionnement

  • autre notion importante : la limite de sécurité. Il s’agit d’un simple entier qui indique si une méthode peut être utilisée en environnement restreint ou pas. Pour un frontal utilisé par un simple utilisateur ça n’est a priori pas utilisé, mais un frontal multi-utilisateur comme Libervia, ça permet de limiter ce qui peut être changé (le port d’un serveur ne doit pas être changé tandis que la syntaxe favorite peut l’être par exemple). Vous trouverez des explications sur le wiki.

  • si votre greffon réagit au XML qui passe (ce qui est probablement — mais pas forcément — le cas si vous implémentez une XEP), il agit en « handler » et doit déclarer « "handler": "yes" » dans PLUGIN_INFO. Au moment de l'import, la méthode getHandler sera appelée et elle doit retourner l'instance à utiliser. Pour gérer « disco », votre classe doit implémenter wokkel.disco.IDisco et les méthodes getDiscoInfo et getDiscoItems, référez-vous au code des différents greffons pour bien comprendre.

  • enfin les triggers permettent de modifier le comportement de SàT (du cœur ou d’un plugin), ce sont des méthodes qui sont appelées à certains endroits (d’autres projets parlent parfois de « hook »). Ils peuvent être utilisés par exemple pour modifier un message (le greffon OTR les utilise pour chiffrer le contenu). Il ne faut les utiliser que si nécessaire, car ils compliquent un peu la lecture du code.

Et bien entendu, vous pouvez toujours venir chercher de l’aide sur le salon MUC de SàT : sat@chat.jabberfr.org.

À vos claviers ! Et n’oubliez pas de nous faire signe si vous vous lancez dans quelque chose :)

P.-S. : les morceaux de codes ne sont pas mis en couleurs à l’heure actuelle, j’envisage de faire un greffon pour intégrer pygments, mais pour le moment la priorité est le développement de Cagou.

Gravatar de Goffi
Original post of Goffi.Votez pour ce billet sur Planet Libre.

Articles similaires

nIQnutn : Thème W3css pour PluXml

W3css est un nouveau thème pour PluXml. Il reprend le framework du même nom et permet d'adapter facilement le style d'un site. Le thème W3css adopte la même structure des pages (articles, catégories, tags et archives, ...) que le thème par défaut mais avec une touche colorée et quelques modifications. Le thème peut être utilisé tel quel mais il est possible de modifier la couleur par défaut et de nombreux éléments (faudra quand même bricoler pour ça).
Il existe +50 couleurs disponibles et la possibilité d'importer ses propres couleurs pour contenter tous les goûts.

L'objectif est de fournir un thème élégant tout en profitant des fonctions et de la simplicité de W3css pour obtenir un site aboutit. Il sera très facile d'ajouter du contenu (comme de tableaux, listes, alertes, ....) qui reprendra le même style que celui du thème pour une mise en page impeccable.

Le thème est sous licence libre et peut donc être modifié/partagé selon vos envies.

Présentation

Voici quelques exemples de la page d'accueil déclinée en plusieurs couleurs.

Fonctions principales
  • Thème responsive design pour s'adapter à tous les écrans
  • Intégration de la police d'icônes FontAwesome
  • Une pagination simplifiée
  • Un menu déroulant pour les pages statiques
  • De nombreux thèmes de couleur disponibles
  • La possibilité de créer un thème de couleur facilement
Le thème en images Installation

Pour faire fonctionner le thème, il faudra évidement installer le thème ainsi que deux plugins supplémentaires qui permettront d'intégrer la police d'icône FontAwesome et une pagination adaptée au thème.

Pré-requis
  • PluXml 5.5
  • Thème W3css 1.0
  • Plugin plxFontAwesome 0.3
  • Plugin plxSimplePager 1.0

Le thème a été créé pour la version 5.5 de PluXml et aucune compatibilité avec les versions précédentes n'est assurée.

Installation du thème W3css

On commence par télécharger le thème: http://blog.niqnutn.com/plugins/repository/index.php
Ensuite, il faut décompresser l'archive. Le dossier du thème doit être nommé w3css pour fonctionner correctement (renommer le si besoin).
Il ne reste plus qu'à le déposer sur votre serveur dans le répertoire themes de votre installation PluXml.
On finit par activer le thème dans l'administration de votre site depuis le menu: Paramètres > Thèmes puis sélectionner le thème W3css et cliquer sur Modifier les options d'affichage pour appliquer les changements.

On complète l'installation avec deux plugins qui permettent d'améliorer le thème: plxFontAwesome et plxSimplePager.

Installation de FontAwesome

On continue en installant le plugin plxFontAwesome qui ajoutera la police d'icône.
On télécharge le plugin sur: http://blog.niqnutn.com/plugins/repository/index.php
Ensuite, il faut décompresser l'archive. Le dossier du plugin doit être nommé plxFontAwesome pour fonctionner correctement (renommer le si besoin).
Il ne reste plus qu'à le déposer sur votre serveur dans le répertoire plugins de votre installation PluXml.
On finit par activer le plugin dans l'administration de votre site depuis le menu: Paramètres > Plugins puis dans l'onglet Plugins inactifs sélectionner plxFontAwesome et dans le menu déroulant plus haut sélectionner Activer pour valider les modifications.

Pour plus d'information, un article détaillé pour découvrir FontAwesome et son utilisation: http://blog.niqnutn.com/index.php?article18/fontawesome

Installation de plxSimplePager

Il reste encore le plugin plxSimplePager pour ajouter une pagination simplifiée à PluXml.
On récupère l'archive sur : http://blog.niqnutn.com/plugins/repository/index.php
Ensuite, il faut décompresser l'archive. Le dossier du plugin doit être nommé plxSimplePager pour fonctionner correctement (renommer le si besoin).
Il ne reste plus qu'à le déposer sur votre serveur dans le répertoire plugins de votre installation PluXml.
On finit par activer le plugin dans l'administration de votre site depuis le menu: Paramètres > Plugins puis dans l'onglet Plugins inactifs sélectionner plxSimplePager et dans le menu déroulant plus haut sélectionner Activer pour valider les modifications.

Une fois le thème et les deux plugins correctement installés et activés, il suffit de recharger la page d'accueil pour découvrir le nouveau thème.

Toutes les informations concernant l'installation se retrouve également dans le fichier Readme.md en cas de changement.
Les informations concernant l'utilisation du thème sont dans le menu: Paramètres > Thèmes > Aide

Changer les couleurs du thème

Le thème a été créé dans le but d'offrir une très grande personnalisation. Le premier élément que l'on peut changer, c'est la couleur !

Le plugin W3cssThemeSelect permet de sélectionner parmi une liste de couleurs prédéfinit, ce qui sera pratique pour tous ceux qui se lancent dans la construction de leur premier site ou ceux qui ne souhaitent pas s'aventurer dans la modification du code. Pour ceux qui veulent aller un peu plus loin, il est possible d'ajouter ses propres couleurs, un outil permet de générer automatiquement le code CSS correspondant ou simplement de l'éditer manuellement. Il faudra dans ce cas l'intégrer dans le fichier CSS du thème.

Installation de W3cssThemeSelect

L'installation du plugin W3cssThemeSelect est la solution la plus simple et celle qui est recommandée.

On commence par installer W3cssThemeSelect qui permettra de choisir la couleur du thème.
On télécharge le plugin sur: http://blog.niqnutn.com/plugins/repository/index.php
Ensuite, il faut décompresser l'archive. Le dossier du plugin doit être nommé plxW3cssThemeSelect pour fonctionner correctement (renommer le si besoin).
Il ne reste plus qu'à le déposer sur votre serveur dans le répertoire plugins de votre installation PluXml.
On finit par activer le plugin dans l'administration de votre site depuis le menu: Paramètres > Plugins puis dans l'onglet Plugins inactifs sélectionner W3cssThemeSelect et dans le menu déroulant plus haut sélectionner Activer pour valider les modifications.

Il faut maintenant changer la couleur du thème. Dans le menu permettant de gérer le plugin, cliquer sur le lien Configuration correspondant à W3cssThemeSelect . Il suffit de choisir parmi la liste déroulante et de cliquer sur Enregistrer pour valider les modifications.

Pour voir les modifications, il faut penser à recharger la page d'accueil.

De cette manière, on pourra changer régulièrement le thème pour l'adapter aux saisons ou aux événements de l'année.

Modification manuelle

Pour modifier les couleurs du thème manuellement, il faudra éditer la feuille de style présente dans "/themes/w3css/css/w3-custom.css". Cela correspond aux première lignes du fichier CSS.

/themes/w3css/css/w3-custom.css /* Couleurs du thème */ .w3-theme-l5 {color:#000 !important; background-color:#faf9f8 !important} .w3-theme-l4 {color:#000 !important; background-color:#efeae6 !important} .w3-theme-l3 {color:#000 !important; background-color:#dfd4cd !important} .w3-theme-l2 {color:#000 !important; background-color:#cfbfb4 !important} .w3-theme-l1 {color:#000 !important; background-color:#bfa99b !important} .w3-theme-d1 {color:#fff !important; background-color:#a48470 !important} .w3-theme-d2 {color:#fff !important; background-color:#95745f !important} .w3-theme-d3 {color:#fff !important; background-color:#836654 !important} .w3-theme-d4 {color:#fff !important; background-color:#705748 !important} .w3-theme-d5 {color:#fff !important; background-color:#5d493c !important} .w3-theme-light {color:#000 !important; background-color:#faf9f8 !important} .w3-theme-dark {color:#fff !important; background-color:#5d493c !important} .w3-theme-action {color:#fff !important; background-color:#5d493c !important} .w3-theme {color:#fff !important; background-color:#af9483 !important} .w3-text-theme {color:#af9483 !important} .w3-theme-border {border-color:#af9483 !important} .w3-hover-theme:hover {color:#fff !important; background-color:#af9483 !important}

Il est possible de l'éditer directement depuis l'interface d'administration depuis le menu: Paramètres > Thèmes > Éditer les fichiers du thème ou en modifiant et en envoyant le fichier CSS correspondant via FTP.

Un outil est disponible en ligne pour générer le code CSS à partir d'une couleur. Il faut se rendre sur la page W3.CSS Color Themes pour créer son thème personnalisé. Une fois le thème créer, il suffit de récupérer le CSS qui a été généré et le recopier dans w3-custom.css .

Une fois les modifications effectuées, il faut recharger la page d'accueil pour que les modifications s'appliquent.

Aide sur W3css

W3css ne se limite pas uniquement au thème mais permet la mise en page du contenu d'un site. Cela peut passer par la mise en page d'un tableau, d'images, formulaires, boutons ... en utilisant les class qui correspondent. Rien de compliquer, il suffit de se baser sur les nombreux exemples disponibles puis de les adapter à votre contenu. Aucune connaissance n'est nécessaire pour utiliser W3css.

Quelques exemples de ce qu'il est possible de réaliser:

Pour profiter du framework W3css, des exemples sont disponibles dans l'aide du thème.

Pour voir toutes les possibilités de W3css, on peut visiter les différents modèles: http://www.w3schools.com/w3css/w3css_templates.asp
Pour découvrir toutes les fonctions, il faut parcourir la documentation et ses nombreux exemples: http://www.w3schools.com/w3css/default.asp

Ressources Télécharger
2016 nIQnutn CC-BY

Gravatar de nIQnutn
Original post of nIQnutn.Votez pour ce billet sur Planet Libre.

genma : Yunohost et sous-domaine

Yunohost permet l'usage de sous-domaine. Il faut avoir un nom de domaine par exemple mon domaine.fr et créer au niveau de la configuration DNS (chez Gandi par exemple) des sous domaines.

Configuration chez Gandi

Dans la configuration de son DNS, on aura donc une entrée A avec l'adresse IPv4, une entrée AAAA avec l'adresse IPv6 et ensuite différents CNAME pour le sous-domaines que l'on souhaite créer.

Nom Type Valeur
@ A XYZ.XYZ.XYZ.XYZ
@ AAAA 1234:1234:1234:FFAA:FFAA:FFAA:FFAA:AAFF
* CNAME mondomaine.fr.
agenda CNAME mondomaine.fr.
blog CNAME mondomaine.fr.
rss CNAME mondomaine.fr.
...

permet d'avoir un agenda.mondomaine.fr, un blog.mondomaine.fr etc...

Installer une application sur un sous-domaine

Pour installer une application sur un sous domaine, par exemple blog.mondomaine.fr, dans Yunohost, tout ce fait via la partie administration. On ajoute tout d'abord le sous-domaine à la liste des domaines disponibles. La création d'un sous-domaine dans Yunohost créera les fichiers de configuration correspondant pour nginx (le serveur web de Yunohost).

Puis dans la partie installation d'une application, on installe l'application de façon traditionnelle en en choisissant ce sous-domaine comme domaine (par exemple blog.mondomaine.fr) et en indiquant comme chemin "/" (et non /wordpress qui sera le chemin par défaut). On a alors un message d'avertissement indiquant qu'on ne pourra pas mettre d'autres applications sur ce sous-domaine. On valide. Ca s'installe.

L'application est alors accessible via blog.mondomaine.fr (et non via mondomaine.fr/wordpress)

Déplacer une application sur un sous domaine ?

Que ce passe-t-il si on a déjà installer l'application ? On veut par exemple passer de mondomaine.fr/wordpress à blog.mondomaine.fr.

Pour l'instant il n'y a pas de façon simple (via l'interface graphique de l'administration de Yunohost) pour déplacer une application sur un sous-domaine.

Deux solutions :
- la réinstallation de l'application
- le déplacement de l'application

Réinstallation de l'application

On sauvegarde ses données (base de données etc. via un script sql par exemple, les fichiers etc.). On désinstalle l'application via l'interface graphique d'administration de Yunohost. Et on la réinstalle en suivant la procédure ci-dessus.

Attention à la réinstallation Attention toutefois à bien vérifier que l'application a été packagée pour la version 2.4 de Yunohost sinon on ne peut plus la réinstaller. J'ai par exemple rencontré le problème avec SPIP. Installé en 2.2 sur mondomaine.fr/spip, j'ai voulu le réinstaller sur blog.mondomaine.fr Or SPIP n'est actuellement pas packagé pour Yunohost 2.4 (et entre temps j'étais passé de 2.2 en 2.4)

Déplacer l'application déjà installée

Ceci est sans AUCUNE garantie que ça marche bien (même si pour moi ça a marché, ne casse pas le système...

Pour un usage sans risque, la solution reste de supprimer et réinstaller l'application

Là c'est un peu plus technique. Il faut aller en ligne de commande pour déplacer le fichier monappli.conf. Et donc comprendre ces lignes, savoir regarder des logs de nginx (si on a une erreur...)

#On déplace le fichier automatiquement créer pour nginx à l'installation du dossier correspondant au domaine dans le dossier correspondant au sous-domaine
mv /etc/nginx/conf/mondomaine.d/monappli.conf /etc/nginx/conf/blog.mondomaine.d/#On édite le fichier de configuation déplacé
nano /etc/nginx/conf/blog.mondomaine.d/monappli.conf
# Et on change la ligne location
"location /wordpress" devient juste "location /"
# vu qu'on est à la racine du sous-domaine.Il faut modifier les settings, que l'on doit trouver dans
/etc/yunohost/apps//settings.yml

On redémarre nginx

sudo service restart nginx

Si ça marche, on a l'application avec toutes ses données (la base de données et les fichiers dans /var/wwww/wordpress n'ont pas été modifiés).

Let's encrypt

Si on utilise comme moi let's encrypt, il faut penser à refaire la procédure de génération des certificats pour ce sous-domaine... Je pars du principe que vous avez suivi la procédure
How to : Install Let's Encrypt certificates que vous l'avez comprise et connaissez l'administration système (je ne détaille pas)
C'est pareil que pour le domaine mais avec le sous-domaine, à faire pour chaque sous-domaine que l'on veut (il n'y a pas, à ma connaissance de certificat wildcard *.mondomaine.fr avec let's encrypt)

root@yunohost:~/letsencrypt# ./letsencrypt-auto certonly --config /etc/letsencrypt/conf.ini blog.mondomaine.fr

Ce qui génère les certificats.
Et on fait comme pour le domaine, mais pour le sous-domaine :

root@yunohost:/etc/yunohost/certs/blog.mondomaine.fr# ln -s /etc/letsencrypt/live/blog.mondomaine.fr/fullchain.pem ./crt.pem
root@yunohost:/etc/yunohost/certs/blog.mondomaine.fr# ln -s /etc/letsencrypt/live/blog.mondomaine.fr/privkey.pem ./key.pem

service nginx restart

Conclusion

Voilà j'espère que ce sera utile. Si vous avez des questions ou besoin de précisions, commentez et j'ajouterai dans l'article avant de mettre tout ça dans la documentation officielle de Yunohost.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Framablog : Les nouveaux Léviathans II — Surveillance et confiance (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Techniques d’anticipation

On pense habituellement les objets techniques et les phénomènes sociaux comme deux choses différentes, voire parfois opposées. En plus de la nature, il y aurait deux autres réalités : d’un côté un monde constitué de nos individualités, nos rapports sociaux, nos idées politiques, la manière dont nous structurons ensemble la société ; et de l’autre côté le monde des techniques qui, pour être appréhendé, réclamerait obligatoirement des compétences particulières (artisanat, ingénierie). Nous refusons même parfois de comprendre nos interactions avec les techniques autrement que par automatisme, comme si notre accomplissement social passait uniquement par le statut d’utilisateur et jamais comme producteurs. Comme si une mise à distance devait obligatoirement s’établir entre ce que nous sommes (des êtres sociaux) et ce que nous produisons. Cette posture est au plus haut point paradoxale puisque non seulement la technologie est une activité sociale mais nos sociétés sont à bien des égards elles-mêmes configurées, transformées, et même régulées par les objets techniques. Certes, la compréhension des techniques n’est pas toujours obligatoire pour comprendre les faits sociaux, mais il faut avouer que bien peu de faits sociaux se comprennent sans la technique.

L’avènement des sociétés industrielles a marqué un pas supplémentaire dans l’interdépendance entre le social et les objets techniques : le travail, comme activité productrice, est en soi un rapport réflexif sur les pratiques et les savoirs qui forment des systèmes techniques. Nous baignons dans une culture technologique, nous sommes des êtres technologiques. Nous ne sommes pas que cela. La technologie n’a pas le monopole du signifiant : nous trouvons dans l’art, dans nos codes sociaux, dans nos intentions, tout un ensemble d’éléments culturels dont la technologie est censée être absente. Nous en usons parfois même pour effectuer une mise à distance des techniques omniprésentes. Mais ces dernières ne se réduisent pas à des objets produits. Elles sont à la fois des pratiques, des savoir-faire et des objets. La raison pour laquelle nous tenons tant à instaurer une mise à distance par rapport aux technologies que nous utilisons, c’est parce qu’elles s’intègrent tellement dans notre système économique qu’elles agissent aussi comme une forme d’aliénation au travail comme au quotidien.

Attention, Amazon très méchant

Attention, Amazon très méchant

Ces dernières années, nous avons vu émerger des technologies qui prétendent prédire nos comportements. Amazon teste à grande échelle des dépôts locaux de produits en prévision des commandes passées par les internautes sur un territoire donné. Les stocks de ces dépôts seront gérés au plus juste par l’exploitation des données inférées à partir de l’analyse de l’attention des utilisateurs (mesurée au clic), les tendances des recherches effectuées sur le site, l’impact des promotions et propositions d’Amazon, etc. De son côté, Google ne cesse d’analyser nos recherches dans son moteur d’indexation, dont les suggestions anticipent nos besoins souvent de manière troublante. En somme, si nous éprouvons parfois cette nécessité d’une mise à distance entre notre être et la technologie, c’est en réponse à cette situation où, intuitivement, nous sentons bien que la technologie n’a pas à s’immiscer aussi profondément dans l’intimité de nos pensées. Mais est-ce vraiment le cas ? Ne conformons-nous pas aussi, dans une certaine mesure, nos envies et nos besoins en fonction de ce qui nous est présenté comme nos envies et nos besoins ? La lutte permanente entre notre volonté d’indépendance et notre adaptation à la société de consommation, c’est-à-dire au marché, est quelque chose qui a parfaitement été compris par les grandes firmes du secteur numérique. Parce que nous laissons tellement de traces transformées en autant d’informations extraites, analysées, quantifiées, ces firmes sont désormais capables d’anticiper et de conformer le marché à leurs besoins de rentabilité comme jamais une firme n’a pu le faire dans l’histoire des sociétés capitalistes modernes.

Productivisme et information

Si vous venez de perdre deux minutes à lire ma prose ci-dessus hautement dopée à l’EPO (Enfonçage de Portes Ouvertes), c’est parce qu’il m’a tout de même paru assez important de faire quelques rappels de base avant d’entamer des considérations qui nous mènerons petit à petit vers une compréhension en détail de ce système. J’ai toujours l’image de cette enseignante de faculté, refusant de lire un mode d’emploi pour appuyer deux touches sur son clavier afin de basculer l’affichage écran vers l’affichage du diaporama, et qui s’exclamait : « il faut appeler un informaticien, ils sont là pour ça, non ? ». Ben non, ma grande, un informaticien a autre chose à faire. C’est une illustration très courante de ce que la transmission des savoirs (activité sociale) dépend éminemment des techniques (un vidéo-projecteur couplé un ordinateur contenant lui-même des supports de cours sous forme de fichiers) et que toute tentative volontaire ou non de mise à distance (ne pas vouloir acquérir un savoir-faire technique) cause un bouleversement a-social (ne plus être en mesure d’assurer une transmission de connaissance, ou plus prosaïquement passer pour quelqu’un de stupide). La place que nous occupons dans la société n’est pas uniquement une affaire de codes ou relations interpersonnelles, elle dépend pour beaucoup de l’ordre économique et technique auquel nous devons plus ou moins nous ajuster au risque de l’exclusion (et la forme la plus radicale d’exclusion est l’absence de travail et/ou l’incapacité de consommer).

Des études déjà anciennes sur les organisations du travail, notamment à propos de l’industrialisation de masse, ont montré comment la technologie, au même titre que l’organisation, détermine les comportements des salariés, en particulier lorsqu’elle conditionne l’automatisation des tâches1. Souvent, cette automatisation a été étudiée sous l’angle des répercussions socio-psychologiques, accroissant les sentiments de perte de sens ou d’aliénation sociale2. D’un point de vue plus populaire, c’est le remplacement de l’homme par la machine qui fut tantôt vécu comme une tragédie (l’apparition du chômage de masse) tantôt comme un bienfait (diminuer la pénibilité du travail). Aujourd’hui, les enjeux sont très différents. On s’interroge moins sur la place de la machine dans l’industrie que sur les taux de productivité et la gestion des flux. C’est qu’un changement de paradigme s’est accompli à partir des années 1970-1980, qui ont vu apparaître l’informatisation quasi totale des systèmes de production et la multiplication des ordinateurs mainframe dans les entreprises pour traiter des quantités sans cesse croissantes de données.

Très peu de sociologues ou d’économistes ont travaillé sur ce qu’une illustre chercheuse de la Harvard Business School, Shoshana Zuboff a identifié dans la transformation des systèmes de production : l’informationnalisation (informating). En effet, dans un livre très visionnaire, In the Age Of The Smart Machine en 19883, S. Zuboff montre que les mécanismes du capitalisme productiviste du XXe siècle ont connu plusieurs mouvements, plus ou moins concomitants selon les secteurs : la mécanisation, la rationalisation des tâches, l’automatisation des processus et l’informationnalisation. Ce dernier mouvement découle des précédents : dès l’instant qu’on mesure la production et qu’on identifie des processus, on les documente et on les programme pour les automatiser. L’informationnalisation est un processus qui transforme la mesure et la description des activités en information, c’est-à-dire en données extractibles et quantifiables, calculatoires et analytiques.

Là où S. Zuboff s’est montrée visionnaire dans les années 1980, c’est qu’elle a montré aussi comment l’informationnalisation modèle en retour les apprentissages et déplace les enjeux de pouvoir. On ne cherche plus à savoir qui a les connaissances suffisantes pour mettre en œuvre telle procédure, mais qui a accès aux données dont l’analyse déterminera la stratégie de développement des activités. Alors que le « vieux » capitalisme organisait une concurrence entre moyens de production et maîtrise de l’offre, ce qui, dans une économie mondialisée n’a plus vraiment de sens, un nouveau capitalisme (dont nous verrons plus loin qu’il se nomme le capitalisme de surveillance) est né, et repose sur la production d’informations, la maîtrise des données et donc des processus.

Pour illustrer, il suffit de penser à nos smartphones. Quelle que soit la marque, ils sont produits de manière plus ou moins redondante, parfois dans les mêmes chaînes de production (au moins en ce qui concerne les composants), avec des méthodes d’automatisation très similaires. Dès lors, la concurrence se place à un tout autre niveau : l’optimisation des procédures et l’identification des usages, tous deux producteurs de données. Si bien que la plus-value ajoutée par la firme à son smartphone pour séduire le plus d’utilisateurs possible va de pair avec une optimisation des coûts de production et des procédures. Cette optimisation relègue l’innovation organisationnelle au moins au même niveau, si ce n’est plus, que l’innovation du produit lui-même qui ne fait que répondre à des besoins d’usage de manière marginale. En matière de smartphone, ce sont les utilisateurs les plus experts qui sauront déceler la pertinence de telle ou telle nouvelle fonctionnalité alors que l’utilisateur moyen n’y voit que des produits similaires.

L’enjeu dépasse la seule optimisation des chaînes de production et l’innovation. S. Zuboff a aussi montré que l’analyse des données plus fines sur les processus de production révèle aussi les comportements des travailleurs : l’attention, les pratiques quotidiennes, les risques d’erreur, la gestion du temps de travail, etc. Dès lors l’informationnalisation est aussi un moyen de rassembler des données sur les aspects sociaux de la production4, et par conséquent les conformer aux impératifs de rentabilité. L’exemple le plus frappant aujourd’hui de cet ajustement comportemental à la rentabilité par les moyens de l’analyse de données est le phénomène d’« Ubérisation » de l’économie5.

Ramené aux utilisateurs finaux des produits, dans la mesure où il est possible de rassembler des données sur l’utilisation elle-même, il devrait donc être possible de conformer les usages et les comportements de consommation (et non plus seulement de production) aux mêmes impératifs de rentabilité. Cela passe par exemple par la communication et l’apprentissage de nouvelles fonctionnalités des objets. Par exemple, si vous aviez l’habitude de stocker vos fichiers MP3 dans votre smartphone pour les écouter comme avec un baladeur, votre fournisseur vous permet aujourd’hui avec une connexion 4G d’écouter de la musique en streaming illimité, ce qui permet d’analyser vos goûts, vous proposer des playlists, et faire des bénéfices. Mais dans ce cas, si vous vous situez dans un endroit où la connexion haut débit est défaillante, voire absente, vous devez vous passer de musique ou vous habituer à prévoir à l’avance cette éventualité en activant un mode hors-connexion. Cette adaptation de votre comportement devient prévisible : l’important n’est pas de savoir ce que vous écoutez mais comment vous le faites, et ce paramètre entre lui aussi en ligne de compte dans la proposition musicale disponible.

Le nouveau paradigme économique du XXIe siècle, c’est le rassemblement des données, leur traitement et leurs valeurs prédictives, qu’il s’agisse des données de production comme des données d’utilisation par les consommateurs.

 We <3 your Data

GAFAM : We <3 your Data

Big Data

Ces dernières décennies, l’informatique est devenu un média pour l’essentiel de nos activités sociales. Vous souhaitez joindre un ami pour aller boire une bière dans la semaine ? c’est avec un ordinateur que vous l’appelez. Voici quelques étapes grossières de cet épisode :

  1. votre mobile a signalé vers des antennes relais pour s’assurer de la couverture réseau,
  2. vous entrez un mot de passe pour déverrouiller l’écran,
  3. vous effectuez une recherche dans votre carnet d’adresse (éventuellement synchronisé sur un serveur distant),
  4. vous lancez le programme de composition du numéro, puis l’appel téléphonique (numérique) proprement dit,
  5. vous entrez en relation avec votre correspondant, convenez d’une date,
  6. vous envoyez ensuite une notification de rendez-vous avec votre agenda vers la messagerie de votre ami…
  7. qui vous renvoie une notification d’acceptation en retour,
  8. l’une de vos applications a géolocalisé votre emplacement et vous indique le trajet et le temps de déplacement nécessaire pour vous rendre au point de rendez-vous, etc.

Durant cet épisode, quel que soit l’opérateur du réseau que vous utilisez et quel que soit le système d’exploitation de votre mobile (à une ou deux exceptions près), vous avez produit des données exploitables. Par exemple (liste non exhaustive) :

  • le bornage de votre mobile indique votre position à l’opérateur, qui peut croiser votre activité d’émission-réception avec la nature de votre abonnement,
  • la géolocalisation donne des indications sur votre vitesse de déplacement ou votre propension à utiliser des transports en commun,
  • votre messagerie permet de connaître la fréquence de vos contacts, et éventuellement l’éloignement géographique.

Ramené à des millions d’utilisateurs, l’ensemble des données ainsi rassemblées entre dans la catégorie des Big Data. Ces dernières ne concernent pas seulement les systèmes d’informations ou les services numériques proposés sur Internet. La massification des données est un processus qui a commencé il y a longtemps, notamment par l’analyse de productivité dans le cadre de la division du travail, les analyses statistiques des achats de biens de consommation, l’analyse des fréquences de transaction boursières, etc. Tout comme ce fut le cas pour les processus de production qui furent automatisés, ce qui caractérise les Big Data c’est l’obligation d’automatiser leur traitement pour en faire l’analyse.

Prospection, gestion des risques, prédictibilité, etc., les Big Data dépassent le seul degré de l’analyse statistique dite descriptive, car si une de ces données renferme en général très peu d’information, des milliers, des millions, des milliards permettent d’inférer des informations dont la pertinence dépend à la fois de leur traitement et de leur gestion. Le tout dépasse la somme des parties : c’est parce qu’elles sont rassemblées et analysées en masse que des données d’une même nature produisent des valeurs qui dépassent la somme des valeurs unitaires.

Antoinette Rouvroy, dans un rapport récent6 auprès du Conseil de l’Europe, précise que les capacités techniques de stockage et de traitement connaissent une progression exponentielle7. Elle définit plusieurs catégories de data en fonction de leurs sources, et qui quantifient l’essentiel des actions humaines :

  • les hard data, produites par les institutions et administrations publiques ;
  • les soft data, produites par les individus, volontairement (via les réseaux sociaux, par exemple) ou involontairement (analyse des flux, géolocalisation, etc.) ;
  • les métadonnées, qui concernent notamment la provenance des données, leur trafic, les durées, etc. ;
  • l’Internet des objets, qui une fois mis en réseau, produisent des données de performance, d’activité, etc.

Les Big Data n’ont cependant pas encore de définition claire8. Il y a des chances pour que le terme ne dure pas et donne lieu à des divisions qui décriront plus précisément des applications et des méthodes dès lors que des communautés de pratiques seront identifiées avec leurs procédures et leurs réseaux. Aujourd’hui, l’acception générique désigne avant tout un secteur d’activité qui regroupe un ensemble de savoir-faire et d’applications très variés. Ainsi, le potentiel scientifique des Big Data est encore largement sous-évalué, notamment en génétique, physique, mathématiques et même en sociologie. Il en est de même dans l’industrie. En revanche, si on place sur un même plan la politique, le marketing et les activités marchandes (à bien des égards assez proches) on conçoit aisément que l’analyse des données optimise efficacement les résultats et permet aussi, par leur dimension prédictible, de conformer les biens et services.

Google fait peur ?

Eric Schmidt, actuellement directeur exécutif d’Alphabet Inc., savait exprimer en peu de mots les objectifs de Google lorsqu’il en était le président. Depuis 1998, les activités de Google n’ont cessé d’évoluer, jusqu’à reléguer le service qui en fit la célébrité, la recherche sur la Toile, au rang d’activité has been pour les internautes. En 2010, il dévoilait le secret de Polichinelle :

Le jour viendra où la barre de recherche de Google – et l’activité qu’on nomme Googliser – ne sera plus au centre de nos vies en ligne. Alors quoi ? Nous essayons d’imaginer ce que sera l’avenir de la recherche (…). Nous sommes toujours contents d’être dans le secteur de la recherche, croyez-moi. Mais une idée est que de plus en plus de recherches sont faites en votre nom sans que vous ayez à taper sur votre clavier.

En fait, je pense que la plupart des gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google dise ce qu’ils doivent faire ensuite. (…) La puissance du ciblage individuel – la technologie sera tellement au point qu’il sera très difficile pour les gens de regarder ou consommer quelque chose qui n’a pas été adapté pour eux.9

Google n’a pas été la première firme à exploiter des données en masse. Le principe est déjà ancien avec les premiers data centers du milieu des années 1960. Google n’est pas non plus la première firme à proposer une indexation générale des contenus sur Internet, par contre Google a su se faire une place de choix parmi la concurrence farouche de la fin des années 1990 et sa croissance n’a cessé d’augmenter depuis lors, permettant des investissements conséquents dans le développement de technologies d’analyse et dans le rachat de brevets et de plus petites firmes spécialisées. Ce que Google a su faire, et qui explique son succès, c’est proposer une expérience utilisateur captivante de manière à rassembler assez de données pour proposer en retour des informations adaptées aux profils des utilisateurs. C’est la radicalisation de cette stratégie qui est énoncée ici par Eric Schmidt. Elle trouve pour l’essentiel son accomplissement en utilisant les données produites par les utilisateurs du cloud computing. Les Big Data en sont les principaux outils.

D’autres firmes ont emboîté le pas. En résultat, la concentration des dix premières firmes de services numériques génère des bénéfices spectaculaires et limite la concurrence. Cependant, l’exploitation des données personnelles des utilisateurs et la manière dont elles sont utilisées sont souvent mal comprises dans leurs aspects techniques autant que par les enjeux économiques et politiques qu’elles soulèvent. La plupart du temps, la quantité et la pertinence des informations produites par l’utilisateur semblent négligeables à ses yeux, et leur exploitation d’une importance stratégique mineure. Au mieux, si elles peuvent encourager la firme à mettre d’autres services gratuits à disposition du public, le prix est souvent considéré comme largement acceptable. Tout au plus, il semble a priori moins risqué d’utiliser Gmail et Facebook, que d’utiliser son smartphone en pleine manifestation syndicale en France, puisque le gouvernement français a voté publiquement des lois liberticides et que les GAFAM ne livrent aux autorités que les données manifestement suspectes (disent-elles) ou sur demande rogatoire officielle (disent-elles).

Gigantismus

En 2015, Google Analytics couvrait plus de 70 % des parts de marché des outils de mesure d’audience. Google Analytics est un outil d’une puissance pour l’instant incomparable dans le domaine de l’analyse du comportement des visiteurs. Cette puissance n’est pas exclusivement due à une supériorité technologique (les firmes concurrentes utilisent des techniques d’analyse elles aussi très performantes), elle est surtout due à l’exhaustivité monopolistique des utilisations de Google Analytics, disponible en version gratuite et premium, avec un haut degré de configuration des variables qui permettent la collecte, le traitement et la production très rapide de rapports (pratiquement en temps réel). La stratégie commerciale, afin d’assurer sa rentabilité, consiste essentiellement à coupler le profilage avec la régie publicitaire (Google AdWords). Ce modèle économique est devenu omniprésent sur Internet. Qui veut être lu ou regardé doit passer l’épreuve de l’analyse « à la Google », mais pas uniquement pour mesurer l’audience : le monopole de Google sur ces outils impose un web rédactionnel, c’est-à-dire une méthode d’écriture des contenus qui se prête à l’extraction de données.

Google n’est pas la seule entreprise qui réussi le tour de force d’adapter les contenus, quelle que soit leur nature et leurs propos, à sa stratégie commerciale. C’est le cas des GAFAM qui reprennent en chœur le même modèle économique qui conforme l’information à ses propres besoins d’information. Que vous écriviez ou non un pamphlet contre Google, l’extraction et l’analyse des données que ce contenu va générer indirectement en produisant de l’activité (visites, commentaires, échanges, temps de connexion, provenance, etc.) permettra de générer une activité commerciale. Money is money, direz-vous. Pourtant, la concentration des activités commerciales liées à l’exploitation des Big Data par ces entreprises qui forment les premières capitalisations boursières du monde, pose un certain nombre répercutions sociales : l’omniprésence mondialisée des firmes, la réduction du marché et des choix, l’impuissance des États, la sur-financiarisation.

Omniprésence

En produisant des services gratuits (ou très accessibles), performants et à haute valeur ajoutée pour les données qu’ils produisent, ces entreprises captent une gigantesque part des activités numériques des utilisateurs. Elles deviennent dès lors les principaux fournisseurs de services avec lesquels les gouvernements doivent composer s’ils veulent appliquer le droit, en particulier dans le cadre de la surveillance des populations et des opérations de sécurité. Ainsi, dans une démarche très pragmatique, des ministères français parmi les plus importants réunirent le 3 décembre 2015 les « les grands acteurs de l’internet et des réseaux sociaux » dans le cadre de la stratégie anti-terroriste10. Plus anciennement, le programme américain de surveillance électronique PRISM, dont bien des aspects furent révélés par Edward Snowden en 2013, a permit de passer durant des années des accords entre la NSA et l’ensemble des GAFAM. Outre les questions liées à la sauvegarde du droit à la vie privée et à la liberté d’expression, on constate aisément que la surveillance des populations par les gouvernements trouve nulle part ailleurs l’opportunité de récupérer des données aussi exhaustives, faisant des GAFAM les principaux prestataires de Big Data des gouvernements, quels que soient les pays11.

Réduction du marché

Le monopole de Google sur l’indexation du web montre qu’en vertu du gigantesque chiffre d’affaires que cette activité génère, celle-ci devient la première et principale interface du public avec les contenus numériques. En 2000, le journaliste Laurent Mauriac signait dans Libération un article élogieux sur Google12. À propos de la méthode d’indexation qui en fit la célébrité, L. Mauriac écrit :

Autre avantage : ce système empêche les sites de tricher. Inutile de farcir la partie du code de la page invisible pour l’utilisateur avec quantité de mots-clés…

Or, en 2016, il devient assez évident de décortiquer les stratégies de manipulation de contenus que les compagnies qui en ont les moyens financiers mettent en œuvre pour dominer l’index de Google en diminuant ainsi la diversité de l’offre13. Que la concentration des entreprises limite mécaniquement l’offre, cela n’est pas révolutionnaire. Ce qui est particulièrement alarmant, en revanche, c’est que la concentration des GAFAM implique par effets de bord la concentration d’autres entreprises de secteurs entièrement différents mais qui dépendent d’elles en matière d’information et de visibilité. Cette concentration de second niveau, lorsqu’elle concerne la presse en ligne, les éditeurs scientifiques ou encore les libraires, pose à l’évidence de graves questions en matière de liberté d’information.

Impuissances

La concentration des services, qu’il s’agisse de ceux de Google comme des autres géants du web, sur des secteurs biens découpés qui assurent les monopoles de chaque acteur, cause bien des soucis aux États qui voient leurs économies impactées selon les revenus fiscaux et l’implantation géographique de ces compagnies. Les lois anti-trust semblent ne plus suffire lorsqu’on voit, par exemple, la Commission Européenne avoir toutes les peines du monde à freiner l’abus de position dominante de Google sur le système Android, sur Google Shopping, sur l’indexation, et de manière générale depuis 2010.

Illustration cynique devant l’impuissance des États à réguler cette concentration, Google a davantage à craindre de ses concurrents directs qui ont des moyens financiers largement supérieurs aux États pour bloquer sa progression sur les marchés. Ainsi, cet accord entre Microsoft et Google, qui conviennent de régler désormais leurs différends uniquement en privé, selon leurs propres règles, pour ne se concentrer que sur leur concurrence de marché et non plus sur la législation. Le message est double : en plus d’instaurer leur propre régulation de marché, Google et Microsoft en organiseront eux-mêmes les conditions juridiques, reléguant le rôle de l’État au second plan, voire en l’éliminant purement et simplement de l’équation. C’est l’avènement des Léviathans dont j’avais déjà parlé dans un article antérieur.

Alphabet. CC-by-sa, Framatophe

Alphabet. CC-by-sa, Framatophe

Capitaux financiers

La capitalisation boursière des GAFAM a atteint un niveau jamais envisagé jusqu’à présent dans l’histoire, et ces entreprises figurent toutes dans le top 40 de l’année 201514. La valeur cumulée de GAFAM en termes de capital boursier en 2015 s’élève à 1 838 milliards de dollars. À titre de comparaison, le PIB de la France en 2014 était de 2 935 milliards de dollars et celui des Pays Bas 892 milliards de dollars.

La liste des acquisitions de Google explique en partie la cumulation de valeurs boursières. Pour une autre partie, la plus importante, l’explication concerne l’activité principale de Google : la valorisation des big data et l’automatisation des tâches d’analyse de données qui réduisent les coûts de production (à commencer par les frais d’infrastructure : Google a besoin de gigantesque data centers pour le stockage, mais l’analyse, elle, nécessite plus de virtualisation que de nouveaux matériels ou d’employés). Bien que les cheminements ne soient pas les mêmes, les entreprises GAFAM ont abouti au même modèle économique qui débouche sur le status quo de monopoles sectorisés. Un élément de comparaison est donné par le Financial Times en août 2014, à propos de l’industrie automobile vs l’économie numérique :

Comparons Detroit en 1990 et la Silicon Valley en 2014. Les 3 plus importantes compagnies de Detroit produisaient des bénéfices à hauteur de 250 milliards de dollars avec 1,2 million d’employés et la cumulation de leurs capitalisations boursières totalisait 36 milliards de dollars. Le 3 premières compagnies de la Silicon Valley en 2014 totalisaient 247 milliards de dollars de bénéfices, avec seulement 137 000 employés, mais un capital boursier de 1,09 mille milliard de dollars.15

La captation d’autant de valeurs par un petit nombre d’entreprises et d’employés, aurait été analysée, par exemple, par Schumpeter comme une chute inévitable vers la stagnation en raison des ententes entre les plus puissants acteurs, la baisse des marges des opérateurs et le manque d’innovation. Pourtant cette approche est dépassée : l’innovation à d’autres buts (produire des services, même à perte, pour capter des données), il est très difficile d’identifier le secteur d’activité concerné (Alphabet regroupe des entreprises ultra-diversifiées) et donc le marché est ultra-malléable autant qu’il ne représente que des données à forte valeur prédictive et possède donc une logique de plus en plus maîtrisée par les grands acteurs.

Pour aller plus loin :

  1. Michel Liu, « Technologie, organisation du travail et comportement des salariés », Revue française de sociologie, 22/2 1981, pp. 205-221.
  2. Voir sur ce point Robert Blauner, Alienation and Freedom. The Factory Worker and His Industry, Chicago : Univ. Chicago Press, 1965.
  3. Shoshana Zuboff, In The Age Of The Smart Machine : The Future Of Work And Power, New York : Basic Books, 1988.
  4. En guise d’illustration de tests (proof of concepts) discrets menés dans les entreprises aujourd’hui, on peut se reporter à cet article de Rue 89 Strasbourg sur cette société alsacienne qui propose, sous couvert de challenge collectif, de monitorer l’activité physique de ses employés. Rémi Boulle, « Chez Constellium, la collecte des données personnelles de santé des employés fait débat », Rue 89 Strasbourg, juin 2016.
  5. Par exemple, dans le cas des livreurs à vélo de plats préparés utilisés par des sociétés comme Foodora ou Take Eat Easy, on constate que ces sociétés ne sont qu’une interface entre les restaurants et les livreurs. Ces derniers sont auto-entrepreneurs, payés à la course et censés assumer toutes les cotisations sociales et leurs salaires uniquement sur la base des courses que l’entreprise principale pourra leur confier. Ce rôle est automatisé par une application de calcul qui rassemble les données géographiques et les performances (moyennes, vitesse, assiduité, etc.) des livreurs et distribue automatiquement les tâches de livraisons. Charge aux livreurs de se trouver au bon endroit au bon moment. Ce modèle économique permet de détacher l’entreprise de toutes les externalités ou tâches habituellement intégrées qui pourraient influer sur son chiffre d’affaires : le matériel du livreur, l’assurance, les cotisations, l’accidentologie, la gestion du temps de travail, etc., seule demeure l’activité elle-même automatisée et le livreur devient un exécutant dont on analyse les performances. L’« Ubérisation » est un processus qui automatise le travail humain, élimine les contraintes sociales et utilise l’information que l’activité produit pour ajuster la production à la demande (quels que soient les risques pris par les livreurs, par exemple pour remonter les meilleures informations concernant les vitesses de livraison et se voir confier les prochaines missions). Sur ce sujet, on peut écouter l’émission Comme un bruit qui court de France Inter qui diffusa le reportage de Giv Anquetil le 11 juin 2016, intitulé « En roue libre ».
  6. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016.
  7. En même temps qu’une réduction de leur coût de production (leur coût d’exploitation ou d’analyse, en revanche, explose).
  8. On peut s’intéresser à l’origine de l’expression en lisant cet article de Francis X. Diebold, « On the Origin(s) and Development of the Term ‘Big Data’ », Penn Institute For Economic Research, Working Paper 12-037, 2012.
  9. Holman W. Jenkins, « Google and the Search for the Future The Web icon’s CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age », The Wall Street Journal, 14/08/2010.
  10. Communiqué du Premier ministre, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, Paris : Hôtel Matignon, 3/12/2015.
  11. Même si Apple a déclaré ne pas entrer dans le secteur des Big Data, il n’en demeure pas moins qu’il en soit un consommateur comme un producteur d’envergure mondiale.
  12. Laurent Mauriac, « Google, moteur en explosion », Libération, 29 juin 2000.
  13. Vincent Abry, « Au revoir la diversité. Quand 16 compagnies dominent complètement l’index Google », article de Blog personnel, voir la version archivée.
  14. PwC, Global Top 100 Companies by market capitalisation, (31/03/2015). Ces données sont à revoir en raison de l’éclatement de Google dans une sorte de holding nommée Alphabet début 2016.
  15. James Manyika et Michael Chui, « Digital era brings hyperscale challenges » (image), The Financial Times, 13/08/2014. Cité par S. Zuboff, « Big Other… », op. cit..

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Les nouveaux Léviathans I — Histoire d’une conversion capitaliste (b)

Qu’est-ce qui fait courir Framasoft ?  De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous êtes curieux ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la première section)

Note de l’auteur :Dans cette première partie (Léviathans I), je tente de synthétiser les transformations des utopies numériques des débuts de l’économie informatique vers ce que S. Zuboff nomme le « capitalisme de surveillance ». Dans cette histoire, le logiciel libre apparaît non seulement comme un élément disruptif présent dès les premiers âges de cette conversion capitaliste (Léviathans Ia), mais aussi comme le moyen de faire valoir la primauté de nos libertés individuelles face aux comportements imposés par un nouvel ordre numérique (Léviathans Ib). La dégooglisation d’Internet n’est plus un souhait, c’est un impératif !

Piller le code, imposer des usages

À la fin des années 1990, c’est au nom de ce réalisme capitaliste, que les promoteurs de l’Open Source Initiative avaient compris l’importance de maintenir des codes sources ouverts pour faciliter un terreau commun permettant d’entretenir le marché. Ils voyaient un frein à l’innovation dans les contraintes des licences du logiciel libre tel que le proposaient Richard Stallman et la Free Software Foundation (par exemple, l’obligation de diffuser les améliorations d’un logiciel libre sous la même licence, comme l’exige la licence GNU GPL – General Public License). Pour eux, l’ouverture du code est une opportunité de création et d’innovation, ce qui n’implique pas forcément de placer dans le bien commun les résultats produits grâce à cette ouverture. Pas de fair play : on pioche dans le bien commun mais on ne redistribue pas, du moins, pas obligatoirement.

Les exemples sont nombreux de ces entreprises qui utilisent du code source ouvert sans même participer à l’amélioration de ce code, voire en s’octroyant des pans entiers de ce que des généreux programmeurs ont choisi de verser dans le bien commun. D’autres entreprises trouvent aussi le moyen d’utiliser du code sous licence libre GNU GPL en y ajoutant tant de couches successives de code privateur que le système final n’a plus rien de libre ni d’ouvert. C’est le cas du système Android de Google, dont le noyau est Linux.

Jamais jusqu’à aujourd’hui le logiciel libre n’avait eu de plus dur combat que celui non plus de proposer une simple alternative à informatique privateur, mais de proposer une alternative au modèle économique lui-même. Pas seulement l’économie de l’informatique, dont on voudrait justement qu’il ne sorte pas, mais un modèle beaucoup plus général qui est celui du pillage intellectuel et physique qui aliène les utilisateurs et, donc, les citoyens. C’est la raison pour laquelle le discours de Richard Stallman est un discours politique avant tout.

La fameuse dualité entre open source et logiciel libre n’est finalement que triviale. On n’a pas tort de la comparer à une querelle d’église même si elle reflète un mal bien plus général. Ce qui est pillé aujourd’hui, ce n’est plus seulement le code informatique ou les libertés des utilisateurs à pouvoir disposer des programmes. Même si le principe est (très) loin d’être encore communément partagé dans l’humanité, le fait de cesser de se voir imposer des programmes n’est plus qu’un enjeu secondaire par rapport à une nouvelle voie qui se dévoile de plus en plus : pour maintenir la pression capitaliste sur un marché verrouillé par leurs produits, les firmes cherchent désormais à imposer des comportements. Elles ne cherchent plus à les induire comme on pouvait dire d’Apple que le design de ses produits provoquait un effet de mode, une attitude « cool ». Non : la stratégie a depuis un moment déjà dépassé ce stade.

Un exemple révélateur et particulièrement cynique, la population belge en a fait la terrible expérience à l’occasion des attentats commis à Bruxelles en mars 2016 par de sombres crétins, au prix de dizaines de morts et de centaines de blessés. Les médias déclarèrent en chœur, quelques heures à peine après l’annonce des attentats, que Facebook déclenchait le « Safety Check ». Ce dispositif propre à la firme avait déjà été éprouvé lors des attentats de Paris en novembre 2015 et cet article de Slate.fr en montre bien les enjeux. Avec ce dispositif, les personnes peuvent signaler leur statut à leurs amis sur Facebook en situation de catastrophe ou d’attentat. Qu’arrive-t-il si vous n’avez pas de compte Facebook ou si vous n’avez même pas l’application installée sur votre smartphone ? Vos amis n’ont plus qu’à se consumer d’inquiétude pour vous.

Facebook safety check fr

Facebook safety check fr

La question n’est pas tant de s’interroger sur l’utilité de ce dispositif de Facebook, mais plutôt de s’interroger sur ce que cela implique du point de vue de nos comportements :

  • Le devoir d’information : dans les médias, on avait l’habitude, il y a encore peu de temps, d’avoir à disposition un « numéro vert » ou un site internet produits par les services publics pour informer la population. Avec les attentats de Bruxelles, c’est le « Safety Check » qui fut à l’honneur. Ce n’est plus à l’État d’assurer la prise en charge de la détresse, mais c’est à Facebook de le faire. L’État, lui, a déjà prouvé son impuissance puisque l’attentat a eu lieu, CQFD. On retrouve la doctrine du « moins d’État ».
  • La morale : avec la crainte qu’inspire le contexte du terrorisme actuel, Facebook joue sur le sentiment de sollicitude et propose une solution technique à un problème moral : ai-je le devoir ou non, envers mes proches, de m’inscrire sur Facebook ?
  • La norme : le comportement normal d’un citoyen est d’avoir un smartphone, de s’inscrire sur Facebook, d’être en permanence connecté à des services qui lui permettent d’être localisé et tracé. Tout comportement qui n’intègre pas ces paramètres est considéré comme déviant non seulement du point de vue moral mais aussi, pourquoi pas, du point de vue sécuritaire.

Ce cas de figure est extrême mais son principe (conformer les comportements) concerne des firmes aussi gigantesques que Google, Apple, Facebook, Amazon, Microsoft (GAFAM) et d’autres encore, parmi les plus grandes capitalisations boursières du monde. Ces dernières sont aujourd’hui capables d’imposer des usages et des comportements parce qu’elles proposent toutes une seule idéologie : leurs solutions techniques peuvent remplacer plus efficacement les pouvoirs publics à la seule condition d’adhérer à la communauté des utilisateurs, de « prendre la citoyenneté » Google, Apple, Facebook, Microsoft. Le rêve californien de renverser le Léviathan est en train de se réaliser.

Vers le capitalisme de surveillance

Ce mal a récemment été nommé par une professeure de Harvard, Shoshana Zuboff dans un article intitulé « Big Other : Surveillance Capitalism and the Prospects of an Information Civilization »1. S. Zuboff analyse les implications de ce qu’elle nomme le « capitalisme de surveillance » dans notre société connectée.

L’expression a récemment été reprise par Aral Balkan, dans un texte traduit sur le Framablog intitulé : « La nature du ‘soi’ à l’ère numérique ». A. Balkan interroge l’impact du capitalisme de surveillance sur l’intégrité de nos identités, à travers nos pratiques numériques. Pour le citer :

La Silicon Valley est la version moderne du système colonial d’exploitation bâti par la Compagnie des Indes Orientales, mais elle n’est ni assez vulgaire, ni assez stupide pour entraver les individus avec des chaînes en fer. Elle ne veut pas être propriétaire de votre corps, elle se contente d’être propriétaire de votre avatar. Et maintenant, (…) plus ces entreprises ont de données sur vous, plus votre avatar est ressemblant, plus elles sont proches d’être votre propriétaire.

C’est exactement ce que démontre S. Zuboff (y compris à travers toute sa bibliographie). Dans l’article cité, à travers l’exemple des pratiques de Google, elle montre que la collecte et l’analyse des données récoltées sur les utilisateurs permet l’émergence de nouvelles formes contractuelles (personnalisation, expérience immersive, etc.) entre la firme et ses utilisateurs. Cela induit des mécanismes issus de l’extraction des données qui débouchent sur deux principes :

  • la marchandisation des comportements : par exemple, les sociétés d’assurance ne peuvent que s’émouvoir des données géolocalisées des véhicules ;
  • le contrôle des comportements : il suffit de penser, par exemple, aux applications de e-health promues par des assurances-vie et des mutuelles, qui incitent l’utilisateur à marcher X heures par jour.

Dans un article paru dans le Frankfurter Allgemeine Zeitung le 24 mars 2016 (« The Secrets of Surveillance Capitalism »), S. Zuboff relate les propos de l’analyste (de données) en chef d’une des plus grandes firmes de la Silicon Valley :

Le but de tout ce que nous faisons est de modifier le comportement des gens à grande échelle. Lorsqu’ils utilisent nos applications, nous pouvons enregistrer leurs comportements, identifier les bons et les mauvais comportements, et développer des moyens de récompenser les bons et pénaliser les mauvais.

Pour S. Zuboff, cette logique d’accumulation et de traitement des données aboutit à un projet de surveillance lucrative qui change radicalement les mécanismes habituels entre l’offre et la demande du capitalisme classique. En cela, le capitalisme de surveillance modifie radicalement les principes de la concurrence libérale qui pensait les individus autonomes et leurs choix individuels, rationnels et libres, censés équilibrer les marchés. Qu’on ait adhéré ou non à cette logique libérale (plus ou moins utopiste, elle aussi, sur certains points) le fait est que, aujourd’hui, ce capitalisme de surveillance est capable de bouleverser radicalement les mécanismes démocratiques. J’aurai l’occasion de revenir beaucoup plus longuement sur le capitalisme de surveillance dans le second volet des Nouveaux Léviathans, mais on peut néanmoins affirmer sans plus d’élément qu’il pose en pratique des questions politiques d’une rare envergure.

Ce ne serait rien, si, de surcroît certains décideurs politiques n’étaient particulièrement pro-actifs, face à cette nouvelle forme du capitalisme. En France, par exemple, la première version du projet de Loi Travail soutenu par la ministre El Khomri en mars 2016 entrait parfaitement en accord avec la logique du capitalisme de surveillance. Dans la première version du projet, au chapitre Adaptation du droit du travail à l’ère numérique, l’article 23 portait sur les plateformes collaboratives telles Uber. Cet article rendait impossible la possibilité pour les « contributeurs » de Uber (les chauffeurs VTC) de qualifier leur emploi au titre de salariés de cette firme, ceci afin d’éviter les luttes sociales comme les travailleurs de Californie qui se sont retournés contre Uber dans une bataille juridique mémorable. Si le projet de loi El Khomri cherche à éliminer le salariat du rapport entre travail et justice, l’enjeu dépasse largement le seul point de vue juridique.

Google est l’un des actionnaires majoritaires de Uber, et ce n’est pas pour rien : d’ici 5 ou 6 ans, nous verrons sans doute les premières voitures sans chauffeur de Google arriver sur le marché. Dès lors, que faire de tous ces salariés chauffeurs de taxi ? La meilleure manière de s’en débarrasser est de leur supprimer le statut de salariés : en créant une communauté de contributeurs Uber à leur propre compte , il devient possible de se passer des chauffeurs puisque ce métier n’existera plus (au sens de corporation) ou sera en voie d’extinction. Ce faisant, Uber fait d’une pierre deux coups : il crée aussi une communauté d’utilisateurs, habitués à utiliser une plate-forme de service de voiturage pour accomplir leurs déplacements. Uber connaît donc les besoins, analyse les déplacements, identifie les trajets et rassemble un nombre incroyable de données qui prépareront efficacement la venue de la voiture sans chauffeur de Google. Que cela n’arrange pas l’émission de pollution et empêche de penser à des moyens plus collectifs de déplacement n’est pas une priorité (quoique Google a déjà son service de bus).

Il faut dégoogliser !

Parmi les moyens qui viennent à l’esprit pour s’en échapper, on peut se demander si le capitalisme de surveillance est soluble dans la bataille pour le chiffrement qui refait surface à l’occasion des vagues terroristes successives. L’idée est tentante : si tous les utilisateurs étaient en mesure de chiffrer leurs communications, l’extraction de données de la part des firmes n’en serait que contrariée. Or, la question du chiffrement n’est presque déjà plus d’actualité que pour les représentants politiques en mal de sensations. Tels certains ministres qui ressassent le sempiternel refrain selon lequel le chiffrement permet aux terroristes de communiquer.

Outre le fait que la pratique « terroriste » du chiffrement reste encore largement à prouver, on se rappelle la bataille récente entre le FBI et Apple dans le cadre d’une enquête terroriste, où le FBI souhaitait obtenir de la part d’Apple un moyen (exploitation de backdoor) de faire sauter le chiffrement d’un IPhone. Le FBI ayant finalement trouvé une solution alternative, que nous apprend cette dispute ? Certes, Apple veut garder la confiance de ses utilisateurs. Certes, le chiffrement a bien d’autres applications bénéfiques, en particulier lorsqu’on consulte à distance son compte en banque ou que l’on transfère des données médicales. Dès lors, la mesure est vite prise entre d’un côté des gouvernements cherchant à déchiffrer des communications (sans même être sûr d’y trouver quoi que ce soit d’intéressant) et la part gigantesque de marché que représente le transfert de données chiffrées. Peu importe ce qu’elles contiennent, l’essentiel est de comprendre non pas ce qui est échangé, mais qui échange avec qui, pour quelles raisons, et comment s’immiscer en tant qu’acteur de ces échanges. Ainsi, encore un exemple parmi d’autres, Google a déployé depuis longtemps des systèmes de consultation médicale à distance, chiffrées bien entendu : « si vous voulez un tel service, nous sommes capables d’en assurer la sécurité, contrairement à un État qui veut déchiffrer vos communications ». Le chiffrement est un élément essentiel du capitalisme de surveillance, c’est pourquoi Apple y tient tant : il instaure un degré de confiance et génère du marché.

 Kids, don’t do drugs

Apple : Kids, don’t do drugs

Nous pourrions passer en revue plusieurs systèmes alternatifs qui permettraient de s’émanciper plus ou moins du capitalisme de surveillance. Les solutions ne sont pas uniquement techniques : elles résident dans le degré de connaissance des enjeux de la part des populations. Il ne suffit pas de ne plus utiliser les services de courriel de Google, surtout si on apprécie l’efficacité de ce service. Il faut se poser la question : « si j’ai le choix d’utiliser ou non Gmail, dois-je pour autant imposer à mon correspondant qu’il entre en relation avec Google en me répondant à cette adresse ? ». C’est exactement le même questionnement qui s’impose lorsque j’envoie un document en format Microsoft en exigeant indirectement de mon correspondant qu’il ait lui aussi le même logiciel pour l’ouvrir.

L’enjeu est éthique. Dans la Règle d’Or, c’est la réciprocité qui est importante (« ne fais pas à autrui ce que tu n’aimerais pas qu’on te fasse »). Appliquer cette règle à nos rapports technologiques permet une prise de conscience, l’évaluation des enjeux qui dépasse le seul rapport individuel, nucléarisé, que j’ai avec mes pratiques numériques et que le capitalisme de surveillance cherche à m’imposer. Si je choisis d’installer sur mon smartphone l’application de géolocalisation que m’offre mon assureur en guise de test contre un avantage quelconque, il faut que je prenne conscience que je participe directement à une mutation sociale qui imposera des comportements pour faire encore davantage de profits. C’est la même logique à l’œuvre avec l’ensemble des solutions gratuites que nous offrent les GAFAM, à commencer par le courrier électronique, le stockage en ligne, la cartographie et la géolocalisation.

Faut-il se passer de toutes ces innovations ? Bien sûr que non ! le retranchement anti-technologique n’est jamais une solution. D’autant plus qu’il ne s’agit pas non plus de dénigrer les grands bienfaits d’Internet. Par contre, tant que subsisteront dans l’ADN d’Internet les concepts d’ouverture et de partage, il sera toujours possible de proposer une alternative au capitalisme de surveillance. Comme le phare console le marin dans la brume, le logiciel libre et les modèles collaboratifs qu’il véhicule représentent l’avenir de nos libertés. Nous ne sommes plus libres si nos comportements sont imposés. Nous ne sommes pas libres non plus dans l’ignorance technologique.

Il est donc plus que temps de Dégoogliser Internet en proposant non seulement d’autres services alternatifs et respectueux des utilisateurs, mais surtout les moyens de multiplier les solutions et décentraliser les usages. Car ce qu’il y a de commun entre le capitalisme classique et le capitalisme de surveillance, c’est le besoin centralisateur, qu’il s’agisse des finances ou des données. Ah ! si tous les CHATONS du monde pouvaient se donner la patte…

Pour aller plus loin :

  1. Shoshana Zuboff, « Big Other : Surveillance Capitalism and the Prospects of an Information Civilization », Journal of Information Technology, 30, 2015, pp. 75-89.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Jean-Pierre Morfin : Préservez votre vie privée, chiffrez !

Crypto rings © Simon Claessen

Nos gouvernants ne semblent pas préoccupés par le respect de notre vie privée qui se trouve sacrifiée sur l'autel de la lutte contre le terrorisme. Il est désormais du devoir de chacun de protéger son jardin secret numérique en utilisant les outils adéquats, c'est-à-dire le chiffrement de ses données et de ses conversations.

Par les temps qui courent, il est vain d'espérer de la part des pouvoirs publics qu'ils jouent leur rôle dans la protection de notre vie privée. Les exemples montrant le contraire se multiplient. Non seulement la législation ne semble pas demander aux grandes entreprises du web de faire le nécessaire pour garantir la sûreté des données que nous leur confions allègrement, mais certains de nos députés et ministres espèrent d'elles qu'elles leur donnent les clés permettant à la justice d'y accéder "si besoin". Par ailleurs, le système IOL, qui se met en place depuis 2009 dans l'ensemble du réseau internet français, ne laisse rien présager de bon. Les pouvoirs octroyés au juge administratif tout récemment avant la fin de l'état d'urgence laisse entrevoir des écoutes de masse de plus en plus simple à mettre en œuvre.

Par le passé, il est déjà arrivé que les moyens techniques destinés aux juges d'instruction ou à la police soient utilisés à des fins personnels par des agents peu scrupuleux. Alors pourquoi il n'en serait pas de même si ces agents, grâce à l'écoute du réseau, avaient un accès à nos boites mail, nos espaces de stockage dans le cloud, le contenu de nos SMS. Que ferons-nous lorsque que ces systèmes seront généralisés et que l'État aura techniquement et judiciairement accès à ces données ? Qui sait de quoi sera fait l'avenir politique de notre pays ? Une information actuellement anodine, le sera-elle dans le futur ? Pouvons-vous nous écrire, aujourd'hui, dans un courriel ou un SMS envoyé à un parent, un ami "J'ai raté mon train, je ne pourrai me rendre, demain matin, à l'église/la mosquée/la synagogue/au temple (rayez les mentions inutiles)" si ce message est susceptible d'être lu dans quelques années/décennies par un régime moins démocratique qui décrète "dangereux" les croyants de telle ou telle religion ? Au risque d'atteindre tout de suite le point Godwin, qu'aurait fait de ces données le Reich Allemand des années 30 ?

N'imaginons pas le pire. Mais ces systèmes d'interceptions et d'écoutes sont-ils sans faille ? Qu'est-ce qui nous garantie qu'ils ne deviendront pas accessibles à des escrocs prêts à nous faire chanter ?

Certains se demande sans doute pourquoi craindre que nos données numériques ne soient divulguées si l'on n'a rien à se reprocher ? Et bien parce que certaines d'entre elles constituent notre vie privée et que la vie privée doit pouvoir restée privée. Selon sa sensibilité, son activité sociale, chacun placera le curseur où bon lui semble. Cependant, qui peut affirmer que cela ne le dérange pas que quelqu'un fouille dans ses courriels, ses contacts, ses SMS, son agenda, ses photos, son relevé bancaire ? Qui va oser mettre en commentaire de cet article son mot de passe de messagerie, ses identifiants Facebook, Twitter, Gmail, Snapchat, Instagram, Skype, Tinder, Meetic et bancaire... ? Si cela ne pose pas de problème, vos correspondants, qui partagent vos échanges, ont peut-être une sensibilité différente sur ce point. Je vous recommande la lecture de cet article de Benjamin Sonntag de la Quadrature du Net qui explique aussi pourquoi l'intimité de chacun doit être respectée.

Alors, si nous ne pouvons plus compter sur nos gouvernants pour protéger nos jardins privés, il est temps pour chacun d'entre nous d'apprendre à le faire. Maintenant que les enjeux sont plus clairs, comment faire dans la pratique pour nous protéger : la réponse la plus évidente, c'est le chiffrement ! Le terrain le plus sensible de nos jours est certainement notre téléphone portable, outil ultime dans nos échanges quotidiens. Premier réflexe, chiffrer le contenu de nos téléphone : il est assez simple de chiffrer le contenu de son iPhone ou de son téléphone Android, c'est devenu une fonctionnalité de base, il suffit de l'activer.

Ensuite, il existe plusieurs applications simples d'utilisation qui permettront de chiffrer de bout en bout vos conversations avec vos interlocuteurs.

  • Chiffrez vos chats avec une application compatible OTR comme Xabber ou Conversations sur Android et ChatSecure sur iOS et Android
  • Chiffrez vos SMS avec Silence sur Android ou Signal sur iOS et Android
  • Chiffrez vos emails avec tous les outils compatibles PGP comme iPGMail sur iOS et Openkeychain + K9-Mail sur Android
  • Chiffrez aussi vos fichiers dans le cloud avec BoxCryptor sur iOS et Android
  • Chiffrez enfin vos consultations des sites web : il suffit de préciser https dans l'adresse du site.

Et ne donnez jamais vos mots de passe ou vos clés privées !

Si vous en voulez plus, rendez vous sur le site francophone d'Electronic Frontier Foundation, vous y trouverez aussi des outils et tutoriels pour Windows, GNU/Linux et MacOS.

Vous n'êtes pas à l'aise avec ces outils, ce n'est pas grave, demandez de l'aide lors de Crypto Party, Chiffro-Fête ou réunion Café-Vie-Privé. Vous en trouverez les prochains événements de votre région le site café-vie-privée.fr.

Pour aller encore plus loin, ayez à l'esprit que seuls les Logiciels Libres peuvent vous garantir un chiffrement sans portes dérobées. C'est pour cela que les Groupe d'utilisateurs de Logiciels Libres pourront aussi vous aider sur la mise en place et l'utilisation de ces outils. Vous trouverez facilement une de ces associations dans votre région.

Certes cela demande quelques efforts mais notre vie privée ne vaut-elle pas cela ?

Share

Gravatar de Jean-Pierre Morfin
Original post of Jean-Pierre Morfin.Votez pour ce billet sur Planet Libre.

alterlibriste : Quand les politiques décident sur ce qu'ils ne connaissent pas

En lisant le bel article de commémoration d’Erwan Cario à Michel Rocard, je me suis interrogé sur les capacités informatiques de ceux qui gouvernent et font les lois.
Ce domaine n’est pas une exception, ils n’ont en général qu’une vision très lointaine ou biaisée de la plupart des sujets sur lesquels ils décident pour nous.
Michel Rocard avait eut la sincérité d’avouer que les outils technologiques n’étaient pas sa tasse de thé (il faut aussi se remettre dans le contexte quinze ans en arrière) mais il a pourtant agi pour éviter les brevets logiciels parce qu’il en a compris l’enjeu, comme quoi, ce n’est pas impossible.

Qu’en est-il à l’heure actuelle où les lois prévoient d’un côté une priorité, puis une préférence puis plus rien du tout pour favoriser les logiciels libres ?

Les gens qui nous gouvernent sont un peu plus jeunes que Michel Rocard mais ils étaient déjà adultes (et probablement dans la politique) lors de la percée de l’informatique dans les années 90, de l’internet dans les années 2000 et des réseaux sociaux et appareils mobiles depuis 2010.
Quelles sont leur utilisation des outils informatiques ?
Probablement pas de bureautique réalisée par leurs secrétaires et assistants, sans doute un peu de recherche sur internet, la gestion de leurs pages web est laissée à leur équipe de comm’ et on va leur accorder qu’ils doivent majoritairement savoir manier Twitter afin de s’envoyer les petites phrases qu’ils réservaient auparavant aux caméras (ça permet aussi de s’occuper lors des assemblées).

Donc en gros, il utilisent un téléphone et peut-être une tablette pour visualiser du contenu pendant leurs déplacement ; les claviers physiques ne doivent pas leur être très familiers.
Et après on s’étonne qu’ils veulent équiper les écoles avec les mêmes outils ?
Ce n’est finalement que leur propre vision du monde de l’informatique ; même pas sûr que le mot système d’exploitation leur évoque quelque chose de précis. Finalement, ils ont a peu près le même niveau que nos parents et ont très probablement peur de toute technologie qu’ils ne connaissent pas. Quand on pense que l’accès au téléphone de la chancelière allemande n’était pas un problème pour les services de renseignements américains...

Oui, parce qu’avec ce niveau d’appréhension d’une technologie, leur parler de libertés logicielles, de neutralité du net, de vie privée, de sécurité, c’est comme si un agriculteur voulait leur expliquer comment on fait pousser des pommes de terre. Donc ils ne s’en remettent qu’a ceux qui les conseillent ou ont un intérêt dans l’affaire, à savoir les lobbies et grands groupes. Des assos comme la Quadrature du Net ont bien essayé, mais ils ne font pas le poids et surtout n’ont rien à proposer en échange.

Ils auraient pourtant tout à gagner à libérer l’informatique des services publics et pourraient même tenter ce qu’ils appellent de leur voeux comme un OS ou un cloud souverrain. Projet qui se vautrera lamentablement en gaspillant les deniers publics s’ils font faire ça par une entreprise et de façon fermée. Il n’y a qu’à penser à leur magnifique dernière invention concernant le Système d’Alerte et d’Information des Populations (SAIP) : pour les détails, et pour boucler la boucle, je vous renvoie vers le 56Kast du même Erwan Cario qui en faisait une excellente critique, en bref, une appli valable que sur Android et IPhone pour en principe être alerté en cas d’attaque terroriste ou autre catastrophe alors qu’il existe une norme internationale pour envoyer des SMS à tous les téléphones autour d’une antenne émettrice mais pas activée en France...

Bref, un jour les décideurs se mettront peut-être à réfléchir ou demanderont les différentes possibilités à ceux qui savent, en attendant, heureusement qu’il y a eu quelques exceptions qui se sont intéressés au sujet pour éviter de faire des bêtises.

Gravatar de alterlibriste
Original post of alterlibriste.Votez pour ce billet sur Planet Libre.

Pages