Planet Libre

genma : Yunohost et sous-domaine

Yunohost permet l'usage de sous-domaine. Il faut avoir un nom de domaine par exemple mon domaine.fr et créer au niveau de la configuration DNS (chez Gandi par exemple) des sous domaines.

Configuration chez Gandi

Dans la configuration de son DNS, on aura donc une entrée A avec l'adresse IPv4, une entrée AAAA avec l'adresse IPv6 et ensuite différents CNAME pour le sous-domaines que l'on souhaite créer.

Nom Type Valeur
@ A XYZ.XYZ.XYZ.XYZ
@ AAAA 1234:1234:1234:FFAA:FFAA:FFAA:FFAA:AAFF
* CNAME mondomaine.fr.
agenda CNAME mondomaine.fr.
blog CNAME mondomaine.fr.
rss CNAME mondomaine.fr.
...

permet d'avoir un agenda.mondomaine.fr, un blog.mondomaine.fr etc...

Installer une application sur un sous-domaine

Pour installer une application sur un sous domaine, par exemple blog.mondomaine.fr, dans Yunohost, tout ce fait via la partie administration. On ajoute tout d'abord le sous-domaine à la liste des domaines disponibles. La création d'un sous-domaine dans Yunohost créera les fichiers de configuration correspondant pour nginx (le serveur web de Yunohost).

Puis dans la partie installation d'une application, on installe l'application de façon traditionnelle en en choisissant ce sous-domaine comme domaine (par exemple blog.mondomaine.fr) et en indiquant comme chemin "/" (et non /wordpress qui sera le chemin par défaut). On a alors un message d'avertissement indiquant qu'on ne pourra pas mettre d'autres applications sur ce sous-domaine. On valide. Ca s'installe.

L'application est alors accessible via blog.mondomaine.fr (et non via mondomaine.fr/wordpress)

Déplacer une application sur un sous domaine ?

Que ce passe-t-il si on a déjà installer l'application ? On veut par exemple passer de mondomaine.fr/wordpress à blog.mondomaine.fr.

Pour l'instant il n'y a pas de façon simple (via l'interface graphique de l'administration de Yunohost) pour déplacer une application sur un sous-domaine.

Deux solutions :
- la réinstallation de l'application
- le déplacement de l'application

Réinstallation de l'application

On sauvegarde ses données (base de données etc. via un script sql par exemple, les fichiers etc.). On désinstalle l'application via l'interface graphique d'administration de Yunohost. Et on la réinstalle en suivant la procédure ci-dessus.

Attention à la réinstallation Attention toutefois à bien vérifier que l'application a été packagée pour la version 2.4 de Yunohost sinon on ne peut plus la réinstaller. J'ai par exemple rencontré le problème avec SPIP. Installé en 2.2 sur mondomaine.fr/spip, j'ai voulu le réinstaller sur blog.mondomaine.fr Or SPIP n'est actuellement pas packagé pour Yunohost 2.4 (et entre temps j'étais passé de 2.2 en 2.4)

Déplacer l'application déjà installée

Ceci est sans AUCUNE garantie que ça marche bien (même si pour moi ça a marché, ne casse pas le système...

Pour un usage sans risque, la solution reste de supprimer et réinstaller l'application

Là c'est un peu plus technique. Il faut aller en ligne de commande pour déplacer le fichier monappli.conf. Et donc comprendre ces lignes, savoir regarder des logs de nginx (si on a une erreur...)

#On déplace le fichier automatiquement créer pour nginx à l'installation du dossier correspondant au domaine dans le dossier correspondant au sous-domaine
mv /etc/nginx/conf/mondomaine.d/monappli.conf /etc/nginx/conf/blog.mondomaine.d/#On édite le fichier de configuation déplacé
nano /etc/nginx/conf/blog.mondomaine.d/monappli.conf
# Et on change la ligne location
"location /wordpress" devient juste "location /"
# vu qu'on est à la racine du sous-domaine.Il faut modifier les settings, que l'on doit trouver dans
/etc/yunohost/apps//settings.yml

On redémarre nginx

sudo service restart nginx

Si ça marche, on a l'application avec toutes ses données (la base de données et les fichiers dans /var/wwww/wordpress n'ont pas été modifiés).

Let's encrypt

Si on utilise comme moi let's encrypt, il faut penser à refaire la procédure de génération des certificats pour ce sous-domaine... Je pars du principe que vous avez suivi la procédure
How to : Install Let's Encrypt certificates que vous l'avez comprise et connaissez l'administration système (je ne détaille pas)
C'est pareil que pour le domaine mais avec le sous-domaine, à faire pour chaque sous-domaine que l'on veut (il n'y a pas, à ma connaissance de certificat wildcard *.mondomaine.fr avec let's encrypt)

root@yunohost:~/letsencrypt# ./letsencrypt-auto certonly --config /etc/letsencrypt/conf.ini blog.mondomaine.fr

Ce qui génère les certificats.
Et on fait comme pour le domaine, mais pour le sous-domaine :

root@yunohost:/etc/yunohost/certs/blog.mondomaine.fr# ln -s /etc/letsencrypt/live/blog.mondomaine.fr/fullchain.pem ./crt.pem
root@yunohost:/etc/yunohost/certs/blog.mondomaine.fr# ln -s /etc/letsencrypt/live/blog.mondomaine.fr/privkey.pem ./key.pem

service nginx restart

Conclusion

Voilà j'espère que ce sera utile. Si vous avez des questions ou besoin de précisions, commentez et j'ajouterai dans l'article avant de mettre tout ça dans la documentation officielle de Yunohost.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Framablog : Les nouveaux Léviathans II — Surveillance et confiance (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :Cette seconde partie (Léviathans II) vise à approfondir les concepts survolés précédemment (Léviathans I). Nous avons vu que les monopoles de l’économie numérique ont changé le paradigme libéral jusqu’à instaurer un capitalisme de surveillance. Pour en rendre compte et comprendre ce nouveau système, il faut brosser plusieurs aspects de nos rapports avec la technologie en général, et les services numériques en particulier, puis voir comment des modèles s’imposent par l’usage des big data et la conformisation du marché (Léviathans IIa). J’expliquerai, à partir de la lecture de S. Zuboff, quelles sont les principales caractéristiques du capitalisme de surveillance. En identifiant ainsi ces nouvelles conditions de l’aliénation des individus, il devient évident que le rétablissement de la confiance aux sources de nos relations contractuelles et démocratiques, passe immanquablement par l’autonomie, le partage et la coopération, sur le modèle du logiciel libre (Léviathans IIb).

Techniques d’anticipation

On pense habituellement les objets techniques et les phénomènes sociaux comme deux choses différentes, voire parfois opposées. En plus de la nature, il y aurait deux autres réalités : d’un côté un monde constitué de nos individualités, nos rapports sociaux, nos idées politiques, la manière dont nous structurons ensemble la société ; et de l’autre côté le monde des techniques qui, pour être appréhendé, réclamerait obligatoirement des compétences particulières (artisanat, ingénierie). Nous refusons même parfois de comprendre nos interactions avec les techniques autrement que par automatisme, comme si notre accomplissement social passait uniquement par le statut d’utilisateur et jamais comme producteurs. Comme si une mise à distance devait obligatoirement s’établir entre ce que nous sommes (des êtres sociaux) et ce que nous produisons. Cette posture est au plus haut point paradoxale puisque non seulement la technologie est une activité sociale mais nos sociétés sont à bien des égards elles-mêmes configurées, transformées, et même régulées par les objets techniques. Certes, la compréhension des techniques n’est pas toujours obligatoire pour comprendre les faits sociaux, mais il faut avouer que bien peu de faits sociaux se comprennent sans la technique.

L’avènement des sociétés industrielles a marqué un pas supplémentaire dans l’interdépendance entre le social et les objets techniques : le travail, comme activité productrice, est en soi un rapport réflexif sur les pratiques et les savoirs qui forment des systèmes techniques. Nous baignons dans une culture technologique, nous sommes des êtres technologiques. Nous ne sommes pas que cela. La technologie n’a pas le monopole du signifiant : nous trouvons dans l’art, dans nos codes sociaux, dans nos intentions, tout un ensemble d’éléments culturels dont la technologie est censée être absente. Nous en usons parfois même pour effectuer une mise à distance des techniques omniprésentes. Mais ces dernières ne se réduisent pas à des objets produits. Elles sont à la fois des pratiques, des savoir-faire et des objets. La raison pour laquelle nous tenons tant à instaurer une mise à distance par rapport aux technologies que nous utilisons, c’est parce qu’elles s’intègrent tellement dans notre système économique qu’elles agissent aussi comme une forme d’aliénation au travail comme au quotidien.

Attention, Amazon très méchant

Attention, Amazon très méchant

Ces dernières années, nous avons vu émerger des technologies qui prétendent prédire nos comportements. Amazon teste à grande échelle des dépôts locaux de produits en prévision des commandes passées par les internautes sur un territoire donné. Les stocks de ces dépôts seront gérés au plus juste par l’exploitation des données inférées à partir de l’analyse de l’attention des utilisateurs (mesurée au clic), les tendances des recherches effectuées sur le site, l’impact des promotions et propositions d’Amazon, etc. De son côté, Google ne cesse d’analyser nos recherches dans son moteur d’indexation, dont les suggestions anticipent nos besoins souvent de manière troublante. En somme, si nous éprouvons parfois cette nécessité d’une mise à distance entre notre être et la technologie, c’est en réponse à cette situation où, intuitivement, nous sentons bien que la technologie n’a pas à s’immiscer aussi profondément dans l’intimité de nos pensées. Mais est-ce vraiment le cas ? Ne conformons-nous pas aussi, dans une certaine mesure, nos envies et nos besoins en fonction de ce qui nous est présenté comme nos envies et nos besoins ? La lutte permanente entre notre volonté d’indépendance et notre adaptation à la société de consommation, c’est-à-dire au marché, est quelque chose qui a parfaitement été compris par les grandes firmes du secteur numérique. Parce que nous laissons tellement de traces transformées en autant d’informations extraites, analysées, quantifiées, ces firmes sont désormais capables d’anticiper et de conformer le marché à leurs besoins de rentabilité comme jamais une firme n’a pu le faire dans l’histoire des sociétés capitalistes modernes.

Productivisme et information

Si vous venez de perdre deux minutes à lire ma prose ci-dessus hautement dopée à l’EPO (Enfonçage de Portes Ouvertes), c’est parce qu’il m’a tout de même paru assez important de faire quelques rappels de base avant d’entamer des considérations qui nous mènerons petit à petit vers une compréhension en détail de ce système. J’ai toujours l’image de cette enseignante de faculté, refusant de lire un mode d’emploi pour appuyer deux touches sur son clavier afin de basculer l’affichage écran vers l’affichage du diaporama, et qui s’exclamait : « il faut appeler un informaticien, ils sont là pour ça, non ? ». Ben non, ma grande, un informaticien a autre chose à faire. C’est une illustration très courante de ce que la transmission des savoirs (activité sociale) dépend éminemment des techniques (un vidéo-projecteur couplé un ordinateur contenant lui-même des supports de cours sous forme de fichiers) et que toute tentative volontaire ou non de mise à distance (ne pas vouloir acquérir un savoir-faire technique) cause un bouleversement a-social (ne plus être en mesure d’assurer une transmission de connaissance, ou plus prosaïquement passer pour quelqu’un de stupide). La place que nous occupons dans la société n’est pas uniquement une affaire de codes ou relations interpersonnelles, elle dépend pour beaucoup de l’ordre économique et technique auquel nous devons plus ou moins nous ajuster au risque de l’exclusion (et la forme la plus radicale d’exclusion est l’absence de travail et/ou l’incapacité de consommer).

Des études déjà anciennes sur les organisations du travail, notamment à propos de l’industrialisation de masse, ont montré comment la technologie, au même titre que l’organisation, détermine les comportements des salariés, en particulier lorsqu’elle conditionne l’automatisation des tâches1. Souvent, cette automatisation a été étudiée sous l’angle des répercussions socio-psychologiques, accroissant les sentiments de perte de sens ou d’aliénation sociale2. D’un point de vue plus populaire, c’est le remplacement de l’homme par la machine qui fut tantôt vécu comme une tragédie (l’apparition du chômage de masse) tantôt comme un bienfait (diminuer la pénibilité du travail). Aujourd’hui, les enjeux sont très différents. On s’interroge moins sur la place de la machine dans l’industrie que sur les taux de productivité et la gestion des flux. C’est qu’un changement de paradigme s’est accompli à partir des années 1970-1980, qui ont vu apparaître l’informatisation quasi totale des systèmes de production et la multiplication des ordinateurs mainframe dans les entreprises pour traiter des quantités sans cesse croissantes de données.

Très peu de sociologues ou d’économistes ont travaillé sur ce qu’une illustre chercheuse de la Harvard Business School, Shoshana Zuboff a identifié dans la transformation des systèmes de production : l’informationnalisation (informating). En effet, dans un livre très visionnaire, In the Age Of The Smart Machine en 19883, S. Zuboff montre que les mécanismes du capitalisme productiviste du XXe siècle ont connu plusieurs mouvements, plus ou moins concomitants selon les secteurs : la mécanisation, la rationalisation des tâches, l’automatisation des processus et l’informationnalisation. Ce dernier mouvement découle des précédents : dès l’instant qu’on mesure la production et qu’on identifie des processus, on les documente et on les programme pour les automatiser. L’informationnalisation est un processus qui transforme la mesure et la description des activités en information, c’est-à-dire en données extractibles et quantifiables, calculatoires et analytiques.

Là où S. Zuboff s’est montrée visionnaire dans les années 1980, c’est qu’elle a montré aussi comment l’informationnalisation modèle en retour les apprentissages et déplace les enjeux de pouvoir. On ne cherche plus à savoir qui a les connaissances suffisantes pour mettre en œuvre telle procédure, mais qui a accès aux données dont l’analyse déterminera la stratégie de développement des activités. Alors que le « vieux » capitalisme organisait une concurrence entre moyens de production et maîtrise de l’offre, ce qui, dans une économie mondialisée n’a plus vraiment de sens, un nouveau capitalisme (dont nous verrons plus loin qu’il se nomme le capitalisme de surveillance) est né, et repose sur la production d’informations, la maîtrise des données et donc des processus.

Pour illustrer, il suffit de penser à nos smartphones. Quelle que soit la marque, ils sont produits de manière plus ou moins redondante, parfois dans les mêmes chaînes de production (au moins en ce qui concerne les composants), avec des méthodes d’automatisation très similaires. Dès lors, la concurrence se place à un tout autre niveau : l’optimisation des procédures et l’identification des usages, tous deux producteurs de données. Si bien que la plus-value ajoutée par la firme à son smartphone pour séduire le plus d’utilisateurs possible va de pair avec une optimisation des coûts de production et des procédures. Cette optimisation relègue l’innovation organisationnelle au moins au même niveau, si ce n’est plus, que l’innovation du produit lui-même qui ne fait que répondre à des besoins d’usage de manière marginale. En matière de smartphone, ce sont les utilisateurs les plus experts qui sauront déceler la pertinence de telle ou telle nouvelle fonctionnalité alors que l’utilisateur moyen n’y voit que des produits similaires.

L’enjeu dépasse la seule optimisation des chaînes de production et l’innovation. S. Zuboff a aussi montré que l’analyse des données plus fines sur les processus de production révèle aussi les comportements des travailleurs : l’attention, les pratiques quotidiennes, les risques d’erreur, la gestion du temps de travail, etc. Dès lors l’informationnalisation est aussi un moyen de rassembler des données sur les aspects sociaux de la production4, et par conséquent les conformer aux impératifs de rentabilité. L’exemple le plus frappant aujourd’hui de cet ajustement comportemental à la rentabilité par les moyens de l’analyse de données est le phénomène d’« Ubérisation » de l’économie5.

Ramené aux utilisateurs finaux des produits, dans la mesure où il est possible de rassembler des données sur l’utilisation elle-même, il devrait donc être possible de conformer les usages et les comportements de consommation (et non plus seulement de production) aux mêmes impératifs de rentabilité. Cela passe par exemple par la communication et l’apprentissage de nouvelles fonctionnalités des objets. Par exemple, si vous aviez l’habitude de stocker vos fichiers MP3 dans votre smartphone pour les écouter comme avec un baladeur, votre fournisseur vous permet aujourd’hui avec une connexion 4G d’écouter de la musique en streaming illimité, ce qui permet d’analyser vos goûts, vous proposer des playlists, et faire des bénéfices. Mais dans ce cas, si vous vous situez dans un endroit où la connexion haut débit est défaillante, voire absente, vous devez vous passer de musique ou vous habituer à prévoir à l’avance cette éventualité en activant un mode hors-connexion. Cette adaptation de votre comportement devient prévisible : l’important n’est pas de savoir ce que vous écoutez mais comment vous le faites, et ce paramètre entre lui aussi en ligne de compte dans la proposition musicale disponible.

Le nouveau paradigme économique du XXIe siècle, c’est le rassemblement des données, leur traitement et leurs valeurs prédictives, qu’il s’agisse des données de production comme des données d’utilisation par les consommateurs.

 We <3 your Data

GAFAM : We <3 your Data

Big Data

Ces dernières décennies, l’informatique est devenu un média pour l’essentiel de nos activités sociales. Vous souhaitez joindre un ami pour aller boire une bière dans la semaine ? c’est avec un ordinateur que vous l’appelez. Voici quelques étapes grossières de cet épisode :

  1. votre mobile a signalé vers des antennes relais pour s’assurer de la couverture réseau,
  2. vous entrez un mot de passe pour déverrouiller l’écran,
  3. vous effectuez une recherche dans votre carnet d’adresse (éventuellement synchronisé sur un serveur distant),
  4. vous lancez le programme de composition du numéro, puis l’appel téléphonique (numérique) proprement dit,
  5. vous entrez en relation avec votre correspondant, convenez d’une date,
  6. vous envoyez ensuite une notification de rendez-vous avec votre agenda vers la messagerie de votre ami…
  7. qui vous renvoie une notification d’acceptation en retour,
  8. l’une de vos applications a géolocalisé votre emplacement et vous indique le trajet et le temps de déplacement nécessaire pour vous rendre au point de rendez-vous, etc.

Durant cet épisode, quel que soit l’opérateur du réseau que vous utilisez et quel que soit le système d’exploitation de votre mobile (à une ou deux exceptions près), vous avez produit des données exploitables. Par exemple (liste non exhaustive) :

  • le bornage de votre mobile indique votre position à l’opérateur, qui peut croiser votre activité d’émission-réception avec la nature de votre abonnement,
  • la géolocalisation donne des indications sur votre vitesse de déplacement ou votre propension à utiliser des transports en commun,
  • votre messagerie permet de connaître la fréquence de vos contacts, et éventuellement l’éloignement géographique.

Ramené à des millions d’utilisateurs, l’ensemble des données ainsi rassemblées entre dans la catégorie des Big Data. Ces dernières ne concernent pas seulement les systèmes d’informations ou les services numériques proposés sur Internet. La massification des données est un processus qui a commencé il y a longtemps, notamment par l’analyse de productivité dans le cadre de la division du travail, les analyses statistiques des achats de biens de consommation, l’analyse des fréquences de transaction boursières, etc. Tout comme ce fut le cas pour les processus de production qui furent automatisés, ce qui caractérise les Big Data c’est l’obligation d’automatiser leur traitement pour en faire l’analyse.

Prospection, gestion des risques, prédictibilité, etc., les Big Data dépassent le seul degré de l’analyse statistique dite descriptive, car si une de ces données renferme en général très peu d’information, des milliers, des millions, des milliards permettent d’inférer des informations dont la pertinence dépend à la fois de leur traitement et de leur gestion. Le tout dépasse la somme des parties : c’est parce qu’elles sont rassemblées et analysées en masse que des données d’une même nature produisent des valeurs qui dépassent la somme des valeurs unitaires.

Antoinette Rouvroy, dans un rapport récent6 auprès du Conseil de l’Europe, précise que les capacités techniques de stockage et de traitement connaissent une progression exponentielle7. Elle définit plusieurs catégories de data en fonction de leurs sources, et qui quantifient l’essentiel des actions humaines :

  • les hard data, produites par les institutions et administrations publiques ;
  • les soft data, produites par les individus, volontairement (via les réseaux sociaux, par exemple) ou involontairement (analyse des flux, géolocalisation, etc.) ;
  • les métadonnées, qui concernent notamment la provenance des données, leur trafic, les durées, etc. ;
  • l’Internet des objets, qui une fois mis en réseau, produisent des données de performance, d’activité, etc.

Les Big Data n’ont cependant pas encore de définition claire8. Il y a des chances pour que le terme ne dure pas et donne lieu à des divisions qui décriront plus précisément des applications et des méthodes dès lors que des communautés de pratiques seront identifiées avec leurs procédures et leurs réseaux. Aujourd’hui, l’acception générique désigne avant tout un secteur d’activité qui regroupe un ensemble de savoir-faire et d’applications très variés. Ainsi, le potentiel scientifique des Big Data est encore largement sous-évalué, notamment en génétique, physique, mathématiques et même en sociologie. Il en est de même dans l’industrie. En revanche, si on place sur un même plan la politique, le marketing et les activités marchandes (à bien des égards assez proches) on conçoit aisément que l’analyse des données optimise efficacement les résultats et permet aussi, par leur dimension prédictible, de conformer les biens et services.

Google fait peur ?

Eric Schmidt, actuellement directeur exécutif d’Alphabet Inc., savait exprimer en peu de mots les objectifs de Google lorsqu’il en était le président. Depuis 1998, les activités de Google n’ont cessé d’évoluer, jusqu’à reléguer le service qui en fit la célébrité, la recherche sur la Toile, au rang d’activité has been pour les internautes. En 2010, il dévoilait le secret de Polichinelle :

Le jour viendra où la barre de recherche de Google – et l’activité qu’on nomme Googliser – ne sera plus au centre de nos vies en ligne. Alors quoi ? Nous essayons d’imaginer ce que sera l’avenir de la recherche (…). Nous sommes toujours contents d’être dans le secteur de la recherche, croyez-moi. Mais une idée est que de plus en plus de recherches sont faites en votre nom sans que vous ayez à taper sur votre clavier.

En fait, je pense que la plupart des gens ne veulent pas que Google réponde à leurs questions. Ils veulent que Google dise ce qu’ils doivent faire ensuite. (…) La puissance du ciblage individuel – la technologie sera tellement au point qu’il sera très difficile pour les gens de regarder ou consommer quelque chose qui n’a pas été adapté pour eux.9

Google n’a pas été la première firme à exploiter des données en masse. Le principe est déjà ancien avec les premiers data centers du milieu des années 1960. Google n’est pas non plus la première firme à proposer une indexation générale des contenus sur Internet, par contre Google a su se faire une place de choix parmi la concurrence farouche de la fin des années 1990 et sa croissance n’a cessé d’augmenter depuis lors, permettant des investissements conséquents dans le développement de technologies d’analyse et dans le rachat de brevets et de plus petites firmes spécialisées. Ce que Google a su faire, et qui explique son succès, c’est proposer une expérience utilisateur captivante de manière à rassembler assez de données pour proposer en retour des informations adaptées aux profils des utilisateurs. C’est la radicalisation de cette stratégie qui est énoncée ici par Eric Schmidt. Elle trouve pour l’essentiel son accomplissement en utilisant les données produites par les utilisateurs du cloud computing. Les Big Data en sont les principaux outils.

D’autres firmes ont emboîté le pas. En résultat, la concentration des dix premières firmes de services numériques génère des bénéfices spectaculaires et limite la concurrence. Cependant, l’exploitation des données personnelles des utilisateurs et la manière dont elles sont utilisées sont souvent mal comprises dans leurs aspects techniques autant que par les enjeux économiques et politiques qu’elles soulèvent. La plupart du temps, la quantité et la pertinence des informations produites par l’utilisateur semblent négligeables à ses yeux, et leur exploitation d’une importance stratégique mineure. Au mieux, si elles peuvent encourager la firme à mettre d’autres services gratuits à disposition du public, le prix est souvent considéré comme largement acceptable. Tout au plus, il semble a priori moins risqué d’utiliser Gmail et Facebook, que d’utiliser son smartphone en pleine manifestation syndicale en France, puisque le gouvernement français a voté publiquement des lois liberticides et que les GAFAM ne livrent aux autorités que les données manifestement suspectes (disent-elles) ou sur demande rogatoire officielle (disent-elles).

Gigantismus

En 2015, Google Analytics couvrait plus de 70 % des parts de marché des outils de mesure d’audience. Google Analytics est un outil d’une puissance pour l’instant incomparable dans le domaine de l’analyse du comportement des visiteurs. Cette puissance n’est pas exclusivement due à une supériorité technologique (les firmes concurrentes utilisent des techniques d’analyse elles aussi très performantes), elle est surtout due à l’exhaustivité monopolistique des utilisations de Google Analytics, disponible en version gratuite et premium, avec un haut degré de configuration des variables qui permettent la collecte, le traitement et la production très rapide de rapports (pratiquement en temps réel). La stratégie commerciale, afin d’assurer sa rentabilité, consiste essentiellement à coupler le profilage avec la régie publicitaire (Google AdWords). Ce modèle économique est devenu omniprésent sur Internet. Qui veut être lu ou regardé doit passer l’épreuve de l’analyse « à la Google », mais pas uniquement pour mesurer l’audience : le monopole de Google sur ces outils impose un web rédactionnel, c’est-à-dire une méthode d’écriture des contenus qui se prête à l’extraction de données.

Google n’est pas la seule entreprise qui réussi le tour de force d’adapter les contenus, quelle que soit leur nature et leurs propos, à sa stratégie commerciale. C’est le cas des GAFAM qui reprennent en chœur le même modèle économique qui conforme l’information à ses propres besoins d’information. Que vous écriviez ou non un pamphlet contre Google, l’extraction et l’analyse des données que ce contenu va générer indirectement en produisant de l’activité (visites, commentaires, échanges, temps de connexion, provenance, etc.) permettra de générer une activité commerciale. Money is money, direz-vous. Pourtant, la concentration des activités commerciales liées à l’exploitation des Big Data par ces entreprises qui forment les premières capitalisations boursières du monde, pose un certain nombre répercutions sociales : l’omniprésence mondialisée des firmes, la réduction du marché et des choix, l’impuissance des États, la sur-financiarisation.

Omniprésence

En produisant des services gratuits (ou très accessibles), performants et à haute valeur ajoutée pour les données qu’ils produisent, ces entreprises captent une gigantesque part des activités numériques des utilisateurs. Elles deviennent dès lors les principaux fournisseurs de services avec lesquels les gouvernements doivent composer s’ils veulent appliquer le droit, en particulier dans le cadre de la surveillance des populations et des opérations de sécurité. Ainsi, dans une démarche très pragmatique, des ministères français parmi les plus importants réunirent le 3 décembre 2015 les « les grands acteurs de l’internet et des réseaux sociaux » dans le cadre de la stratégie anti-terroriste10. Plus anciennement, le programme américain de surveillance électronique PRISM, dont bien des aspects furent révélés par Edward Snowden en 2013, a permit de passer durant des années des accords entre la NSA et l’ensemble des GAFAM. Outre les questions liées à la sauvegarde du droit à la vie privée et à la liberté d’expression, on constate aisément que la surveillance des populations par les gouvernements trouve nulle part ailleurs l’opportunité de récupérer des données aussi exhaustives, faisant des GAFAM les principaux prestataires de Big Data des gouvernements, quels que soient les pays11.

Réduction du marché

Le monopole de Google sur l’indexation du web montre qu’en vertu du gigantesque chiffre d’affaires que cette activité génère, celle-ci devient la première et principale interface du public avec les contenus numériques. En 2000, le journaliste Laurent Mauriac signait dans Libération un article élogieux sur Google12. À propos de la méthode d’indexation qui en fit la célébrité, L. Mauriac écrit :

Autre avantage : ce système empêche les sites de tricher. Inutile de farcir la partie du code de la page invisible pour l’utilisateur avec quantité de mots-clés…

Or, en 2016, il devient assez évident de décortiquer les stratégies de manipulation de contenus que les compagnies qui en ont les moyens financiers mettent en œuvre pour dominer l’index de Google en diminuant ainsi la diversité de l’offre13. Que la concentration des entreprises limite mécaniquement l’offre, cela n’est pas révolutionnaire. Ce qui est particulièrement alarmant, en revanche, c’est que la concentration des GAFAM implique par effets de bord la concentration d’autres entreprises de secteurs entièrement différents mais qui dépendent d’elles en matière d’information et de visibilité. Cette concentration de second niveau, lorsqu’elle concerne la presse en ligne, les éditeurs scientifiques ou encore les libraires, pose à l’évidence de graves questions en matière de liberté d’information.

Impuissances

La concentration des services, qu’il s’agisse de ceux de Google comme des autres géants du web, sur des secteurs biens découpés qui assurent les monopoles de chaque acteur, cause bien des soucis aux États qui voient leurs économies impactées selon les revenus fiscaux et l’implantation géographique de ces compagnies. Les lois anti-trust semblent ne plus suffire lorsqu’on voit, par exemple, la Commission Européenne avoir toutes les peines du monde à freiner l’abus de position dominante de Google sur le système Android, sur Google Shopping, sur l’indexation, et de manière générale depuis 2010.

Illustration cynique devant l’impuissance des États à réguler cette concentration, Google a davantage à craindre de ses concurrents directs qui ont des moyens financiers largement supérieurs aux États pour bloquer sa progression sur les marchés. Ainsi, cet accord entre Microsoft et Google, qui conviennent de régler désormais leurs différends uniquement en privé, selon leurs propres règles, pour ne se concentrer que sur leur concurrence de marché et non plus sur la législation. Le message est double : en plus d’instaurer leur propre régulation de marché, Google et Microsoft en organiseront eux-mêmes les conditions juridiques, reléguant le rôle de l’État au second plan, voire en l’éliminant purement et simplement de l’équation. C’est l’avènement des Léviathans dont j’avais déjà parlé dans un article antérieur.

Alphabet. CC-by-sa, Framatophe

Alphabet. CC-by-sa, Framatophe

Capitaux financiers

La capitalisation boursière des GAFAM a atteint un niveau jamais envisagé jusqu’à présent dans l’histoire, et ces entreprises figurent toutes dans le top 40 de l’année 201514. La valeur cumulée de GAFAM en termes de capital boursier en 2015 s’élève à 1 838 milliards de dollars. À titre de comparaison, le PIB de la France en 2014 était de 2 935 milliards de dollars et celui des Pays Bas 892 milliards de dollars.

La liste des acquisitions de Google explique en partie la cumulation de valeurs boursières. Pour une autre partie, la plus importante, l’explication concerne l’activité principale de Google : la valorisation des big data et l’automatisation des tâches d’analyse de données qui réduisent les coûts de production (à commencer par les frais d’infrastructure : Google a besoin de gigantesque data centers pour le stockage, mais l’analyse, elle, nécessite plus de virtualisation que de nouveaux matériels ou d’employés). Bien que les cheminements ne soient pas les mêmes, les entreprises GAFAM ont abouti au même modèle économique qui débouche sur le status quo de monopoles sectorisés. Un élément de comparaison est donné par le Financial Times en août 2014, à propos de l’industrie automobile vs l’économie numérique :

Comparons Detroit en 1990 et la Silicon Valley en 2014. Les 3 plus importantes compagnies de Detroit produisaient des bénéfices à hauteur de 250 milliards de dollars avec 1,2 million d’employés et la cumulation de leurs capitalisations boursières totalisait 36 milliards de dollars. Le 3 premières compagnies de la Silicon Valley en 2014 totalisaient 247 milliards de dollars de bénéfices, avec seulement 137 000 employés, mais un capital boursier de 1,09 mille milliard de dollars.15

La captation d’autant de valeurs par un petit nombre d’entreprises et d’employés, aurait été analysée, par exemple, par Schumpeter comme une chute inévitable vers la stagnation en raison des ententes entre les plus puissants acteurs, la baisse des marges des opérateurs et le manque d’innovation. Pourtant cette approche est dépassée : l’innovation à d’autres buts (produire des services, même à perte, pour capter des données), il est très difficile d’identifier le secteur d’activité concerné (Alphabet regroupe des entreprises ultra-diversifiées) et donc le marché est ultra-malléable autant qu’il ne représente que des données à forte valeur prédictive et possède donc une logique de plus en plus maîtrisée par les grands acteurs.

Pour aller plus loin :

  1. Michel Liu, « Technologie, organisation du travail et comportement des salariés », Revue française de sociologie, 22/2 1981, pp. 205-221.
  2. Voir sur ce point Robert Blauner, Alienation and Freedom. The Factory Worker and His Industry, Chicago : Univ. Chicago Press, 1965.
  3. Shoshana Zuboff, In The Age Of The Smart Machine : The Future Of Work And Power, New York : Basic Books, 1988.
  4. En guise d’illustration de tests (proof of concepts) discrets menés dans les entreprises aujourd’hui, on peut se reporter à cet article de Rue 89 Strasbourg sur cette société alsacienne qui propose, sous couvert de challenge collectif, de monitorer l’activité physique de ses employés. Rémi Boulle, « Chez Constellium, la collecte des données personnelles de santé des employés fait débat », Rue 89 Strasbourg, juin 2016.
  5. Par exemple, dans le cas des livreurs à vélo de plats préparés utilisés par des sociétés comme Foodora ou Take Eat Easy, on constate que ces sociétés ne sont qu’une interface entre les restaurants et les livreurs. Ces derniers sont auto-entrepreneurs, payés à la course et censés assumer toutes les cotisations sociales et leurs salaires uniquement sur la base des courses que l’entreprise principale pourra leur confier. Ce rôle est automatisé par une application de calcul qui rassemble les données géographiques et les performances (moyennes, vitesse, assiduité, etc.) des livreurs et distribue automatiquement les tâches de livraisons. Charge aux livreurs de se trouver au bon endroit au bon moment. Ce modèle économique permet de détacher l’entreprise de toutes les externalités ou tâches habituellement intégrées qui pourraient influer sur son chiffre d’affaires : le matériel du livreur, l’assurance, les cotisations, l’accidentologie, la gestion du temps de travail, etc., seule demeure l’activité elle-même automatisée et le livreur devient un exécutant dont on analyse les performances. L’« Ubérisation » est un processus qui automatise le travail humain, élimine les contraintes sociales et utilise l’information que l’activité produit pour ajuster la production à la demande (quels que soient les risques pris par les livreurs, par exemple pour remonter les meilleures informations concernant les vitesses de livraison et se voir confier les prochaines missions). Sur ce sujet, on peut écouter l’émission Comme un bruit qui court de France Inter qui diffusa le reportage de Giv Anquetil le 11 juin 2016, intitulé « En roue libre ».
  6. Antoinette Rouvroy, Des données et des hommes. Droits et libertés fondamentaux dans un monde de données massives, Bureau du comité consultatif de la convention pour la protection des personnes à l’égard du traitement automatisé des données à caractère personnel, Conseil de l’Europe, janvier 2016.
  7. En même temps qu’une réduction de leur coût de production (leur coût d’exploitation ou d’analyse, en revanche, explose).
  8. On peut s’intéresser à l’origine de l’expression en lisant cet article de Francis X. Diebold, « On the Origin(s) and Development of the Term ‘Big Data’ », Penn Institute For Economic Research, Working Paper 12-037, 2012.
  9. Holman W. Jenkins, « Google and the Search for the Future The Web icon’s CEO on the mobile computing revolution, the future of newspapers, and privacy in the digital age », The Wall Street Journal, 14/08/2010.
  10. Communiqué du Premier ministre, Réunion de travail avec les grands acteurs de l’Internet et des réseaux sociaux, Paris : Hôtel Matignon, 3/12/2015.
  11. Même si Apple a déclaré ne pas entrer dans le secteur des Big Data, il n’en demeure pas moins qu’il en soit un consommateur comme un producteur d’envergure mondiale.
  12. Laurent Mauriac, « Google, moteur en explosion », Libération, 29 juin 2000.
  13. Vincent Abry, « Au revoir la diversité. Quand 16 compagnies dominent complètement l’index Google », article de Blog personnel, voir la version archivée.
  14. PwC, Global Top 100 Companies by market capitalisation, (31/03/2015). Ces données sont à revoir en raison de l’éclatement de Google dans une sorte de holding nommée Alphabet début 2016.
  15. James Manyika et Michael Chui, « Digital era brings hyperscale challenges » (image), The Financial Times, 13/08/2014. Cité par S. Zuboff, « Big Other… », op. cit..

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Les nouveaux Léviathans I — Histoire d’une conversion capitaliste (b)

Qu’est-ce qui fait courir Framasoft ?  De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous êtes curieux ? Vous reprendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

(suite de la première section)

Note de l’auteur :Dans cette première partie (Léviathans I), je tente de synthétiser les transformations des utopies numériques des débuts de l’économie informatique vers ce que S. Zuboff nomme le « capitalisme de surveillance ». Dans cette histoire, le logiciel libre apparaît non seulement comme un élément disruptif présent dès les premiers âges de cette conversion capitaliste (Léviathans Ia), mais aussi comme le moyen de faire valoir la primauté de nos libertés individuelles face aux comportements imposés par un nouvel ordre numérique (Léviathans Ib). La dégooglisation d’Internet n’est plus un souhait, c’est un impératif !

Piller le code, imposer des usages

À la fin des années 1990, c’est au nom de ce réalisme capitaliste, que les promoteurs de l’Open Source Initiative avaient compris l’importance de maintenir des codes sources ouverts pour faciliter un terreau commun permettant d’entretenir le marché. Ils voyaient un frein à l’innovation dans les contraintes des licences du logiciel libre tel que le proposaient Richard Stallman et la Free Software Foundation (par exemple, l’obligation de diffuser les améliorations d’un logiciel libre sous la même licence, comme l’exige la licence GNU GPL – General Public License). Pour eux, l’ouverture du code est une opportunité de création et d’innovation, ce qui n’implique pas forcément de placer dans le bien commun les résultats produits grâce à cette ouverture. Pas de fair play : on pioche dans le bien commun mais on ne redistribue pas, du moins, pas obligatoirement.

Les exemples sont nombreux de ces entreprises qui utilisent du code source ouvert sans même participer à l’amélioration de ce code, voire en s’octroyant des pans entiers de ce que des généreux programmeurs ont choisi de verser dans le bien commun. D’autres entreprises trouvent aussi le moyen d’utiliser du code sous licence libre GNU GPL en y ajoutant tant de couches successives de code privateur que le système final n’a plus rien de libre ni d’ouvert. C’est le cas du système Android de Google, dont le noyau est Linux.

Jamais jusqu’à aujourd’hui le logiciel libre n’avait eu de plus dur combat que celui non plus de proposer une simple alternative à informatique privateur, mais de proposer une alternative au modèle économique lui-même. Pas seulement l’économie de l’informatique, dont on voudrait justement qu’il ne sorte pas, mais un modèle beaucoup plus général qui est celui du pillage intellectuel et physique qui aliène les utilisateurs et, donc, les citoyens. C’est la raison pour laquelle le discours de Richard Stallman est un discours politique avant tout.

La fameuse dualité entre open source et logiciel libre n’est finalement que triviale. On n’a pas tort de la comparer à une querelle d’église même si elle reflète un mal bien plus général. Ce qui est pillé aujourd’hui, ce n’est plus seulement le code informatique ou les libertés des utilisateurs à pouvoir disposer des programmes. Même si le principe est (très) loin d’être encore communément partagé dans l’humanité, le fait de cesser de se voir imposer des programmes n’est plus qu’un enjeu secondaire par rapport à une nouvelle voie qui se dévoile de plus en plus : pour maintenir la pression capitaliste sur un marché verrouillé par leurs produits, les firmes cherchent désormais à imposer des comportements. Elles ne cherchent plus à les induire comme on pouvait dire d’Apple que le design de ses produits provoquait un effet de mode, une attitude « cool ». Non : la stratégie a depuis un moment déjà dépassé ce stade.

Un exemple révélateur et particulièrement cynique, la population belge en a fait la terrible expérience à l’occasion des attentats commis à Bruxelles en mars 2016 par de sombres crétins, au prix de dizaines de morts et de centaines de blessés. Les médias déclarèrent en chœur, quelques heures à peine après l’annonce des attentats, que Facebook déclenchait le « Safety Check ». Ce dispositif propre à la firme avait déjà été éprouvé lors des attentats de Paris en novembre 2015 et cet article de Slate.fr en montre bien les enjeux. Avec ce dispositif, les personnes peuvent signaler leur statut à leurs amis sur Facebook en situation de catastrophe ou d’attentat. Qu’arrive-t-il si vous n’avez pas de compte Facebook ou si vous n’avez même pas l’application installée sur votre smartphone ? Vos amis n’ont plus qu’à se consumer d’inquiétude pour vous.

Facebook safety check fr

Facebook safety check fr

La question n’est pas tant de s’interroger sur l’utilité de ce dispositif de Facebook, mais plutôt de s’interroger sur ce que cela implique du point de vue de nos comportements :

  • Le devoir d’information : dans les médias, on avait l’habitude, il y a encore peu de temps, d’avoir à disposition un « numéro vert » ou un site internet produits par les services publics pour informer la population. Avec les attentats de Bruxelles, c’est le « Safety Check » qui fut à l’honneur. Ce n’est plus à l’État d’assurer la prise en charge de la détresse, mais c’est à Facebook de le faire. L’État, lui, a déjà prouvé son impuissance puisque l’attentat a eu lieu, CQFD. On retrouve la doctrine du « moins d’État ».
  • La morale : avec la crainte qu’inspire le contexte du terrorisme actuel, Facebook joue sur le sentiment de sollicitude et propose une solution technique à un problème moral : ai-je le devoir ou non, envers mes proches, de m’inscrire sur Facebook ?
  • La norme : le comportement normal d’un citoyen est d’avoir un smartphone, de s’inscrire sur Facebook, d’être en permanence connecté à des services qui lui permettent d’être localisé et tracé. Tout comportement qui n’intègre pas ces paramètres est considéré comme déviant non seulement du point de vue moral mais aussi, pourquoi pas, du point de vue sécuritaire.

Ce cas de figure est extrême mais son principe (conformer les comportements) concerne des firmes aussi gigantesques que Google, Apple, Facebook, Amazon, Microsoft (GAFAM) et d’autres encore, parmi les plus grandes capitalisations boursières du monde. Ces dernières sont aujourd’hui capables d’imposer des usages et des comportements parce qu’elles proposent toutes une seule idéologie : leurs solutions techniques peuvent remplacer plus efficacement les pouvoirs publics à la seule condition d’adhérer à la communauté des utilisateurs, de « prendre la citoyenneté » Google, Apple, Facebook, Microsoft. Le rêve californien de renverser le Léviathan est en train de se réaliser.

Vers le capitalisme de surveillance

Ce mal a récemment été nommé par une professeure de Harvard, Shoshana Zuboff dans un article intitulé « Big Other : Surveillance Capitalism and the Prospects of an Information Civilization »1. S. Zuboff analyse les implications de ce qu’elle nomme le « capitalisme de surveillance » dans notre société connectée.

L’expression a récemment été reprise par Aral Balkan, dans un texte traduit sur le Framablog intitulé : « La nature du ‘soi’ à l’ère numérique ». A. Balkan interroge l’impact du capitalisme de surveillance sur l’intégrité de nos identités, à travers nos pratiques numériques. Pour le citer :

La Silicon Valley est la version moderne du système colonial d’exploitation bâti par la Compagnie des Indes Orientales, mais elle n’est ni assez vulgaire, ni assez stupide pour entraver les individus avec des chaînes en fer. Elle ne veut pas être propriétaire de votre corps, elle se contente d’être propriétaire de votre avatar. Et maintenant, (…) plus ces entreprises ont de données sur vous, plus votre avatar est ressemblant, plus elles sont proches d’être votre propriétaire.

C’est exactement ce que démontre S. Zuboff (y compris à travers toute sa bibliographie). Dans l’article cité, à travers l’exemple des pratiques de Google, elle montre que la collecte et l’analyse des données récoltées sur les utilisateurs permet l’émergence de nouvelles formes contractuelles (personnalisation, expérience immersive, etc.) entre la firme et ses utilisateurs. Cela induit des mécanismes issus de l’extraction des données qui débouchent sur deux principes :

  • la marchandisation des comportements : par exemple, les sociétés d’assurance ne peuvent que s’émouvoir des données géolocalisées des véhicules ;
  • le contrôle des comportements : il suffit de penser, par exemple, aux applications de e-health promues par des assurances-vie et des mutuelles, qui incitent l’utilisateur à marcher X heures par jour.

Dans un article paru dans le Frankfurter Allgemeine Zeitung le 24 mars 2016 (« The Secrets of Surveillance Capitalism »), S. Zuboff relate les propos de l’analyste (de données) en chef d’une des plus grandes firmes de la Silicon Valley :

Le but de tout ce que nous faisons est de modifier le comportement des gens à grande échelle. Lorsqu’ils utilisent nos applications, nous pouvons enregistrer leurs comportements, identifier les bons et les mauvais comportements, et développer des moyens de récompenser les bons et pénaliser les mauvais.

Pour S. Zuboff, cette logique d’accumulation et de traitement des données aboutit à un projet de surveillance lucrative qui change radicalement les mécanismes habituels entre l’offre et la demande du capitalisme classique. En cela, le capitalisme de surveillance modifie radicalement les principes de la concurrence libérale qui pensait les individus autonomes et leurs choix individuels, rationnels et libres, censés équilibrer les marchés. Qu’on ait adhéré ou non à cette logique libérale (plus ou moins utopiste, elle aussi, sur certains points) le fait est que, aujourd’hui, ce capitalisme de surveillance est capable de bouleverser radicalement les mécanismes démocratiques. J’aurai l’occasion de revenir beaucoup plus longuement sur le capitalisme de surveillance dans le second volet des Nouveaux Léviathans, mais on peut néanmoins affirmer sans plus d’élément qu’il pose en pratique des questions politiques d’une rare envergure.

Ce ne serait rien, si, de surcroît certains décideurs politiques n’étaient particulièrement pro-actifs, face à cette nouvelle forme du capitalisme. En France, par exemple, la première version du projet de Loi Travail soutenu par la ministre El Khomri en mars 2016 entrait parfaitement en accord avec la logique du capitalisme de surveillance. Dans la première version du projet, au chapitre Adaptation du droit du travail à l’ère numérique, l’article 23 portait sur les plateformes collaboratives telles Uber. Cet article rendait impossible la possibilité pour les « contributeurs » de Uber (les chauffeurs VTC) de qualifier leur emploi au titre de salariés de cette firme, ceci afin d’éviter les luttes sociales comme les travailleurs de Californie qui se sont retournés contre Uber dans une bataille juridique mémorable. Si le projet de loi El Khomri cherche à éliminer le salariat du rapport entre travail et justice, l’enjeu dépasse largement le seul point de vue juridique.

Google est l’un des actionnaires majoritaires de Uber, et ce n’est pas pour rien : d’ici 5 ou 6 ans, nous verrons sans doute les premières voitures sans chauffeur de Google arriver sur le marché. Dès lors, que faire de tous ces salariés chauffeurs de taxi ? La meilleure manière de s’en débarrasser est de leur supprimer le statut de salariés : en créant une communauté de contributeurs Uber à leur propre compte , il devient possible de se passer des chauffeurs puisque ce métier n’existera plus (au sens de corporation) ou sera en voie d’extinction. Ce faisant, Uber fait d’une pierre deux coups : il crée aussi une communauté d’utilisateurs, habitués à utiliser une plate-forme de service de voiturage pour accomplir leurs déplacements. Uber connaît donc les besoins, analyse les déplacements, identifie les trajets et rassemble un nombre incroyable de données qui prépareront efficacement la venue de la voiture sans chauffeur de Google. Que cela n’arrange pas l’émission de pollution et empêche de penser à des moyens plus collectifs de déplacement n’est pas une priorité (quoique Google a déjà son service de bus).

Il faut dégoogliser !

Parmi les moyens qui viennent à l’esprit pour s’en échapper, on peut se demander si le capitalisme de surveillance est soluble dans la bataille pour le chiffrement qui refait surface à l’occasion des vagues terroristes successives. L’idée est tentante : si tous les utilisateurs étaient en mesure de chiffrer leurs communications, l’extraction de données de la part des firmes n’en serait que contrariée. Or, la question du chiffrement n’est presque déjà plus d’actualité que pour les représentants politiques en mal de sensations. Tels certains ministres qui ressassent le sempiternel refrain selon lequel le chiffrement permet aux terroristes de communiquer.

Outre le fait que la pratique « terroriste » du chiffrement reste encore largement à prouver, on se rappelle la bataille récente entre le FBI et Apple dans le cadre d’une enquête terroriste, où le FBI souhaitait obtenir de la part d’Apple un moyen (exploitation de backdoor) de faire sauter le chiffrement d’un IPhone. Le FBI ayant finalement trouvé une solution alternative, que nous apprend cette dispute ? Certes, Apple veut garder la confiance de ses utilisateurs. Certes, le chiffrement a bien d’autres applications bénéfiques, en particulier lorsqu’on consulte à distance son compte en banque ou que l’on transfère des données médicales. Dès lors, la mesure est vite prise entre d’un côté des gouvernements cherchant à déchiffrer des communications (sans même être sûr d’y trouver quoi que ce soit d’intéressant) et la part gigantesque de marché que représente le transfert de données chiffrées. Peu importe ce qu’elles contiennent, l’essentiel est de comprendre non pas ce qui est échangé, mais qui échange avec qui, pour quelles raisons, et comment s’immiscer en tant qu’acteur de ces échanges. Ainsi, encore un exemple parmi d’autres, Google a déployé depuis longtemps des systèmes de consultation médicale à distance, chiffrées bien entendu : « si vous voulez un tel service, nous sommes capables d’en assurer la sécurité, contrairement à un État qui veut déchiffrer vos communications ». Le chiffrement est un élément essentiel du capitalisme de surveillance, c’est pourquoi Apple y tient tant : il instaure un degré de confiance et génère du marché.

 Kids, don’t do drugs

Apple : Kids, don’t do drugs

Nous pourrions passer en revue plusieurs systèmes alternatifs qui permettraient de s’émanciper plus ou moins du capitalisme de surveillance. Les solutions ne sont pas uniquement techniques : elles résident dans le degré de connaissance des enjeux de la part des populations. Il ne suffit pas de ne plus utiliser les services de courriel de Google, surtout si on apprécie l’efficacité de ce service. Il faut se poser la question : « si j’ai le choix d’utiliser ou non Gmail, dois-je pour autant imposer à mon correspondant qu’il entre en relation avec Google en me répondant à cette adresse ? ». C’est exactement le même questionnement qui s’impose lorsque j’envoie un document en format Microsoft en exigeant indirectement de mon correspondant qu’il ait lui aussi le même logiciel pour l’ouvrir.

L’enjeu est éthique. Dans la Règle d’Or, c’est la réciprocité qui est importante (« ne fais pas à autrui ce que tu n’aimerais pas qu’on te fasse »). Appliquer cette règle à nos rapports technologiques permet une prise de conscience, l’évaluation des enjeux qui dépasse le seul rapport individuel, nucléarisé, que j’ai avec mes pratiques numériques et que le capitalisme de surveillance cherche à m’imposer. Si je choisis d’installer sur mon smartphone l’application de géolocalisation que m’offre mon assureur en guise de test contre un avantage quelconque, il faut que je prenne conscience que je participe directement à une mutation sociale qui imposera des comportements pour faire encore davantage de profits. C’est la même logique à l’œuvre avec l’ensemble des solutions gratuites que nous offrent les GAFAM, à commencer par le courrier électronique, le stockage en ligne, la cartographie et la géolocalisation.

Faut-il se passer de toutes ces innovations ? Bien sûr que non ! le retranchement anti-technologique n’est jamais une solution. D’autant plus qu’il ne s’agit pas non plus de dénigrer les grands bienfaits d’Internet. Par contre, tant que subsisteront dans l’ADN d’Internet les concepts d’ouverture et de partage, il sera toujours possible de proposer une alternative au capitalisme de surveillance. Comme le phare console le marin dans la brume, le logiciel libre et les modèles collaboratifs qu’il véhicule représentent l’avenir de nos libertés. Nous ne sommes plus libres si nos comportements sont imposés. Nous ne sommes pas libres non plus dans l’ignorance technologique.

Il est donc plus que temps de Dégoogliser Internet en proposant non seulement d’autres services alternatifs et respectueux des utilisateurs, mais surtout les moyens de multiplier les solutions et décentraliser les usages. Car ce qu’il y a de commun entre le capitalisme classique et le capitalisme de surveillance, c’est le besoin centralisateur, qu’il s’agisse des finances ou des données. Ah ! si tous les CHATONS du monde pouvaient se donner la patte…

Pour aller plus loin :

  1. Shoshana Zuboff, « Big Other : Surveillance Capitalism and the Prospects of an Information Civilization », Journal of Information Technology, 30, 2015, pp. 75-89.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Jean-Pierre Morfin : Préservez votre vie privée, chiffrez !

Crypto rings © Simon Claessen

Nos gouvernants ne semblent pas préoccupés par le respect de notre vie privée qui se trouve sacrifiée sur l'autel de la lutte contre le terrorisme. Il est désormais du devoir de chacun de protéger son jardin secret numérique en utilisant les outils adéquats, c'est-à-dire le chiffrement de ses données et de ses conversations.

Par les temps qui courent, il est vain d'espérer de la part des pouvoirs publics qu'ils jouent leur rôle dans la protection de notre vie privée. Les exemples montrant le contraire se multiplient. Non seulement la législation ne semble pas demander aux grandes entreprises du web de faire le nécessaire pour garantir la sûreté des données que nous leur confions allègrement, mais certains de nos députés et ministres espèrent d'elles qu'elles leur donnent les clés permettant à la justice d'y accéder "si besoin". Par ailleurs, le système IOL, qui se met en place depuis 2009 dans l'ensemble du réseau internet français, ne laisse rien présager de bon. Les pouvoirs octroyés au juge administratif tout récemment avant la fin de l'état d'urgence laisse entrevoir des écoutes de masse de plus en plus simple à mettre en œuvre.

Par le passé, il est déjà arrivé que les moyens techniques destinés aux juges d'instruction ou à la police soient utilisés à des fins personnels par des agents peu scrupuleux. Alors pourquoi il n'en serait pas de même si ces agents, grâce à l'écoute du réseau, avaient un accès à nos boites mail, nos espaces de stockage dans le cloud, le contenu de nos SMS. Que ferons-nous lorsque que ces systèmes seront généralisés et que l'État aura techniquement et judiciairement accès à ces données ? Qui sait de quoi sera fait l'avenir politique de notre pays ? Une information actuellement anodine, le sera-elle dans le futur ? Pouvons-vous nous écrire, aujourd'hui, dans un courriel ou un SMS envoyé à un parent, un ami "J'ai raté mon train, je ne pourrai me rendre, demain matin, à l'église/la mosquée/la synagogue/au temple (rayez les mentions inutiles)" si ce message est susceptible d'être lu dans quelques années/décennies par un régime moins démocratique qui décrète "dangereux" les croyants de telle ou telle religion ? Au risque d'atteindre tout de suite le point Godwin, qu'aurait fait de ces données le Reich Allemand des années 30 ?

N'imaginons pas le pire. Mais ces systèmes d'interceptions et d'écoutes sont-ils sans faille ? Qu'est-ce qui nous garantie qu'ils ne deviendront pas accessibles à des escrocs prêts à nous faire chanter ?

Certains se demande sans doute pourquoi craindre que nos données numériques ne soient divulguées si l'on n'a rien à se reprocher ? Et bien parce que certaines d'entre elles constituent notre vie privée et que la vie privée doit pouvoir restée privée. Selon sa sensibilité, son activité sociale, chacun placera le curseur où bon lui semble. Cependant, qui peut affirmer que cela ne le dérange pas que quelqu'un fouille dans ses courriels, ses contacts, ses SMS, son agenda, ses photos, son relevé bancaire ? Qui va oser mettre en commentaire de cet article son mot de passe de messagerie, ses identifiants Facebook, Twitter, Gmail, Snapchat, Instagram, Skype, Tinder, Meetic et bancaire... ? Si cela ne pose pas de problème, vos correspondants, qui partagent vos échanges, ont peut-être une sensibilité différente sur ce point. Je vous recommande la lecture de cet article de Benjamin Sonntag de la Quadrature du Net qui explique aussi pourquoi l'intimité de chacun doit être respectée.

Alors, si nous ne pouvons plus compter sur nos gouvernants pour protéger nos jardins privés, il est temps pour chacun d'entre nous d'apprendre à le faire. Maintenant que les enjeux sont plus clairs, comment faire dans la pratique pour nous protéger : la réponse la plus évidente, c'est le chiffrement ! Le terrain le plus sensible de nos jours est certainement notre téléphone portable, outil ultime dans nos échanges quotidiens. Premier réflexe, chiffrer le contenu de nos téléphone : il est assez simple de chiffrer le contenu de son iPhone ou de son téléphone Android, c'est devenu une fonctionnalité de base, il suffit de l'activer.

Ensuite, il existe plusieurs applications simples d'utilisation qui permettront de chiffrer de bout en bout vos conversations avec vos interlocuteurs.

  • Chiffrez vos chats avec une application compatible OTR comme Xabber ou Conversations sur Android et ChatSecure sur iOS et Android
  • Chiffrez vos SMS avec Silence sur Android ou Signal sur iOS et Android
  • Chiffrez vos emails avec tous les outils compatibles PGP comme iPGMail sur iOS et Openkeychain + K9-Mail sur Android
  • Chiffrez aussi vos fichiers dans le cloud avec BoxCryptor sur iOS et Android
  • Chiffrez enfin vos consultations des sites web : il suffit de préciser https dans l'adresse du site.

Et ne donnez jamais vos mots de passe ou vos clés privées !

Si vous en voulez plus, rendez vous sur le site francophone d'Electronic Frontier Foundation, vous y trouverez aussi des outils et tutoriels pour Windows, GNU/Linux et MacOS.

Vous n'êtes pas à l'aise avec ces outils, ce n'est pas grave, demandez de l'aide lors de Crypto Party, Chiffro-Fête ou réunion Café-Vie-Privé. Vous en trouverez les prochains événements de votre région le site café-vie-privée.fr.

Pour aller encore plus loin, ayez à l'esprit que seuls les Logiciels Libres peuvent vous garantir un chiffrement sans portes dérobées. C'est pour cela que les Groupe d'utilisateurs de Logiciels Libres pourront aussi vous aider sur la mise en place et l'utilisation de ces outils. Vous trouverez facilement une de ces associations dans votre région.

Certes cela demande quelques efforts mais notre vie privée ne vaut-elle pas cela ?

Share

Gravatar de Jean-Pierre Morfin
Original post of Jean-Pierre Morfin.Votez pour ce billet sur Planet Libre.

alterlibriste : Quand les politiques décident sur ce qu'ils ne connaissent pas

En lisant le bel article de commémoration d’Erwan Cario à Michel Rocard, je me suis interrogé sur les capacités informatiques de ceux qui gouvernent et font les lois.
Ce domaine n’est pas une exception, ils n’ont en général qu’une vision très lointaine ou biaisée de la plupart des sujets sur lesquels ils décident pour nous.
Michel Rocard avait eut la sincérité d’avouer que les outils technologiques n’étaient pas sa tasse de thé (il faut aussi se remettre dans le contexte quinze ans en arrière) mais il a pourtant agi pour éviter les brevets logiciels parce qu’il en a compris l’enjeu, comme quoi, ce n’est pas impossible.

Qu’en est-il à l’heure actuelle où les lois prévoient d’un côté une priorité, puis une préférence puis plus rien du tout pour favoriser les logiciels libres ?

Les gens qui nous gouvernent sont un peu plus jeunes que Michel Rocard mais ils étaient déjà adultes (et probablement dans la politique) lors de la percée de l’informatique dans les années 90, de l’internet dans les années 2000 et des réseaux sociaux et appareils mobiles depuis 2010.
Quelles sont leur utilisation des outils informatiques ?
Probablement pas de bureautique réalisée par leurs secrétaires et assistants, sans doute un peu de recherche sur internet, la gestion de leurs pages web est laissée à leur équipe de comm’ et on va leur accorder qu’ils doivent majoritairement savoir manier Twitter afin de s’envoyer les petites phrases qu’ils réservaient auparavant aux caméras (ça permet aussi de s’occuper lors des assemblées).

Donc en gros, il utilisent un téléphone et peut-être une tablette pour visualiser du contenu pendant leurs déplacement ; les claviers physiques ne doivent pas leur être très familiers.
Et après on s’étonne qu’ils veulent équiper les écoles avec les mêmes outils ?
Ce n’est finalement que leur propre vision du monde de l’informatique ; même pas sûr que le mot système d’exploitation leur évoque quelque chose de précis. Finalement, ils ont a peu près le même niveau que nos parents et ont très probablement peur de toute technologie qu’ils ne connaissent pas. Quand on pense que l’accès au téléphone de la chancelière allemande n’était pas un problème pour les services de renseignements américains...

Oui, parce qu’avec ce niveau d’appréhension d’une technologie, leur parler de libertés logicielles, de neutralité du net, de vie privée, de sécurité, c’est comme si un agriculteur voulait leur expliquer comment on fait pousser des pommes de terre. Donc ils ne s’en remettent qu’a ceux qui les conseillent ou ont un intérêt dans l’affaire, à savoir les lobbies et grands groupes. Des assos comme la Quadrature du Net ont bien essayé, mais ils ne font pas le poids et surtout n’ont rien à proposer en échange.

Ils auraient pourtant tout à gagner à libérer l’informatique des services publics et pourraient même tenter ce qu’ils appellent de leur voeux comme un OS ou un cloud souverrain. Projet qui se vautrera lamentablement en gaspillant les deniers publics s’ils font faire ça par une entreprise et de façon fermée. Il n’y a qu’à penser à leur magnifique dernière invention concernant le Système d’Alerte et d’Information des Populations (SAIP) : pour les détails, et pour boucler la boucle, je vous renvoie vers le 56Kast du même Erwan Cario qui en faisait une excellente critique, en bref, une appli valable que sur Android et IPhone pour en principe être alerté en cas d’attaque terroriste ou autre catastrophe alors qu’il existe une norme internationale pour envoyer des SMS à tous les téléphones autour d’une antenne émettrice mais pas activée en France...

Bref, un jour les décideurs se mettront peut-être à réfléchir ou demanderont les différentes possibilités à ceux qui savent, en attendant, heureusement qu’il y a eu quelques exceptions qui se sont intéressés au sujet pour éviter de faire des bêtises.

Gravatar de alterlibriste
Original post of alterlibriste.Votez pour ce billet sur Planet Libre.

Framablog : Les nouveaux Léviathans I — Histoire d’une conversion capitaliste (a)

Qu’est-ce qui fait courir Framasoft ? De la campagne Dégooglisons à l’initiative C.H.A.T.O.N.S quelles idées ont en tête les acteurs et soutiens de l’association ? Vous êtes curieux ? Vous prendrez bien une tranche de Léviathan ?


Pour vous inviter à aller au-delà des apparences (la sympathique petite tribu d’amateurs gaulois qui veut modestement mettre son grain de sable dans la loi des entreprises hégémoniques) nous vous proposons non seulement un moment de réflexion, mais pour une fois une série de considérations nourries, argumentées et documentées sur l’état de bascule que nous vivons et dans lequel nous prétendons inscrire notre action avec vous.

Jamais le logiciel libre et les valeurs qu’il porte n’ont été autant à la croisée des chemins, car il ne s’agit pas de proposer seulement des alternatives techniques, c’est un défi économique et politique qu’il doit relever.

Entre les États qui nous surveillent et les GAFAM qui nous monétisent, jamais le refuge du secret, celui de l’intime, n’a été aussi attaqué ni menacé. Pour représenter le monstre à plusieurs têtes, Christophe Masutti qui est l’auteur de cette série de réflexions, a choisi la figure emblématique du Léviathan, forgée déjà par Hobbes en particulier pour désigner l’État toujours plus avide de domination.

C’est donc une série de Léviathans nouveaux et anciens que nous vous invitons à découvrir par étapes, tout au long de cette semaine, qui vous conduiront peut-être à comprendre et adopter notre démarche. Car une fois établies les sources du mal et posé le diagnostic, que faire ? Les perspectives que nous proposons seront peut-être les vôtres.

Note de l’auteur :

Dans cette première partie (Léviathans I), je tente de synthétiser les transformations des utopies numériques des débuts de l’économie informatique vers ce que S. Zuboff nomme le « capitalisme de surveillance ». Dans cette histoire, le logiciel libre apparaît non seulement comme un élément disruptif présent dès les premiers âges de cette conversion capitaliste (Léviathans Ia), mais aussi comme le moyen de faire valoir la primauté de nos libertés individuelles face aux comportements imposés par un nouvel ordre numérique (Léviathans Ib). La dégooglisation d’Internet n’est plus un souhait, c’est un impératif !

Techno-capitalisme

Longtemps nous avons cru que le versant obscur du capitalisme était le monopole. En écrasant le marché, en pratiquant des prix arbitraires, en contrôlant les flux et la production à tous les niveaux, un monopole est un danger politique. Devant la tendance monopolistique de certaines entreprises, le gouvernement américain a donc très tôt mis en place une stratégie juridique visant à limiter les monopoles. C’est le Sherman Anti-Trust Act du 2 juillet 1890, ce qui ne rajeunit pas l’économie moderne. Avec cette loi dont beaucoup de pays ont adopté les principes, le fameux droit de la concurrence a modelé les économies à une échelle mondiale. Mais cela n’a pas pour autant empêché l’apparition de monopoles. Parmi les entreprises ayant récemment fait l’objet de poursuites au nom de lois anti-trust sur le territoire américain et en Europe, on peut citer Microsoft, qui s’en est toujours tiré à bon compte (compte tenu de son placement financier).

Que les procès soient gagnés ou non, les firmes concernées dépensent des millions de dollars pour leur défense et, d’une manière ou d’une autre, trouvent toujours un moyen de contourner les procédures. C’est le cas de Google qui, en août 2015, devant l’obésité due à ses multiples activités, a préféré éclater en plusieurs sociétés regroupées sous une sorte de Holding nommée Alphabet. Crainte de se voir poursuivie au nom de lois anti-trust ? Non, du moins ce n’est pas le premier objectif  : ce qui a motivé cet éclatement, c’est de pouvoir rendre plus claires ses différentes activités pour les investisseurs.

Alphabet. CC-by-sa, Framatophe

Alphabet. CC-by-sa, Framatophe

 

Investir dans les sociétés qui composent Alphabet, ce serait donc leur permettre à toutes de pouvoir initier de nouveaux projets. N’en a-t-il toujours pas été ainsi, dans le monde capitaliste ? Investir, innover, produire pour le bien de l’humanité. Dans ce cas, quel danger représenterait le capitalisme ? Aucun. Dans le monde des technologies numériques, au contraire, il constitue le moteur idéal pour favoriser toute forme de progrès social, technique et même politique. Dans nos beaux pays industriels avancés (hum !) nous n’en sommes plus au temps des mines à charbon et des revendications sociales à la Zola  : tout cela est d’un autre âge, celui où le capitalisme était aveugle. Place au capitalisme éclairé.

Convaincu ? pas vraiment n’est-ce pas ? Et pourtant cet exercice de remise en question du capitalisme a déjà été effectué entre la fin des années 1960 et les années 1980. Cette histoire est racontée par Fred Turner, dans son excellent livre Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand un homme d’influence1. Dans ce livre, Fred Turner montre comment les mouvements communautaires de contre-culture ont soit échoué par désillusion, soit se sont recentrés (surtout dans les années 1980) autour de techno-valeurs, en particulier portées par des leaders charismatiques géniaux à la manière de Steve Jobs un peu plus tard. L’idée dominante est que la revendication politique a échoué à bâtir un monde meilleur ; c’est en apportant des solutions techniques que nous serons capables de résoudre nos problèmes.

Ne crachons pas dans la soupe ! Certains principes qui nous permettent aujourd’hui de surfer et d’aller sur Wikipédia, sont issus de ce mouvement intellectuel. Prenons par exemple Ted Nelson, qui n’a rien d’un informaticien puisqu’il est sociologue. Au milieu des années 1960, il invente le terme hypertext par lequel il entend la possibilité de lier entre eux des documents à travers un réseau documentaire. Cela sera formalisé par la suite en système hypermédia (notamment avec le travail de Douglas Engelbart). Toujours est-il que Ted Nelson, en fondant le projet Xanadu a proposé un modèle économique d’accès à la documentation et de partage d’informations (pouvoir par exemple acheter en ligne tel ou tel document et le consulter en lien avec d’autres). Et il a fallu attendre dix ans plus tard l’Internet de papa pour développer de manière concrète ce qui passait auparavant pour des utopies et impliquait un changement radical de modèle (ici, le rapport livresque à la connaissance, remplacé par une appropriation hypertextuelle des concepts).

La conversion des hippies de la contre-culture nord-américaine (et d’ailleurs aussi) au techno-capitalisme ne s’est donc pas faite à partir de rien. Comme bien souvent en histoire des techniques, c’est la convergence de plusieurs facteurs qui fait naître des changements technologiques. Ici les facteurs sont :

  • des concepts travaillés théoriquement comme l’hypertext, l’homme augmenté, l’intelligence artificielle, et tout ce qui sera par la suite dénommé « cyber-culture »,
  • des innovations informatiques : les réseaux (par exemple, la commutation de paquets), les micro-computers et les systèmes d’exploitation, les langages informatiques (Lisp, C, etc.),
  • des situations politiques et économiques particulières : la guerre froide (développement des réseaux et de la recherche informatique), les déréglementations des politiques néolibérales américaines et anglaises, notamment, qui permirent une expansion des marchés financiers et donc l’émergence de startups dont la Silicon Valley est l’emblème le plus frappant, puis plus tard l’arrivée de la « bulle Internet », etc.
Le logiciel libre montre la faille

Pour tout changement technologique, il faut penser les choses de manière globale. Ne jamais se contenter de les isoler comme des émergences sporadiques qui auraient révolutionné tout un contexte par un jeu de dominos. Parfois les enchaînements n’obéissent à aucun enchaînement historique linéaire et ne sont dus qu’au hasard d’un contexte favorable qu’il faut identifier. On peut se demander quelle part favorable de ce contexte intellectuellement stimulant a permis l’émergence de concepts révolutionnaires, et quelle part a mis en lumière les travers de la « contre-culture dominante » de la future Silicon Valley.

Tel l’œuf et la poule, on peut parler du logiciel libre dont le concept a été formalisé par Richard Stallman2. Ce dernier évoluait dans le milieu high-tech du M.I.T. durant cette période qui vit l’émergence des hackers – voir sur ce point le livre de Steven Lévy, L’Éthique des hackers3. Dans le groupe de hackers dont R. Stallman faisait partie, certains se disputaient les programmes de Machines Lisp4. Deux sociétés avaient été fondées, distribuant ce type de machines. Le marché tacite qui était passé : faire en sorte que tous les acteurs (l’université et ces entreprises) puissent profiter des améliorations apportées par les uns et les autres. Néanmoins, une firme décida de ne plus partager, accusant l’université de fausser la concurrence en reversant ses améliorations à l’autre entreprise. Cet événement, ajouté à d’autres épisodes aussi peu glorieux dans le monde des hackers, amena Richard Stallman à formaliser juridiquement l’idée qu’un programme puisse non seulement être partagé et amélioré par tous, mais aussi que cette caractéristique puisse être virale et toucher toutes les améliorations et toutes les versions du programme.

Extrait de l'expolibre de l'APRIL

Extrait de l’expolibre de l’APRIL

En fait, le logiciel libre est doublement révolutionnaire. Il s’oppose en premier lieu à la logique qui consiste à privatiser la connaissance et l’usage pour maintenir les utilisateurs dans un état de dépendance et établir un monopole basé uniquement sur le non-partage d’un programme (c’est-à-dire du code issu d’un langage informatique la plupart du temps connu de tous). Mais surtout, il s’oppose au contexte dont il est lui-même issu : un monde dans lequel on pensait initier des modèles économiques basés sur la capacité de profit que représente l’innovation technologique. Celle-ci correspondant à un besoin, elle change le monde mais ne change pas le modèle économique de la génération de profit par privatisation de la production. Or, avec le logiciel libre, l’innovation, ou plutôt le programme, ne change rien de lui-même : il est appelé à être modifié, diffusé et amélioré par tous les utilisateurs qui, parce qu’ils y participent, améliorent le monde et partagent à la fois l’innovation, son processus et même le domaine d’application du programme. Et une fois formalisé en droit par le concept de licence libre, cela s’applique désormais à bien d’autres productions que les seuls programmes informatiques : les connaissances, la musique, la vidéo, le matériel, etc.

Le logiciel libre représente un épisode disruptif dans le story telling des Silicon Valley et des Steve Jobs du monde entier. Il correspond à un moment où, dans cette logique de conversion des techno-utopistes au capitalisme, la principale faille fut signalée : l’aliénation des utilisateurs des technologies. Et le remède fut compris : pour libérer les utilisateurs, il faut qu’il participent eux-mêmes en partageant les connaissances et la contrepartie de ce partage est l’obligation du partage. Et on sait, depuis lors, que ce modèle alternatif n’empêche nullement le profit puisque celui-ci se loge dans l’exercice des connaissances (l’expertise est monnayable) ou dans la plus-value elle-même de programmes fortement innovants qui permettent la production de services ou de nouveaux matériels, etc.

Économie du partage ?

Il faut comprendre, néanmoins, que les fruits de l’intellectualisme californien des seventies n’étaient pas tous intentionnellement tournés vers le dieu Capital, un peu à la manière dont Mark Zuckerberg a fondé Facebook en s’octroyant cette fonction salvatrice, presque morale, de facilitateur de lien social. Certains projets, voire une grande majorité, partaient réellement d’une intention parfaitement en phase avec l’idéal d’une meilleure société fondée sur le partage et le bien commun. La plupart du temps, ils proposaient un modèle économique fondé non pas sur les limitations d’usage (payer pour avoir l’exclusivité de l’utilisation) mais sur l’adhésion à l’idéologie qui sous-tend l’innovation. Certains objets techniques furent donc des véhicules d’idéologie.

Dans les années 1973-1975, le projet Community Memory5 véhiculait de l’idéologie. Ses fondateurs, en particulier Lee Felsenstein (inventeur du premier ordinateur portable en 1981), se retrouvèrent par la suite au Homebrew Computer Club, le club d’informatique de la Silicon Valley naissante parmi lesquels on retrouva plus tard Steve Jobs. La Silicon Valley doit beaucoup à ce club, qui regroupa, à un moment ou à un autre, l’essentiel des hackers californiens. Avec la Community Memory, l’idée était de créer un système de communication non hiérarchisé dont les membres pouvaient partager de l’information de manière décentralisée. Community Memory utilisait les services de Resource One, une organisation non gouvernementale crée lors de la crise de 1970 et l’invasion américaine du Cambodge. Il s’agissait de mettre en place un accès à un calculateur pour tous ceux qui se reconnaissaient dans le mouvement de contre-culture de l’époque. Avec ce calculateur (Resource One Generalized Information Retrieval System – ROGIRS), des terminaux maillés sur le territoire américain et les lignes téléphoniques WATTS, les utilisateurs pouvaient entrer des informations sous forme de texte et les partager avec tous les membres de la communauté, programmeurs ou non, à partir de terminaux en accès libre. Il s’agissait généralement de petites annonces, de mini-tracts, etc. dont les mots-clé permettaient le classement.

Community Memory Project 1975 Computer History Museum Mountain View California CC By Sa Wikipedia

Community Memory Project 1975 Computer History Museum Mountain View California CC By Sa Wikipedia

Pour Lee Felsenstein, le principal intérêt du projet était de démocratiser l’usage de l’ordinateur, en réaction au monde universitaire ou aux élus des grandes entreprises qui s’en réservaient l’usage. Mais les caractéristiques du projet allaient beaucoup plus loin : pas de hiérarchie entre utilisateurs, respect de l’anonymat, aucune autorité ne pouvait hiérarchiser l’information, un accès égalitaire à l’information. En cela, le modèle s’opposait aux modèles classiques de communication par voie de presse, elle-même dépendante des orientations politiques des journaux. Il s’opposait de même à tout contrôle de l’État, dans un climat de méfiance entretenu par les épisodes de la Guerre du Vietnam ou le scandale du WaterGate. Ce système supposait donc, pour y accéder, que l’on accepte :

  1. de participer à et d’entrer dans une communauté et
  2. que les comptes à rendre se font au sein de cette communauté indépendamment de toute structure politique et surtout de l’État. Le système de pair à pair s’oppose frontalement à tout moyen de contrôle et de surveillance externe.

Quant au fait de payer quelques cents pour écrire (entrer des informations), cela consistait essentiellement à couvrir les frais d’infrastructure. Ce don participatif à la communauté finissait de boucler le cercle vertueux de l’équilibre économique d’un système que l’on peut qualifier d’humaniste.

Si beaucoup de hackers avaient intégré ce genre de principes et si Internet fut finalement conçu (pour sa partie non-militaire) autour de protocoles égalitaires, la part libertarienne et antiétatiste ne fut pas toujours complètement (et aveuglément) acceptée. L’exemple du logiciel libre le montre bien, puisqu’il s’agit de s’appuyer sur une justice instituée et réguler les usages.

Pour autant, combinée aux mécanismes des investissements financiers propres à la dynamique de la Silicon Valley, la logique du « moins d’État » fini par l’emporter. En l’absence (volontaire ou non) de principes clairement formalisés comme ceux du logiciel libre, les sociétés high-tech entrèrent dans un système concurrentiel dont les motivations consistaient à concilier le partage communautaire, l’indépendance vis-à-vis des institutions et la logique de profit. Le résultat ne pouvait être autre que la création d’un marché privateur reposant sur la mise en commun des pratiques elles-mêmes productrices de nouveaux besoins et de nouveaux marchés. Par exemple, en permettant au plus grand nombre possible de personnes de se servir d’un ordinateur pour partager de l’information, l’informatique personnelle devenait un marché ouvert et prometteur. Ce n’est pas par hasard que la fameuse « Lettre aux hobbyistes » de Bill Gates fut écrite en premier lieu à l’intention des membres du Homebrew Computer Club : le caractère mercantile et (donc) privateur des programmes informatiques est la contrepartie obligatoire, la conciliation entre les promesses d’un nouveau monde technologique a-politique et le marché capitaliste qui peut les réaliser.

C’est de ce bain que sortirent les principales avancées informatiques des années 1980 et 1990, ainsi que le changement des pratiques qu’elles finirent par induire dans la société, de la gestion de nos comptes bancaires aux programmes de nos téléphones portables.

Pour aller plus loin :

  1. Fred Turner, Aux sources de l’utopie numérique. De la contre-culture à la cyberculture, Stewart Brand un homme d’influence, Trad. Fr., Caen : C&F Éd., 2012.
  2. Richard M. Stallman, Sam Williams, Christophe Masutti, Richard Stallman et la révolution du logiciel libre. Une biographie autorisée, Paris : Eyrolles/Framasoft, 2010.
  3. Steven Lévy, L’Éthique des hackers, Paris : Globe, 2013, pp.–169 sq.
  4. Voir Richard Stallman et la révolution du logiciel libre, op.&nbscit., chap. 7.
  5. On peut aussi se reporter à Bob Doub, « Community Memory : Precedents in Social Media and Movements », Computer History Museum, 2016.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #26

Pour la 26ème semaine de 2016, voici 5 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Planet Libre : Brèves du Planet Libre - lundi 04, juillet 2016

LinuxFr.org, un site adulte - LinuxFr.org LinuxFR.org collaboratif Linux libre

antistress : "LinuxFr.org fête aujourd'hui 28 juin 2016 ses 18 ans"

Les logiciels libres, "seule alternative viable" pour la souveraineté numérique - ZDNet institution libre droit

antistress : "Promouvoir la souveraineté numérique tout en refusant la priorité au logiciel libre est incohérent. Une politique se construit avec des priorités, pas des 'préférences'. Une telle priorité n’est aucunement contraire à la 'neutralité technologique' des marchés publics. En effet, les licences libres ne sont pas une technologie, mais un mode d’organisation de la création et de la distribution de la valeur."
(via la revue de presse de l'April)

Gravatar de Planet Libre
Original post of Planet Libre.Votez pour ce billet sur Planet Libre.

Articles similaires

yeKcim : Post-it Inkscape : Réinitialiser le centre de rotation

Ce matin, j’ai eu le plaisir d’assister à quelques conférences de Grafik Labor.

logo2016grafiklabor.png

Grafik Labor est un événement proposé par l’AFGRAL, dont l’objectif est de fédérer autour des logiciels libres graphiques : des conférences Gimp, Blender, Inkscape, Scribus, Synfig, Gstreamer,… pour moi c’est un peu le paradis. Ça se déroulait le 2 et 3 juillet à Rennes et les locaux d’AFGRAL étaient complets, c’est vraiment cool de voir que le sujet intéresse plein de monde.

Ce matin, Elisa de C. Guerra présentait les bases de Inkscape. Je connais déjà assez bien ce soft puisque j’initie moi-même régulièrement mes collègues à l’utilisation de ce logiciel de dessin vectoriel. La conférence était donc très intéressante pour moi, non pas pour apprendre les bases mais pour voir comment Elisa, que je sais très bonne pédagogue, développe sa présentation, pour éventuellement m’en inspirer pour la forme, le rythme ou le contenu.

Une question s’est posée : Comment réinitialiser la position du centre de rotation ? C’est une question que je m’étais déjà posée sans jamais être suffisamment ennuyé pour chercher à la résoudre.

Quel est le problème ?

Lorsque vous cliquez deux fois avec l’outil de sélection sur un objet, vous faites apparaître les poignées de rotation et de cisaillement. Au centre de l’objet apparaît une croix : le centre de rotation.

Capture_du_2016-07-03_17-08-36.png

Il est possible de déplacer cette croix pour personnaliser l’axe de rotation mais comment faire pour replacer ce centre de rotation parfaitement au centre de l’objet si on l’a préalablement bougé ?

Quelles solutions ?

Une solution très simple proposée par un membre de l’assistance, ce matin, m’a intriguée et j’ai donc tenté de trouver une solution plus "correcte". Voici toutes les solutions que j’ai identifiées (la première est celle proposée, les deux autres sont celles que je viens de trouver, en bidouillant lors de la rédaction ce billet) :

  • Sélectionner l’objet et le grouper (Ctrl+G). Même si l’objet n’est groupé qu’à lui même, le centre de rotation n’est plus celui de l’objet mais celui du groupe, par défaut au centre donc… Ceci à l’avantage de permettre de réinitialiser le centre de rotation sans perdre définitivement le centre de rotation personnalisé.
  • Sélectionner l’objet et afficher l’éditeur XML (Maj+Ctrl+X), redéfinir à 0 les valeurs de inskscape:transform-center-x et inskscape:transform-center-y

Capture_du_2016-07-03_17-18-41.png

  • Tout simplement : Shift+clic gauche sur la croix (amusant de constater finalement qu’une solution très simple est disponible)

Gravatar de yeKcim
Original post of yeKcim.Votez pour ce billet sur Planet Libre.

Thuban : Mon premier jeu html5

C'est l'ami Péhä qui me l'a suggéré, puis ma curiosité a été piquée par la conception de jeux en html5. Le principal intérêt est de pouvoir y jouer dans un navigateur sans avoir besoin du fuck%#! flash. Ça fonctionne donc partout, tant que le navigateur est récent et fiable : lisez firefox ici.

Comme je ne suis pas développeur, que je suis plutôt habitué au langage python et non au javascript, j'ai cherché un framework. Autrement dit, il me fallait un truc qui fait que ça marche sans trop me prendre la tête. C'est là qu'intervient phaser.

J'ai choisi phaser car :

  • C'est un simple fichier javascript à importer dans sa page web où on veut faire le jeu : .
  • Il est sous licence libre (MIT)
  • Il propose un tas de petites fonctions qui permettent de faire un jeu facilement : gestion de la physique, des collisions, des armes...
  • Il est très facile à prendre en main. Pour moi qui ne connais pas le javascript, je me suis vite repéré.
  • Il s'apprend au travers d'exemples, ce qui me convient parfaitement.
  • Le petit bonhomme a une bonne tête :
alt

Avant de me lancer dans la conception de jeux complets et funs que j'ai en tête, je vois avec phaser l'occasion de créer des activités et simulations pédagogiques. C'est ma maîtresse favorite qui m'a mis au défi de faire un petit jeu de géographie pour ses élèves. C'est juste des fleuves et massifs montagneux à placer : https://yeuxdelibad.net/Programmation/Jeux/geotest/ .

Ça ne paie pas de mine, mais ça m'a bien amusé :)

Vous pouvez voir les sources du jeu en affichant le code source de la page : view-source:https://yeuxdelibad.net/Programmation/Jeux/geotest/ .

À l'avenir, je vais tenter de rassembler les petites fonctions qui m'ont permis de faire certaines choses, comme le chargement au départ ou la gestion des scores.
À suivre :)

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Pierre-Alain Bandinelli : Des statistiques libres avec Rstudio, déployé en quelques minutes

R est un puissant outil et langage d'analyse statistique. S'il est possible d'installer tout le nécessaire à l'utilisation de R sur un poste, Rstudio est une plaisante alternative avec une utilisation via le navigateur des outils hébergés sur un serveur. Cela peut se révéler pratique pour éviter un déploiement sur des postes clients et permettre aux utilisateurs de travailler sur leurs données en tout lieu.

Nous allons voir ici comment installer Rstudio en quelques étapes faciles.

Installation de base

On considère être sur une version de Debian stable (par ex. actuellement Jessie).

apt install r-base apt install gdebi-core wget https://download2.rstudio.org/srtudio-server-0.99.902-amd64.deb gdebi rstudio-serveur-0.99.902-amd64.deb

Il est possible que la version la plus récente de rstudio-server ne soit pas celle donnée ici. C’est pourquoi il est conseillé de visiter https://www.rstudio.com/products/rstudio/download-server/.

À l'issue de cette étape, le serveur Rstudio doit être actif et accessible sur le port 8787 : http://localhost:8787 (on remplacera localhost par le nom d'hôte ou l'adresse IP routable de la machine si elle est distante).

Plaçons Apache en reverse proxy devant

On considère ici qu'Apache est déjà présent sur la machine, sinon on l'installera par apt install apache2.

Dans le fichier /etc/apache2/sites-available/rstudio.conf, on place le contenu suivant :

  ServerName rstudio.domaine.tld       Allow from localhost       ProxyPassMatch ^/p/([0-9]+)/(websocket|.*/websocket)/$ ws://localhost:8787/p/$1/$2/   ProxyPass / http://localhost:8787/   ProxyPassReverse / http://localhost:8787/   ProxyRequests Off

On active alors le module proxy d'Apache puis le site :

a2enmod proxy_http service apache2 restart a2ensite rstudio.conf

Et dans /etc/rstudio/rserver.conf, on place la ligne suivante :

www-address=127.0.0.1 Un petit coup de certbot pour l'HTTPS

Récupérons maintenant un certificat HTTPS via Certbot :

certbot –apache

Le tour est joué, rstudio est désormais accessible derrière https://rstudio.domaine.tld

Autorisations d'accès à Rstudio

Pour la gestion des profils, Rstudio utilise les utilisateurs locaux de la machine. Nous allons ajouter la ligne suivante dans /etc/rstudio/rserver.conf :

auth-required-user-group=rstudio-users

Ainsi, seuls les utilisateurs faisant partie du groupe rstudio-users pourront utiliser Rstudio. Il ne reste plus qu'à créer les utilisateurs et les placer dans le bon groupe !

P.S. Merci à Brendan qui m'a aidé pour ce déploiement et cet article !

Gravatar de Pierre-Alain Bandinelli
Original post of Pierre-Alain Bandinelli.Votez pour ce billet sur Planet Libre.

ardechelibre[.org] : @pero du libre à Aubenas ce mardi 5 juillet

Grand Café Français - Aubenas

Nous vous invitons à nous retrouver ensemble ce mardi 5 juillet pour échanger sur le monde du libre et partager l’heure de l’apéro en toute convivialité.

C’est l’occasion pour les adhérents, les bénévoles, et tous ceux qui nous ont contacté par mail dernièrement de se retrouver pour discuter en personne. Nous en profiterons également pour prendre vos adhésions, notamment pour ceux qui souhaitent une adresse mail @ardechelibre.org ou @ardesca.fr.

 

Rendez-vous au Grand Café Français à Aubenas, de 18h30 à 20h30.

A très bientôt!

Cet article @pero du libre à Aubenas ce mardi 5 juillet est apparu en premier sur ardechelibre[.org].

Gravatar de ardechelibre[.org]
Original post of ardechelibre[.org].Votez pour ce billet sur Planet Libre.

genma : Rss2twitt.py - Petit script python

J'utilise encore le système de Twitterfeed qui permet de faire des twitt automatisés. On indique un fils RSS, une heure, une fréquence et je peux ainsi envoyer un message sur twitter avec un message personnalisé dès qu'un nouveau billet est publié sur le blog. Mais je me suis dis que vu que j'ai mon serveur perso, je dois pouvoir faire ça moi-même. L'occasion pour moi de me remettre au Python.

Voici donc un petit bout de code sans prétention qui fait la même chose. Je ne détaille pas, on trouve facilement comment avoir les clefs pour l'API Twitter. J'utilise le module twython pour me connecter à l'API Twitter et le module Feedparser pour parser le flux RSS. Je partage ça là, si peut être utile à d'autres.

#!/usr/bin/env python
# coding: utf-8
from twython import Twython
import feedparser
import requests
import json

#---------------------------------------"
# Recuperation du RSS, on parse pour ne récupérer
# que le dernier article (titre et url)
#---------------------------------------"
blog_rss = "http://genma.free.fr/spip.php?page=backend"
feeds = feedparser.parse(blog_rss)
syndication_number = 1
urlDernierBillet = ""
articleTitle= " "
for i in range(0, syndication_number):
#print "%s %s %s" % ("A lire" , feeds.entries[i]['title'], feeds.entries[i]['link'])
urlDernierBillet = feeds.entries[i]['link']
articleTitle = feeds.entries[i]['title']

#---------------------------------------"
# Appel de l'API python pour avoir un twitt
#---------------------------------------"
CONSUMER_KEY = 'XXXXXXXXXX'
CONSUMER_SECRET = 'XXXXXXXXXXXXXXXXXXXX'
ACCESS_KEY = 'XXXXXXXXXXXXXXXXXXXX'
ACCESS_SECRET = 'XXXXXXXXXXXXXXXXXXXX'

api = Twython(CONSUMER_KEY,CONSUMER_SECRET,ACCESS_KEY,ACCESS_SECRET)
api.update_status(status='A lire sur le blog '+ articleTitle + ' ' + urlDernierBillet)

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Ilphrin : Des jeux Web avec Superpowers

Quand il s’agit de développer des jeux vidéos sur base d’HTML5, il existe de nombreux cours et librairies sur Internet relatif à ce sujet, et on peut maintenant trouver facilement des ressources pour apprendre à développer des jeux avec telles ou telle technologie (jetez un oeil ICI, ça veut le coup d’oeil ;)). Dans la continuité de ce boum technologique, et né Superpowers: Un IDE pour développer des Jeux Web de façon collaborative.

Le concept

Superpowers est un projet libre, qui tourne sur une base d’Electron donc le logiciel lui-même est fait avec des technologies Web, et il est multiplateforme donc vous pouvez l’essayer sous Windows, Mac OS ou Linux, mais aussi directement depuis le navigateur Web!

Superpowers fonctionne par système de client<->serveur, le serveur s’occupe de gérer les différents projets, et l’accès par les clients à ceux-ci. Lorsque vous lancez le serveur il se lance par défaut en localhost sur un port pré-défini. Une fois le serveur lancé vous pouvez vous y connecter avec un client, avec potentiellement un mot de passe et/ou un nom d’utilisateur à fournir.

superpowers_01

On peut commencer à travailler…

Tout est faisable à l’intérieur de cet environnement de développement. Que ce soit sur les graphismes, le code, le son, etc… Le site officiel fourni un très bon tutoriel pour débuter avec Superpowers.

Lorsque l’on travaille avec Superpowers sur l’aspect du code, on ne travaille pas directement avec l’HTML, le CSS, ou même le Javascript. Ici tout est en TypeScript, un langage de surcouche à Javascript, qui peut ensuite être compilé vers ce dernier. Pour apprendre à utiliser Superpowers il faut apprendre le langage TypeScript, qui est vraiment très simple, mais aussi à la fois puissant. Je laisse la parole à d’autres personnes plus compétentes pour parler de celui-ci quelque part sur le Net, mais vraiment l’essayer c’est l’adopter. ;)

…En collaboration!

Le gros point qui est à mettre en avant à mon avis, et le fait que Superpowers permet aux créateurs de Jeux Vidéos de travailler ensemble, et simultanément sur un projet. Chaque changement se voit en temps réel auprès des autres clients connectés: L’un peut coder pendant qu’un autre prépare des TileSets, et qu’un autre construit une Scène de jeu.

superpowers_02

Ce logiciel est encore en Bêta officiellement, il a donc encore quelques soucis, et manque de deux/trois fonctionalités qui pourraient être utiles (des notifications de modifications sur une partie du projet, un moyen de communication, pourquoi pas intégrer un client IRC directement à l’intérieur), mais cela n’assombrit pas ses nombreuses qualités.

Il est rare en ce moment d’avoir un projet libre qui prend les devant et qui innove dans un domaine. Quand aujourd’hui la tendance est à la copie de fonctionalités en comparaison d’autres outils payants et/ou propriétaires, Superpowers apporte une nouvelle pierre à l’édifice des jeux vidéos en Web, et je suis impatient de démarrer un projet sérieux avec (Surement un Shoot ‘em up, bien sûr libre cela va de soi, si il y a des intéressés ;) ).

Pour finir, un petit lien vers un dépot Github qui contient de gros tutoriaux sur Superpowers en créant de A à Z des petits jeux d’arcade: ICI

Gravatar de Ilphrin
Original post of Ilphrin.Votez pour ce billet sur Planet Libre.

TheLinuxFr : Script post-installation Fedora 24

Suite à la sortie de Fedora en version 24 voici mon petit script de post-installation. Le script est conçu pour le bureau Gnome 3.20 fournis par défaut dans Fedora.

Fonctionnalités
  • installer les dépôts RPMFusion
  • mettre à jour le système
  • installer mon profit bashrc
  • installer Skype, TeamViewer, Atom, Fedy…
  • Faire un peu de nettoyage
  • installer le theme Arc

Il est frais de ce soir et il est tard, n’hésitez pas à rapporter les divers problèmes.

Installation

curl https://git.lietart.fr/thelinuxfr/postinstallfedora/raw/master/postinstallfedora24 -o postinstallfedora24 && chmod +x postinstallfedora24 && ./postinstallfedora24

Source : https://git.lietart.fr/thelinuxfr/postinstallfedora

Cet article Script post-installation Fedora 24 est apparu en premier sur TheLinuxFr.

Gravatar de TheLinuxFr
Original post of TheLinuxFr.Votez pour ce billet sur Planet Libre.

Articles similaires

alterlibriste : La liberté de vouloir

Hier, sentant la pénurie de podcast estivale arriver, j’ai écouté une interview de Richard Stallman passé le 22 avril dernier sur la radio Libre@Toi. Forcément, le propos, même déjà entendu fait réfléchir et réagir.

Mon but ici n’est pas de revenir sur le personnage et ses extravagances ou ses jusqu’au-boutismes, chacun a déjà son opinion. A la fois véritable gourou à qui l’on doit la naissance du mouvement du logiciel libre et en même temps personnage qui ne vit pas vraiment dans la société actuelle, on oscille facilement entre l’admiration et le rejet. Quand il dit par exemple qu’en tant que parents, il ne faut pas accepter que les enseignants utilisent des logiciels privateurs, on voit bien qu’il ne connaît ni notre éducation nationale, ni le fait d’avoir des enfants.

Mais bon commençons déjà par notre propre utilisation et les fameuses libertés. Car, d’un côté, il va parfois trop loin sur le mode d’utilisation des technologies qui devraient être bannies dès qu’elles ne sont pas utilisables avec du logiciel libre (ce qui veut dire qu’il devrait aussi arrêter de prendre l’avion et tout moyen de transport fonctionnant avec une interface logicielle et bientôt purement et simplement tout appareil électronique) ; d’un autre côté, je trouve que les libertés ne sont basées que du point de vue du développeur.

La liberté 0 est celle de pouvoir exécuter librement un programme pour tous les usages que l’on souhaite. Mais il commence à être pointé du doigt qu’avant de pouvoir l’exécuter, il faut déjà en avoir les capacités physiques (droit revendiqué par l’association Liberté 0) mais aussi les capacités de l’installer. Et généralement, plus un programme est facile à installer, plus le système est privateur (appli Android ou Apple, exécutable Windows) et dépend directement de l’accessibilité donnée à ce programme. Sur un système libre, les applications disponibles dans les dépôts sont facilement installables aussi mais lorsqu’elles n’y sont pas, c’est beaucoup moins évident et la compilation à partir du code source (qui est l’idéal absolu pour quelqu’un voulant tourner sur un code dont il est maître) n’est clairement pas à la portée de tout le monde.

La liberté 1 est la liberté d’étudier le fonctionnement du programme et de l’adapter à ses besoins. Là, elle ne s’applique qu’à celui qui a les capacité de comprendre le code. Elle n’est encore pas au niveau de l’utilisateur.

La liberté 2 est de pouvoir redistribuer des copies du programmes. On va dire que c’est la plus accessible car elle permet de mettre le logiciel que l’on aime sur un support et de le diffuser. Alors que l’on imagine facilement cette utilisation du temps des disquettes et des CD-ROM, elle n’est plus aussi utilisée depuis que l’internet haut-débit généralisé puisqu’on a facilement accès à ces programmes. La plus grande difficulté est maintenant de trouver une copie qui n’a pas été vérolée.

La liberté 3 est d’améliorer et de distribuer ces améliorations. C’est un stade au-dessus de la liberté 1 puisque si on peut imaginer aller bricoler un peu dans le code pour faire une adaptation, pour l’améliorer, il faut vraiment savoir coder ou apprendre à le faire.

L’utilisation d’un logiciel libre pour quelqu’un ne sachant pas programmer consiste donc, s’il est capable de l’installer et de le faire fonctionner, à pouvoir l’utiliser et éventuellement le distribuer (sachant que les autres aussi y ont accès). On ne peut pas dire que ça le libère énormément et on comprend qu’ils ne soient pas si nombreux à se ruer dessus. Bon, ils ont aussi l’avantage que ce programme n’est pas censé faire autre chose que ce qu’il doit faire et que d’autres peuvent vérifier que c’est bien le cas.

Donc mon propos était de dire que si on peut qualifier sur ces critères le fait qu’un logiciel est libre ou non, il est beaucoup plus difficile de dire qu’il apporte ou pas plus de liberté à l’utilisateur si celui-ci n’arrive pas à l’installer ou à l’utiliser. C’est là qu’entre en jeu l’aspect philosophique et tous les débats sans fins sur la "libriste attitude".

Pour ne pas s’y embourber, je vais poser un préalable et faire chauffer vos neurones en partant du principe qu’être libre ce n’est pas faire ce que l’on veut mais vouloir ce que l’on fait ou même vouloir ce que l’on peut.
Je ne vais pas détailler ici, l’épreuve de philo est passée mais vous pouvez me remettre votre copie dans 4h ou faire une petite recherche à ce sujet et en principe vous ne devriez pas être trop en désaccord.

Ça évite de dire de toutes façons je fais ce que je veux, si j’ai envie d’installer un logiciel non libre, c’est ma liberté. Oui, mais est-ce ma volonté ? Et suis-je capable de quelque chose correspondant mieux à mes souhaits ?
Si je ne suis pas capable d’installer quoi que ce soit, j’utilise ce que j’ai à ma disposition ; cas du simple utilisateur mais aussi de libristes dans leurs activités professionnelles.
Si je n’ai aucune alternative parce que la fonctionnalité n’existe pas en libre ; cas d’un logiciel spécifique ou de drivers non disponibles.
Si j’ai une alternative mais moins efficace ou vraiment moins adaptée ; cas du driver de carte graphique et du coup vaut-il mieux jouer avec un driver non libre ou sur un OS non libre ?

En fait, plutôt que d’offrir l’alternative habituelle du puriste contre le pragmatique, je voudrais proposer la réflexion sur une troisième voie : celle de l’apprentissage.

  • Apprendre à chercher des alternatives plutôt que d’opter pour la facilité de ce qu’on me propose tout cuit (probablement avec des contreparties même cachées).
  • Apprendre à trouver le programme qui représente le meilleur compromis entre mon besoin, mon système, mes capacités d’utilisation.
  • Apprendre à installer ce programme et si cela s’avère difficile revenir à la case précédente.
  • Apprendre, pour celui qui en a les capacités ou la volonté, à étudier le programme et éventuellement le modifier.

Voilà pour moi où mène la liberté de vouloir qui augmente notre liberté de pouvoir.
Mais cette démarche est totalement personnelle et la seule personne que l’on peut critiquer, c’est nous-même. Et si l’autre n’y arrive pas, à nous de l’y aider mais pas de faire à sa place, lui donner des pistes pour qu’il apprenne lui aussi.

Ça me rappelle l’histoire de celui à qui on donne du poisson ou à qui on apprend à pêcher...

Gravatar de alterlibriste
Original post of alterlibriste.Votez pour ce billet sur Planet Libre.

Bridouz : Solus 1.2, Un vent de légèreté gnomesque

Une distribution linux conçue pour une utilisation desktop, avec un accent prononcé sur la simplicité et la légèreté. C'est le pari un peu fou que c'est lancé l'équipe derrière Solus, anciennement connu sous le nom d'Evolve OS. La distribution vient tout juste de se voir gratifier d'un nouvel iso 1.2, version irlandaisement nommé Shannon. J'avais jeté un rapide coup de souris sur cette distribution il a quelques mois, il est temps de repartir vers ces contrées gnomesques où une petite bande fait de sa tambouille sans déranger personne. Le pire, c'est que cette tambouille est délicieuse !

Solus est une petite distribution linux qui s'est lancée un défi : partir de rien, créer une surcouche se basant sur Gnome 3 mais se voulant plus simple. Lorsqu'on lance le live cd – qui s'est transformé au fil des années en live usb key – force est de constater que le pari est réussi. L'interface est sobre et élégante, la distribution démarre comme une fusée, je pense que de toutes les distributions que j'ai pu essayer, c'est celle qui démarre la plus vite sur mon HP G72 vieillissant. Bravo.

Budgie Desktop est l'interface crée par Ikey Doherty, le principal développeur de la distribution. Budgie se veut être une alternative moins gourmande et plus épurée que Gnome tout en utilisant la force de cette dernière. Au repos Solus, et donc Budgie, mobilise 450MO de RAM chez moi ce qui la rend plus de deux fois moins gourmande que Gnome et c'est un bon point. Budgie propose le traditionnel menu avec les applications et une barre de recherche mais, là où il innove, c'est avec son panel appelé Raven. Ce dernier se cache du côté droit du bureau et se dévoile en cliquant sur l'icône de notification présente dans la zone de notification du bureau. Raven se divise en trois parties

  • D'un côté la partie Notification qui comme son nom l'indique vous avertira quand un réseau wifi sera disponible par exemple ou encore quand une tâche dans un terminal se termine.
  • Le panel inclue également une zone nommée Applets comprenant un calendrier, les réglages sonores en fonction de vos périphériques ainsi qu'un applet apparaissant quand vous lancer votre lecteur musical. Ainsi vous pourrez donc contrôler la lecture de votre musique depuis ce panel.
  • La troisième partie est un panel de configuration rapide de l'interface vous permettant de changer le thème d'icône du bureau par exemple mais également de gérer les panneaux.

Je dois dire qu'au départ je ne voyais pas trop le réel intérêt de Raven mais au final il s'avère que c'est un outil supplémentaire qui est très agréable à utiliser et qui demande qu'à être étoffé. Cela viendra avec le temps.

Le point noir « Canada Dry » – car finalement c'en est un qui n'en est pas – de la distribution était par le passé le nombre de logiciels présent dans les dépôts. Quand j'avais testé Solus à l'époque de la 1.0 je me rappelle qu'il n'y avait que peu de logiciels disponibles et que l'outil graphique était encore rudimentaire. Là aussi la distribution a évolué et après s'être concentré sur le background pour fournir un système stable et fonctionnel l'équipe de packaging commence doucement à ajouter plus de logiciels à ses dépôts et a également travaillé sur une refonte de la logithèque. Solus embarque les logiciels standards pour une utilisation d'un OS avec notamment Firefox, Libreoffice, Gimp, Thunderbird, VLC et Rhythmbox. Avec ça pas mal de gens pourront utiliser leur ordinateur quotidiennement. Solus embarque également des logiciels que j'affectionne tout particulièrement comme Gnome-Mpv ou encore Lollypop et pour ce qui est de l'apparence ils embarquent aussi le somptueux thème Arc ainsi que des thèmes d'icônes comme Arc-Icons, Paper Icons ou encore Numix Circle. Il y a donc matière à se créer un beau bureau :)

Solus fonctionne avec un gestionnaire de paquets nommé eopkg qui, se veut être en accord avec la philosophie de la distribution. Il est simple et rapide. J'aime tout particulièrement les raccourcis à deux caractères du gestionnaire ce qui permet de l'utiliser rapidement en ligne de commande. Par exemple un simple eopkg up permet de mettre à jour son système.  C'est tout con mais c'est bon.

  Après une semaine d'utilisation je suis relativement conquis par la distribution. L'environnement est stable et j'ai tout ce qu'il me faut pour utiliser mon OS. Je rencontrais un problème avec mon scanner qui n'était pas détecté et après en avoir trouvé la cause et l'avoir signalé à l'équipe il n'a fallu que quelques heures avant qu'une mise à jour apparaisse et répare ce problème. Le scanner était donc dorénavant détecté mais seulement avec le compte root. Finalement j'ai trouvé la solution, l'utilisateur n'était pas présent dans le group usb, et donc il était donc normal que Simple-Scan ne puisse trouver mon scanner.

D'un point de vue technique Solus est donc une très bonne distribution mais, ce qui la rend encore plus savoureuse c'est son côté détendu que l'équipe veut insuffler. Les billets du blog de la distribution sont exquis, on suit ce qui se passe sous le capot tout en goûtant à l'humour de l'équipe et au langage singulier d'Ikey. Une distribution qui parcourt son petit bonhomme de chemin, en prenant le temps de développer quelque-chose de propre et fonctionnel en se concentrant sur la base avant d'étoffer le tout. Une distribution qui a le mérite d'apporter des choses nouvelles et qui sera donc à suivre dans ses futurs moutures, histoire de voir les surprises qu'elle nous réservera.

Gravatar de Bridouz
Original post of Bridouz.Votez pour ce billet sur Planet Libre.

Tanguy Ortolo : J'ai testé pour vous UltraViolet (c'est de la merde)

Après avoir acheté un beau coffret de la trilogie cinématographique Le Hobbit, j'ai eu la surprise d'un trouver des instructions pour « récupérer une copie numérique » pour regarder ces films « sur tous mes écrans » grâce à un machin appelé UltraViolet. Les instructions indiquées sont les suivantes :

  1. allez sur warnerbros.fr/uv ;
  2. entrez un code d'activation.

S'agissant d'un machin développé par la MAFIAA, je pouvais déjà prédire le résultat, mais par acquit de conscience, j'ai tout de même essayé, avec un navigateur Web Firefox sous Debian GNU/Linux, plugin Flash installé et à jour, JavaScript et cookies activés sans restriction. Après tout, il est bien indiqué sur le papier que c'est censé marcher « sur tous mes écrans », avec de beaux petits schémas représentant un téléphone, une tablette, un ordinateur portable et un téléviseur.

Logo UltraVioletÉtape 1, Warner Bros

Deux étapes, on pourrait difficilement faire plus simple ! Sauf qu'évidemment, ça se complique. Sur la page UltraViolet de Warner Bros, il n'y a pas d'endroit où saisir un code ; au lieu de cela, il est proposé deux sites partenaires où on doit pouvoir l'entrer : Nolim films et Flixter.

Étape 1, deuxième partie, premier essai, Nolim films

Lorsque j'ai essayé, hier, la page de Nolim films affichait seulement « chargement en cours ». Après quelques minutes, j'ai donc renoncé et été voir chez Flixter.

Étape 1, deuxième partie, deuxième essai, Flixter

Côté Flixter, ça commence bien, on arrive sur un site en anglais. Une fois passé en français, il y a un bouton pour « Utiliser un code ». On tape le code et… ça dit qu'il n'y a aucun résultat. En fait, il faut saisir le titre du film, et ensuite seulement, saisir le code d'activation.

Étape 2, (essayer de) regarder ou télécharger le film

Il faut alors créer un compte, qui demande de fournir des renseignements personnels, c'est à dire des informations qui ne devraient certainement pas les concerner : pour regarder un film qu'on a acheté, il est anormal de devoir donner son nom, prénom et date de naissance. Personnellement, j'ai renseigné mon nom, mais une date de naissance bidon.

Enfin, on peut regarder son film. Enfin, essayer, parce que ça ne marche pas : ça lance une page avec Flash, qui affiche… du noir, puis un indicateur de chargement, et qui finit par planter le lecteur Flash.

On peut aussi télécharger son film avec un logiciel propriétaire proposé pour cela. Il est prévu pour Windows, et ne s'installe pas sous Wine.

Étape 3, ripper son DVD

Comme prédit, ça ne fonctionne pas. Il est donc temps de faire un peu chauffer mon processeur pour ripper mes DVD : ça au moins, ça fonctionne, et sans la moindre restriction. Autrement, ces flims doivent également être disponibles sur les réseaux de contrefaçon : contrairement à l'UltraTropLaid, ça aussi, ça fonctionne.

Gravatar de Tanguy Ortolo
Original post of Tanguy Ortolo.Votez pour ce billet sur Planet Libre.

Mathias : Django : mise à jour de yawd-admin compatible avec django 1.9

Dans cet article du 27 mai 2016, je vous annonçais la reprise en main Yawd-admin, car il n’a plus été mis à jour par les mainteneurs officiels depuis mai 2014. Yawd-admin est un package django permettant d’adapter l’interface d’administration en ajoutant des fonctionnalités indispensables.

Yawd-admin en quelques mots :

yawd-admin est un site Web d’administration de django. Il étend le site d’admin de django par défaut et propose ce qui suit :

  • une interface utilisateur « bootstrap » propre
  • du code pur HTML5/CSS3
  • une interface optimisée pour les smartphones et tablettes
  • des paramètres en base de données personnalisés (options) modifiables à partir de l’interface utilisateur. ( vous pouvez utiliser tous les champs du formulaire standard de django pour ces paramètres)
  • une intégration avec google analytique pour l’affichage des statistiques dans la page d’accueil de l’interface d’admin
  • la possibilité de lister vos applications au menu de navigation
  • un nouveau design des widgets de l’admin Django

La dernière version stable, la 0.8.0 vient d’être publiée et est compatible à 100% avec django 1.9, la dernière version de django à ce jour. Je remercie au passage henriquechehad pour son travail.

La prochaine étape concerne l’intégration de Bootstrap3 (ou 4 mais cela n’a pas l’air d’avancer très vite) en remplacement du Bootstrap 2 vieillissant.

Ensuite viendra la question de la reprise officielle de la maintenance de ce package ou la réalisation d’un fork puis publication sur pypi.

Si vous voulez donner un coup de main, le repo de yawd-admin est pour le moment sur github (je vais le migrer sur bitbucket quand j’aurais pris une décision sur fork ou pas).

Autres articles à lire:

Cet article Django : mise à jour de yawd-admin compatible avec django 1.9 est apparu en premier sur Blog des télécoms - Par Mathias, expert et formateur rédigé par Mathias.

Gravatar de Mathias
Original post of Mathias.Votez pour ce billet sur Planet Libre.

Remi Collet : PHP version 7.0 dans Fedora 25

Le FESCO a approuvé, pour Fedora 25 la mise à jour de PHP 5.6 vers PHP 7.0.

 

Pour mémoire, il s'agit de l'aboutissement d'un travail commencé il y a plus d'un an :

Et depuis, chaque version mineure a été publiée dans le dépôt le jour son annonce.

Depuis hier, PHP version 7.0.8 est la version disponible dans Fedora rawhide. Elle sera donc utilisée pour la QA de la pile PHP.

À noter, extensions et paquets supprimés:

  • php-ereg
  • php-mssql
  • php-mysql
  • php-pecl-jsonc (mais php-json est de retour)
  • php-pecl-mongo (php-pecl-mongodb est en cours de review)
  • php-pecl-xhprof
  • php-pecl-mysqlnd-ms
  • php-pecl-mysqlnd-qc
  • php-xcache

D'autres seront sans doute supprimés ultérieurement par leur mainteneur, actuellement les extensions compatibles ont toutes été mises à jour: amqp, apcu, apfd, event, fann, geoip, gmagick, http, lorde_lz4, igbinary, json_post, libsodium, libvirt, lzf, mailparse, memcache, memcached, msgpack, oauth, pq, propro, raphf, redis, rrd, selinux, smbclient, solr2, ssdeep, ssh2, twig, uuid, xattr, xdebug, xmldiff, yac, yaml, zip, zmq.

Il reste maintenant à traiter l'ensemble des problèmes détectés par Koschei dans le groupe php.

Et bien sur, j'ai déjà commencé à travailler sur PHP 7.1 qui sera sans doute proposé pour Fedora 26.

Ça se passe donc d'abord ici, dans le dépôt remi, qui est la base utilisée pour Fedora, et plus tard RHEL ou CentOS.

Un grand merci à mon employeur et à tous les utilisateurs de mes paquets, qui m'aident à rendre cela possible.

Gravatar de Remi Collet
Original post of Remi Collet.Votez pour ce billet sur Planet Libre.

Articles similaires

Pages