Planet Libre

Framablog : Enquête #Framavous : à vous de nous dire !

Alors voilà : nous proposons aujourd’hui plus de 50 sites web et outils en ligne.

Les millions de visites mensuelles sur l’ensemble de nos sites nous font suspecter que vous êtes entre 200 et 400 000 personnes à les utiliser chaque mois. Et il est hors de question de vous « pister » pour en savoir plus.

Mais comment savoir dans quel cadre vous utilisez les « framachins » ? Comment connaître vos attentes sur nos projets actuels et à venir, sur nos actions, sur ce que l’on fait et comment on le fait ? Comment apprendre à faire les choses pour vous, avec vous, tout en respectant votre vie privée ?

Et si, tout simplement, on vous demandait ?

OK ! C’est ici : https://frama.link/framavous

 

Nous avons demandé à Recherches & Solidarités, une association indépendante de Framasoft, de créer cette petite enquête sur vos usages et vos attentes. Grâce à leur recul et leur expérience, nous espérons avoir des retours objectifs qui nous aideront à nous aiguiller pour les mois à venir.

Auriez-vous quelques minutes à nous accorder ?

Bien entendu, aucune donnée nominative n’est demandée lors de cette enquête. De plus, Recherches & Solidarités (qui a toute notre confiance) nous transmettra les résultats de cette enquête de manière anonymisée.

L’enquête va être ouverte pendant une quinzaine de jours : à vous d’y répondre ! Participer à cette enquête vous prendra 7 à 8 minutes de votre temps. C’est là une autre manière de contribuer activement à nos actions : si nous faisons ces outils pour vous, vous êtes les mieux placé·e·s pour nous dire ce que vous en attendez, non ?

Merci d’avance à ceux et celles d’entre vous qui prendront le temps de répondre et de partager cette enquête : https://frama.link/framavous

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Full Circle Magazine FR : Et hop ! Le numéro 128 en français

Bonjour à toute et à tous !

L'équipe du FCMfr est heureuse de vous présenter, en français, le dernier numéro du magazine Full Circle de l'année 2017! Il s'agit du numéro 128, celui de décembre 2017. Comme d'habitude, vous pouvez le visionner ou le télécharger sur notre page NUMÉROS ou le télécharger directement en cliquant sur la photo de couverture ci-dessous.

issue128fr.png

Étant donné que c'est le numéro des Fêtes de fin d'année, Ronnie a choisi des articles un peu fantaisistes pour les rubriques de Mon opinion et Mon histoire. Dans le premier, vous verrez la réponse à l'une des deux questions essentielles qu'un jeune homme peut se poser : quelle distrib. choisir ? et y a-t-il une vie après le mariage ? Le deuxième raconte l'histoire d'un homme qui, le jour, est déprimé parce qu'il doit aider des gens avec « la distrib. qui ouvre et ferme des choses comme des portes », mais qui, chez lui, préfère, et de loin, Linux. Ce jour-là, même au travail, un mystérieux pingouin le guette et vient à son secours !

Plus sérieusement, il y les tutoriels habituels (Inkscape, tmux, FreeCAD et Great Cow Basic, plus des courriers, Labo Linux, et Q. et R., ainsi que deux critiques, dont une élogieuse du jeu Diluvion. La deuxième critique, fait par Lucas Westermann, est celle d'une nouvelle distribution appelée Emmaubuntus, parce qu'il s'agit d'une variété d'Ubuntu développée pour Emmaüs, le mouvement français créé par l'abbé Pierre. En principe, c'est une distrib. qui devrait aider au reconditionnement de vieux ordinateurs pour des associations humanitaires... Vous verrez ce qu'en pense Lucas !

L'équipe du FCMfr, AE, Bab, d52fr et Frangi, qui est revenu nous aider quand il peut, vous souhaite une très bonne année 2018.

Gravatar de Full Circle Magazine FR
Original post of Full Circle Magazine FR.Votez pour ce billet sur Planet Libre.

Articles similaires

Frédéric Micout : Dérives de la simplification coûte que coûte

Pour convaincre le grand public de faire la démarche de reprendre le pouvoir sur la conception et fabrication de ses objets ou de ses programmes, il faut des solutions faciles à prendre en main. C'est ainsi que des solutions vraiment intéressantes fleurissent. J'ai en tête l'exemple de tinkercad, de la plateforme Makey Makey ou de Scratch que j'ai découvert récemment. La prise en main de chacun de ces outils est vraiment très très rapide et permet à des débutants motivés de passer à l'acte. Libre à chacun d'approfondir ensuite si l'envie est là (les ressources sont abondantes).

Derrière l'idée de reprise du pouvoir, il y a celle que le pouvoir justement est détenu par ceux qui savent (monde académique, monde industriel, ...) et que quelque part, cela n'est pas très juste. Sans faire de généralités, il y a là matière à frictions entre les premiers qui veulent faire comme ils l'entendent et les seconds ceux qui regardent ça de haut. En tout cas, c'est dans ce contexte que je me place. Hier travaillant en milieu industriel et bidouilleur dans l'âme, je travaille aujourd'hui sur un poste d'informaticien dans une structure accueillant du public. Dans ce cadre, j'interviens ponctuellement avec des personnes qui sont inscrites dans la démarche du faire eux même (DIY). Je mesure un peu mieux à présent le faussé qui peut séparer ces deux mondes. Cette position est à la fois intéressante et déroutante (parfois).

Dans le cadre d'une rencontre récente où il était question entre autre du public en fablab, l'animateur de l'un de ces lieux (au passage, c'est une personne que j'apprécie et qui a vraiment créé quelque chose d'intéressant localement) est venue à parler de la fenêtre noire incompréhensible avec du code dedans. S'en est suivi un commentaire pas forcement très sympa vis à vis de ceux qui comprennent et utilisent ces interfaces en ligne de commande. Il m'a semblé comprendre que le commentaire s'adressait notamment au "Linuxiens". J'ai vraiment ressenti une grosse aversion de sa part vis à vis de ces personnes.

Cela m'a laissé assez perplexe, surtout venant d'un animateur de fablab (J'en rediscuterai directement avec l'intéressé plus tard). Sur le moment, je n'ai pas forcement trouvé les mots pour expliquer ce que j'en pensais (bref, j'ai rien dit pour éviter de sortir une connerie). Évidemment, une fenêtre noire où l'on rentre un texte ressemblant à un incantation et qui retourne à son tour une nouvelle formule magique, il ne faut pas se voiler la face, ça peut laisser songeur voir faire carrément peur (en ce sens, je comprend un peu l'avis exprimé). Mais d'un autre côté, c'était bien le dernier endroit où je pensais pouvoir rencontrer une telle position. J'utilise mon terminal quotidiennement et clairement là je me suis juste dit qu'un fablab pragmatique à l'extrême, ça ne pouvait pas être pour moi alors même que s'il y a bien un lieu pour démystifier cet outil, c'est bien celui là ! Plus généralement, le rôle d'un petit fablab n'est-il pas par ailleurs de mettre en avant les outils libres car ils visent justement à émanciper les utilisateurs des solutions qui les enferment ? Je veux bien qu'a un moment donné, la question des compétences se pose car on ne peut pas tout savoir mais de là à dénigrer ceux qui justement utilisent des outils libres, je pense que c'est une erreur. Cette démarche devrait au contraire être encouragée (et elle l'est d'ailleurs dans plein d'autres endroits de ce type).

Gravatar de Frédéric Micout
Original post of Frédéric Micout.Votez pour ce billet sur Planet Libre.

genma : Contributopia en fond d'écran

Comme je le disais dans mon billet Lifehacking - Trois écrans : réel confort, luxe ou superflu ?, j'ai donc trois écrans (celui de l'ordinateur portable) et deux autres pour pouvoir travailler de façon efficace.

Je suis amené régulièrement à quitter ma place (pour aller voir d'autres collègues) et je verrouille donc systématiquement mon PC (une bonne pratique de sécurité, un réflexe qu'il faut avoir que celui de ne jamais laisser un ordinateur non verrouillé sans surveillance, sous peine de devoir apporter les pains aux chocolats ou chocolatines le lendemain, dans le meilleur de cas). Mon PC est visible d'une bonne partie de l'openspace et donc quand mon écran est verrouillé, c'est le fond d'écran (habituellement caché par tout un tas de fenêtre quand je travaille) qui apparaît. J'ai choisi de mettre une image de Contributopia, un beau fond d'écran sans logo. Ça donne ça :

Lorsque que je suis amené à aller en clientèle, généralement je dois projeter quelque chose. Au branchement du vidéo-projecteur, le second bureau - bureau étendu s'affiche et là encore, avec le même fond d'écran. Cette image fait son petit effet et suscite des interrogations ("c'est joli, c'est quoi"). Si je note de l'intérêt et que la situation ou le temps le permet (formation avec pause le midi), j'en profite généralement pour aborder le sujet de Framasoft et du projet Degooglisons...

Contributopia ?

Pour en revenir au fond d'écran, Contributopia, c'est parce que Dégoogliser ne suffit pas. A travers 3 grandes étapes (une par année), Framasoft propose une nouvelle campagne, suite de Degooglisons, dont les objectifs sont le suivants :
-2017-2018 : Créer et proposer des outils
-2018-2019 : Transmettre les savoir-faire
-2019-2020 : Inspirer les possibles

Pour en savoir plus, je vous invite à aller (re)lire les excellents billets de l'équipe communication de Framasoft qui présente en détail le projet : Contributopia : dégoogliser ne suffit pas et Explorons le monde des services de Contributopia.

Et pour le reste, c'est sur le site https://contributopia.org/fr/home/

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #3

Pour la 3ème semaine de l'année 2018, voici 10 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

Littlewing : Améliorer le Boot sous Debian 9

Je ne sais pas trop ce qui m’a pris, je me suis mis en tête d’ optimiser la durée du boot de mon PC équipé de Debian 9.3.

J’en été resté à l’utilisation de bootchart qui était pas mal mais pas pratique du tout. Aujourd’hui, heureusement, il y a systemd.

Voici les quelques commandes qui m’ont servis à optimiser ( un tout petit peu ) mon boot

Récupérer le temps du boot $ systemd-analyze time Startup finished in 2.187s (kernel) + 8.919s (userspace) = 11.107s Voir le temps de démarrage des services $ systemd-analyze blame 8.096s NetworkManager-wait-online.service 964ms networking.service 264ms colord.service 216ms dev-sda1.device 162ms systemd-timesyncd.service 87ms ModemManager.service 82ms autofs.service 79ms NetworkManager.service 75ms keyboard-setup.service 72ms systemd-fsck@dev-disk-by\\x2duuid-7b7fe11e\\x2dfe4f\\x2d4c8f\\x2da71f\\x2d39a6298428d5.service 67ms accounts-daemon.service 45ms systemd-udevd.service 45ms bluetooth.service 44ms systemd-modules-load.service 42ms systemd-udev-trigger.service 37ms geoclue.service 37ms packagekit.service 36ms upower.service 36ms systemd-journald.service [...] Analyser le chemin critique ( c.-à-d. voir où ça coince ) $ systemd-analyze critical-chain The time after the unit is active or started is printed after the "@" character. The time the unit takes to start is printed after the "+" character. graphical.target @8.907s └─multi-user.target @8.907s └─autofs.service @8.823s +82ms └─network-online.target @8.821s └─NetworkManager-wait-online.service @724ms +8.096s └─NetworkManager.service @644ms +79ms └─dbus.service @616ms └─basic.target @615ms └─sockets.target @615ms └─dbus.socket @615ms └─sysinit.target @612ms └─systemd-backlight@backlight:acpi_video0.service @1.079s +7 └─system-systemd\\x2dbacklight.slice @1.079s └─system.slice @125ms └─-.slice @114ms Récupérer un graphique du boot $ systemd-analyze plot > plot.svg Désactivation des services inutiles ( du moins au boot )

Par exemple, j’ai désactivé mongodb et virtualbox du démarrage

$ systemctl disable vboxdrv.service $ systemctl disable vboxballoonctrl-service.service $ systemctl disable vboxweb-service.service $ systemctl disable mongodb.service Analyser les logs d’un service $ journalctl -b -u NetworkManager.service Conclusion

Je n’ai pas encore réussi à optimiser le démarrage du network manager. ça prend quand même 8 secondes. Ce n’est pas trop la mort, mais bon en ce moment, je ne vois pas trop comment mieux. Le gros est dans la négociation DHCP et je ne souhaite pas mettre une IP fixe.

 

 

 

 

 

 

 

 

 

Gravatar de Littlewing
Original post of Littlewing.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Élections pour le Conseil, FESCo et Mindshare cette semaine

Comme le projet Fedora est communautaire, une partie du collège des organisations suivantes doit être renouvelée : Council, FESCo et Mindshare. Et ce sont les contributeurs qui décident. Chaque candidat a bien sûr un programme et un passif qu'ils souhaitent mettre en avant durant leur mandat pour orienter le projet Fedora dans certaines directions. Je vous invite à étudier les propositions des différents candidats pour cela.

J'ai voté

Pour voter, il est nécessaire d'avoir un compte FAS actif et de faire son choix sur le site du scrutin. Vous avez jusqu'au mercredi 25 janvier à 1h heure française pour le faire. Donc n'attendez pas trop.

Je vais profiter de l'occasion pour résumer le rôle de chacun de ces comités afin de clarifier l'aspect décisionnel du projet Fedora mais aussi visualiser le caractère communautaire de celui-ci.

Council

Le Council est ce qu'on pourrait qualifier le grand conseil du projet. C'est donc l'organe décisionnaire le plus élevé de Fedora. Le conseil définit les objectifs à long terme du projet Fedora et participe à l'organisation de celui-ci pour y parvenir. Cela se fait notamment par le biais de discussions ouvertes et transparentes vis à vis de la communauté.

Mais il gère également l'aspect financier. Cela concerne notamment les budgets alloués pour organiser les évènements, produire les goodies, ou des initiatives permettant de remplir les dits objectifs. Ils ont enfin la charge de régler les conflits personnels importants au sein du projet, tout comme les aspects légaux liés à la marque Fedora.

Les rôles au sein du conseil sont complexes.

Ceux avec droit de vote complet

Tout d'abord il y a le FPL (Fedora Project Leader) qui est le dirigeant du conseil et de facto le représentant du projet. Son rôle est lié à la tenue de l'agenda et des discussions du conseil, mais aussi de représenter le projet Fedora dans son ensemble. Il doit également servir à dégager un consensus au cours des débats. Ce rôle est tenu par un employé de Red Hat et est choisi avec le consentement du conseil en question.

Il y a aussi le FCAIC (Fedora Community Action and Impact Coordinator) qui fait le lien entre la communauté et l'entreprise Red Hat pour faciliter et encourager la coopération. Comme pour le FPL, c'est un employé de Red Hat qui occupe cette position avec l'approbation du conseil.

Il y a deux places destinées à la représentation technique et à la représentation plus marketing / ambassadrice du projet. Ces deux places découlent d'une nomination décidée au sein des organes dédiées à ces activités : le FESCo et le Mindshare. Ces places sont communautaires mais ce sont uniquement ces comités qui décident des attributions.

Il reste deux places communautaires totalement ouvertes et dont tout le monde peut soumettre sa candidature ou voter. Cela permet de représenter les autres secteurs d'activité comme la traduction ou la documentation mais aussi la voix communautaire au sens la plus large possible. C'est pour ces places que le vote est ouvert cette semaine !

Ceux avec le droit de vote partiel

Un conseiller en diversité est nommé par le FPL avec le soutien du conseil pour favoriser l'intégration au sein du projet des populations le plus souvent discriminées. Son objectif est donc de déterminer les programmes pour régler cette problématique et résoudre les conflits associés qui peuvent se présenter.

Un gestionnaire du programme Fedora qui s'occupe du planning des différentes versions de Fedora. Il s'assure du bon respect des délais, du suivi des fonctionnalités et des cycles de tests. Il fait également office de secrétaire du conseil. C'est un employé de Red Hat qui occupe ce rôle toujours avec l'approbation du conseil.

FESCo

Le FESCo (Fedora Engineering Steering Committee) est un conseil entièrement composé de membres élus et totalement dévoués à l'aspect technique du projet Fedora.

Ils vont donc traiter en particulier les points suivants :

  • Les nouvelles fonctionnalités de la distribution ;
  • Les sponsors pour le rôle d'empaqueteur (ceux qui pourront donc superviser un débutant) ;
  • La création et la gestion des SIGs (Special Interest Group) pour organiser des équipes autour de certaines thématiques ;
  • La procédure d'empaquetage des paquets.

Le responsable de ce groupe est tournant. Les 9 membres sont élus pour un an, sachant que chaque élection renouvelle la moitié du collège.

Mindshare

Mindshare est une évolution du FAmSCo (Fedora Ambassadors Steering Committee) qu'il remplace. Il est l'équivalent du FESCo sur l'aspect plus humain du projet. Pendant que le FESCo se préoccupera beaucoup plus des empaqueteurs, la préoccupation de ce conseil est plutôt l'ambassadeur et les nouveaux contributeurs.

Voici un exemple des thèmes dont il a compétence qui viennent du FAmSCo :

  • Gérer l'accroissement des ambassadeurs à travers le mentoring ;
  • Pousser à la création et au développement des communautés plus locales comme la communauté française par exemple ;
  • Réaliser le suivi des évènements auxquels participent les ambassadeurs ;
  • Accorder les ressources aux différentes communautés ou activités, en fonction des besoin et de l'intérêt ;
  • S'occuper des conflits entre ambassadeurs.

Et ses nouvelles compétences :

  • La communication entre les équipes, notamment entre la technique et le marketing ;
  • Motiver les contributeurs à s'impliquer dans différents groupes de travail ;
  • Gérer l'arrivé de nouveaux contributeurs pour les guider, essayer de favoriser l'inclusion de personnes souvent peu représentées dans Fedora (femmes, personnes non américaines et non européennes, étudiants, etc.) ;
  • Gestion de l'équipe marketing.

Il y a 9 membres pour gérer ce nouveau comité. Un gérant, 2 proviennent des ambassadeurs, un du design et web, un de la documentation, un du marketing, un de la commops et les deux derniers sont élus. C'est pour ces deux derniers sièges que les scrutins sont ouverts.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

La vache libre : Utiliser Proton VPN sous GNU/Linux

Hello les ami(e)s. Le concept de vie privée a pris un sérieux coup dans la gourde ces dernières années, mais il existe encore quelques solutions simples pour se protéger un minimum. Si vous débutez sous GNU/Linux, utiliser un VPN peut parfois paraître un peu compliqué alors qu’au final il n’y a pas de quoi fouetter un matou. Je vous propose de voir vite fait comment mettre en place une solution simple, mais efficace.

Pour cela nous allons installer quelques paquets et passer par un service qui se nomme ProtonVPN. Ils proposent 4 formules dont trois sont payantes, mais nous allons commencer par l’offre de base qui elle est gratuite. Vous pourrez toujours basculer sur une formule payante par la suite.

La première étape est donc de vous rendre sur cette page afin de créer votre compte en quelques clics.
Ceci étant fait nous allons maintenant nous attaquer à l’installation des paquets qui vont bien et à quelques étapes de configuration qui vous allez le voir, n’ont rien de bien sorcier.

NB : J’utilise Ubuntu 16.04 et GNOME en desktop, donc adaptez le tout en fonction de votre distro.

Ouvrez un terminal (CTRL+Alt+T) et installez les paquets suivants (il se peut que certains d’entre-eux  soient déjà inclus dans votre distribution) à l’aide de ces quelques lignes de commande  :

sudo apt install openvpn sudo apt install network-manager-openvpn-gnome sudo apt install resolvconf

Maintenant que vous avez ce qu’il vous faut, rendez vous sur votre dashboard ProtonVPN, sélectionnez votre OS, le protocole et le serveur que vous souhaitez utiliser.

Une fois le serveur sélectionné et le fichier de configuration téléchargé, gardez le bien au chaud. Celui-ci contiendra tout ce qu’il faut pour que vous n’ayez pas à entrer les paramètres de connexion à la main.

Nous allons maintenant paramétrer la connexion. Ouvrez votre gestionnaire réseau et créez une nouvelle connexion, en choisissant bien entendu l’option VPN :

Une fois que vous avez cliqué sur VPN, Choisissez d’importer le fichier de configuration généré sur le site de ProtonVPN :

Indiquez ensuite votre nom d’utilisateur et votre mot de passe dans les champs requis (vous les trouverez sur votre dashboard ProtonVPN) et enregistrez les modifications :

À ce stade vous devriez voir la connexion VPN apparaître dans votre gestionnaire réseau. Il ne vous reste plus qu’à cliquer dessus, à entrer votre mot de passe pour vous y connecter et à surfer comme un dératé :

Perso une fois connecté et après vérification je suis bien en Australie :D :

Comme vous pouvez le voir ce n’est pas bien compliqué, et en ce qui concerne ProtonVPN j’ai trouvé le service assez instéressant. L’option gratuite même si ce n’est pas ce qu’il y a de plus rapide est déjà pas mal pour commencer et les offres payantes ne sont pas hors de prix.

Pour ceux que ça intéresse il existe également un client Android qui roxxe du poney. Il est très facile à installer et à utiliser. Ça ronronne en deux minutes top chrono.

Bref, amusez-vous bien et sortez couverts ;)

Gravatar de La vache libre
Original post of La vache libre.Votez pour ce billet sur Planet Libre.

Articles similaires

Wodric : GDPR : impact sur l’ensemble de vos développements

La GDPR est le nouveau règlement européen en matière de protection des données personnelles. Pas d’inquiétude, je ne vais pas faire de présentation complète du sujet! C’est indigeste et je ne suis pas coutumier des gros dossiers.

De plus, l’article sera très grandement inspiré de l’article anglophone de Bozho (n’hésitez pas à lire la version originale), ce dernier est très orienté pour les développeurs. Nous allons plutôt parler fonctionnalité et implémentation que règlement.

La GPDR en bref

Si vous avez déjà de bonnes notions sur le sujet de la GDPR et qu’un rafraichissement de mémoire n’est pas nécessaire passez ce chapitre.

GDPR

" data-medium-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/GDPR.png?fit=300%2C200&ssl=1" data-large-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/GDPR.png?fit=600%2C400&ssl=1" src="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/GDPR.png?resize=300%2C200&ssl=1" alt="GDPR" width="300" height="200" srcset="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/GDPR.png?resize=300%2C200&ssl=1 300w, https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/GDPR.png?resize=90%2C60&ssl=1 90w, https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/GDPR.png?w=600&ssl=1 600w" sizes="(max-width: 300px) 100vw, 300px" data-recalc-dims="1">
GDPR

La GDPR (pour General Data Protection Regulation) est un nouveau règlement européen applicable à la date du 25 mai 2018. Ce dernier redéfinit complètement les obligations des entreprises envers les données personnelles de leurs utilisateurs et clients.

La GDPR regroupe une centaine d’articles qui seront autant de lois dans chacun des pays de l’union européenne. Mais si je dois résumer en une dizaine de points importants :

  • Il s’agit d’un règlement, avec des articles de loi et non une directive
  • Des sanctions extrêmement lourdes, 20 M€ minimum ou 4% du chiffre d’affaires mondiales
  • Déclaration contraignante de l’utilisation des données utilisateurs
  • Obligation de sécurisation des données (chiffrement et anonymisation)
  • Obligation de déclaration des fuites de données sous 72 heures après la découverte
  • Ne pas collecter de données superflues
  • Le traitement des données recueillis doit être justifié et transparent
  • Proposer des mentions légales intelligibles (compréhensibles pour un humain non juriste)
  • Respect du droit à la portabilité des données
  • Droit a l’oubli
  • Et bien d’autres ….

Je vous laisse découvrir ce très bon dossier (20 minutes de lecture environ) pour aller plus loin sur le sujet si vous êtes curieux.

Qui est concerné ? Toutes les entreprises européennes et toutes entreprises ayant des clients en Europe.

Il y a plein de changements dans la gestion des données en perspective. Aujourd’hui, cette gestion de données est souvent l’affaire des logiciels et par conséquent des développeurs.

Impact de la GDPR sur les développements

L’ensemble des obligations qui découle de la GDPR vont nous (les développeurs) obliger à revoir certaines fonctionnalités des logiciels gérant des données personnelles.

Commençons par une définition, qu’est-ce-que sont les données personnelles ? Ce sont l’ensemble des données qui permettent d’identifier directement ou indirectement (par recoupement par exemple) une personne.

Le droit à l’oubli

Chaque utilisateur ayant un droit à l’oubli, il est nécessaire de prévoir une fonction qui supprime l’ensemble des données personnelles de cet utilisateur.

Avoir une telle fonctionnalité est également intéressant en intégration pour tester, par exemple, différents uses cases.

Cependant, tout n’est pas si simple, de nombreuses données de votre application seront probablement liées (par des clefs étrangères, en base, le plus souvent) à l’utilisateur. Deux choix principaux s’offrent à vous : supprimer l’ensemble des données liées à cet utilisateur (cascade) ou vider la valeur des clefs étrangères.

Autre précision importante, il faut notifier l’ensemble des logiciels/API et autres services tiers (service cloud, réseaux sociaux) pour qu’ils suppriment l’ensemble des données personnelles de l’utilisateur.

Export de données Télécharger données personnelles

" data-medium-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Télécharger-vos-données.png?fit=300%2C193&ssl=1" data-large-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Télécharger-vos-données.png?fit=670%2C430&ssl=1" src="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/T%C3%A9l%C3%A9charger-vos-donn%C3%A9es.png?resize=300%2C193&ssl=1" alt="Télécharger données personnelles" width="300" height="193" srcset="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Télécharger-vos-données.png?resize=300%2C193&ssl=1 300w, https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Télécharger-vos-données.png?w=670&ssl=1 670w" sizes="(max-width: 300px) 100vw, 300px" data-recalc-dims="1">
Télécharger données personnelles

La GDPR prévoit que l’utilisateur puisse récupérer l’ensemble de ces données personnelles. Il est indispensable de prévoir une fonction qui permet à l’utilisateur d’exporter ces données. Les données à lui retourner sont celles que vous auriez effacées si ce dernier exerce son droit à l’oubli.

L’ensemble de ces données doit impérativement être dans un format standard pour respecter l’interopérabilité demandée par la GDPR. Cela peut simplement être un fichier XML ou JSON, en utilisant, par exemple, le formalisme défini par schema.org.

Quelques grosses entreprises comme Google, Facebook ou Twitter ont déjà implémentés cette fonctionnalité, je vous laisse tester par vous-même c’est assez effrayant de voir la taille des archives…

Donner à l’utilisateur le droit de modifier ces données

Ce point semble évident… mais l’utilisateur doit pouvoir modifier ces données personnelles. Un détail tout de même, il en est de même des informations que vous avez récupérées via des applications tierces, comme Facebook par exemple.

Rien n’oblige à avoir des formulaires éditables, cela peut passer par une demande de modification manuelle à un support. Mais un formulaire reste tout de même beaucoup moins cher à entretenir à terme!

Gestion du consentement utilisateur GDPR – gestion permissions

" data-medium-file="https://i2.wp.com/wodric.com/wp-content/uploads/2018/01/app-permissions-1-e1516121781885.jpg?fit=300%2C215&ssl=1" data-large-file="https://i2.wp.com/wodric.com/wp-content/uploads/2018/01/app-permissions-1-e1516121781885.jpg?fit=250%2C179&ssl=1" src="https://i2.wp.com/wodric.com/wp-content/uploads/2018/01/app-permissions-1-e1516121781885.jpg?resize=250%2C179&ssl=1" alt="GDPR - gestion permissions" width="250" height="179" data-recalc-dims="1">
GDPR – gestion permissions

La GDPR prévoit également que l’utilisateur autorise le traitement de ces données personnelles. Il peut également revenir à n’importe quel moment sur les droits qu’il a donné dans le passé. Une simple validation des conditions d’utilisation ne suffira plus. De plus, par défaut, les droits devront être désactivés.

Par conséquent, l’utilisateur doit pouvoir avoir une interface qui lui permette de gérer les autorisations qu’il donne à votre application/site web. On peut imaginer un ensemble de switch ou de checkboxs afin de gérer chacun des droits demandés. Ci-contre un exemple de ce que fait endroit pour chaque application aujourd’hui.

NB : Les données nécessaires à des obligations légales (facture, fiche de paie etc…) seront soumis à une régime particulier et ne nécessiteront pas d’autorisation si l’utilisation de ces dernières est exclusif aux obligations légales.

Vérification de l’âge

Une autre évolution apportée par la GDPR est l’ajout d’un âge de consentement parental. Si un utilisateur de moins de 16 ans s’inscrit sur une plateforme, il est nécessaire de demander le consentement des parents. Ici difficile de donner des recommandations, on sait à quel point les systèmes de vérification pour les sites pour adultes sont efficaces…

GDPR – Vérification age

" data-medium-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/verif_age_steam-e1515617103576.png?fit=300%2C211&ssl=1" data-large-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/verif_age_steam-e1515617103576.png?fit=230%2C162&ssl=1" src="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/verif_age_steam-e1515617103576.png?resize=230%2C162&ssl=1" alt="GDPR - Vérification age" width="230" height="162" data-recalc-dims="1">
GDPR – Vérification age

Un piste est de demander un email parental, mais les petits malins auront vite fait de demander à un ami ou de créer une seconde adresse email afin de s’auto-valider.

Ne gardez pas les données plus longtemps que nécessaire

Là encore, la GDPR change les règles, une fois que vous avez utilisé une donnée, cette dernière doit être supprimée ou anonymisée. La loi ne permettra plus de conserver une donnée pour un traitement ultérieur non-défini.

Pour ce cas, partons d’un exemple, pour un site de e-commerce, cela veut dire qu’une fois que la livraison est effectuée (produit arrivé chez le client) les données liées cette commande comme les données bancaires, l’adresse ou les noms doivent être supprimées.

La solution technique résidera probablement dans un script s’exécutant à intervalles réguliers qui vérifiera si la condition de suppression des données (dans notre exemple, la validation de la livraison) est remplie et qui les effacera si c’est le cas.

Protection des données dans la GDPR

La GDPR formalise aussi certaines bonnes pratiques liées à la sécurité des données :

  • Chiffrer les communications entre machine (over HTTP avec TLS par exemple)
  • Chiffrer les bases de données ou les disques machines où les données utilisateurs sont stockées (par exemple avec LUKS)
  • Chiffrer vos backups
  • Anonymiser/pseudonimiser les données en tests, de même pour les algorithmes de machine learning (hash + salt les données par exemple)
  • Tenir un journal des modifications de données personnelles, cela sera très utile pour la mise en place des permissions à demander par exemple…
  • Logger les accès aux données privées, attention toutefois à ne pas écrire dans les logs de données personnelles
Ce qu’il ne faut surtout pas faire

Il faut absolument respecter certaines règles pour être conforme aux règles de la GDPR:

Erreurs a ne pas faire

" data-medium-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Erreurs-a-ne-pas-faire.jpg?fit=300%2C200&ssl=1" data-large-file="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Erreurs-a-ne-pas-faire.jpg?fit=700%2C467&ssl=1" src="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Erreurs-a-ne-pas-faire.jpg?resize=300%2C200&ssl=1" alt="Erreurs a ne pas faire" width="300" height="200" srcset="https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Erreurs-a-ne-pas-faire.jpg?resize=300%2C200&ssl=1 300w, https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Erreurs-a-ne-pas-faire.jpg?resize=768%2C512&ssl=1 768w, https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Erreurs-a-ne-pas-faire.jpg?resize=90%2C60&ssl=1 90w, https://i0.wp.com/wodric.com/wp-content/uploads/2018/01/Erreurs-a-ne-pas-faire.jpg?w=900&ssl=1 900w" sizes="(max-width: 300px) 100vw, 300px" data-recalc-dims="1">
Erreurs a ne pas faire
  • Ne jamais utiliser de données utilisateurs sans demander d’autorisation explicite quel que soit l’objectif final (machine learning, publicité, exposition des données via API)
  • Ne pas mettre de données personnelles dans les logs de votre application
  • Ne récupérer les données que si elles sont nécessaires dans vos formulaires (inscription, commande …)
  • Vérifier que les parties tierces respectent également la GDPR, l’application principale est responsable des données transmises à ces tierces parties
  • Être ISO XXXXX ne veut pas dire respecter la GPDR, certes le gros du travail est déjà fait, mais cela n’est pas suffisant
Les sous-traitants ne sont pas responsable de la bonne application de la GDPR

Une action en justice de la CNIL contre Darty à déboucher sur une décision qui fera probablement jurisprudence.

Pour faire simple, Darty passe par un sous-traitant pour la réalisation de son site web, il se trouve que, dans un formulaire de contact, il y a faille de sécurité béante.

La CNIL dépose plainte et Darty rejette toutes les responsabilités sur son sous-traitant. La justice n’est pas de cet avis et déclare Darty responsable avec en prime une amande de 100 000€.

D’une manière générale, une entreprise est responsable de l’ensemble de ces outils informatiques même si ces derniers sont développés et maintenus par un tiers!

Pour finir

Avoir connaissance des grandes lignes de cette nouvelle régulation est important, à plusieurs égards.

Premièrement, vous pourrez en parler à votre responsable et/ou votre client afin de savoir s’il a conscience des changements de régulation à venir et éviter une amende potentielle de plusieurs millions.

Deuxièmement, les obligations de la GPDR vous donnent les grandes lignes pour une mise en place d’une gestion de données sensibles, chose que beaucoup de petites sociétés sont souvent incapables de faire, par manque de compétence, au sein de l’entreprise.

Et enfin pour les utilisateurs, cette réglementation va obliger les entreprises à plus de transparence sous peine de se voir lourdement sanctionnées. Cette transparence permettra à l’utilisateur de reprendre, un peu, le contrôle de ces données. Comme utilisateur, j’ai hâte de voir les effets d’ici quelques mois de cette régulation sur les entreprises qui basent leurs modèles économiques sur l’exploitation des données personnelles (google, facebook et consorts).

Si vous avez apprécié l’article, vous pouvez le partager pour mon plus grand plaisir ;). Et laissez moi un retour sur cet article en attribuant une note (système d’étoiles en dessous de l’article) ou en laissant un commentaire.

Sources :

 

The post GDPR : impact sur l’ensemble de vos développements appeared first on Wodric.

Gravatar de Wodric
Original post of Wodric.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Spip, un exemple pour le logiciel libre ?

Petit rappel sur Spip

Comme indiqué sur le site du logiciel, SPIP est un système de publication pour l'Internet qui s'attache particulièrement au fonctionnement collectif, au multilinguisme et à la facilité d'emploi. C'est un logiciel libre, distribué sous la licence GNU/GPL. Avec les années, SPIP a grandement évolué mais à toujours garder deux de ses spécificités : sa modularité et extensibilité via tout un écosystème de plugins et son systèmes de templates (les fameux squelettes).

Pourquoi Spip ?

Les premières version de SPIP sont sortie en 2001. Pour information, Dotclear qui était le moteur de référence avec l'avènement des blogs est sorti en 2002, Wodpress, est sorti en 2003. Lorsque j'ai commencé l'informatique, il y a 14 ans, je devais faire un Intranet pour une PME, c'était mon sujet de stage de fin d'année. Ma professeur de TD, libriste convaincue, m'avait conseillé d'utiliser SPIP. Et j'ai donc découvert SPIP à ce moment là ; je l'ai utilisé pour ce qui allait devenir ce blog, et pour différents sites que j'ai fait par la suite. Et je suis resté fidèle à ce logiciel.

Pourquoi est-ce un exemple pour le logiciel libre ?

Je suis donc sous Spip depuis 2004 et depuis le début, je fais le suivi des montées en version. Par montée de version, je parle de la mise à jour vers des versions correctives et de mises à jour (corrections de bugs) et vers des versions majeures (avec ajout de fonctionnalités, modifications de la base de données). Au cours de toutes ces migrations, Je n'ai jamais eu de soucis. J'ai toujours testé sur un site de test, copie / miroir de mon blog pour anticiper les problèmes qu'il pourrait y avoir (plugin non compatible...).

Toutes ces montées en version, qu'elles soient mineures ou majeures se sont déroulées sans soucis.

Chaque nouvelle version mineure apporte son lot de corrections de bugs et de faille de sécurité, chaque version majeur est plus riche en fonctionnalité, mais n'a pas forcément plus de complexité. La logique et les interfaces restent les mêmes, évoluent, se modernisent un peu, mais sans grand bouleversement, on reste dans la continuité.

Spip possède tout un écosystème de plugin. Je n'utilise pas énormément de plugins et tout ceux que j'utilise sont rapidement rendus compatibles par la communauté. La communauté est petite, ne fait pas de bruit, mais est belle et bien là.

Spip est documenter, bien documenter et en français https://programmer.spip.net/ tant pour le système SPIP en lui-même que pour les plugins...

Autant de critères qui en font un logiciel de qualité et de référence pour moi.

Une communauté bien présente ?

En un temps où les réseaux sociaux se sont depuis bien longtemps accaparé le temps de disponibilité des gens, le forum est encore actif avec des messages publiés les jours précédents et même quelques minutes avant au moment de la rédaction du présent billet de blog.

On a un message toutes les quelques semaines sur le blog officiel de SPIP Blog.spip.net

Et le code source (logiciel libre oblige), évolue lentement mais sûrement avec des commits réguliers comme en atteste le dépôt https://core.spip.net/projects/spip/repository

Conclusion

Spip, c'est une petite communauté, le logiciel ne fait pas grand bruit, mais reste efficace. Et par le présent billet, je voulais remercier toutes ces personnes qui ont participé ponctuellement ou qui œuvrent pour SPIP au quotidien.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Angristan : Monitorer son serveur Linux avec Munin

Monitorer son serveur Linux avec Munin

Voilà un tutoriel que j'avais envie de faire depuis longtemps ! En effet Munin est un outil que j'utilise depuis plusieurs années, et je n'ai jamais pris le temps de faire un article malgré toutes les demandes que j'ai eues. Pourtant, c'est super simple à installer et à configurer !

Comment fonctionne Munin ?

Munin est un outil de monitoring écrit en Perl et maintenu depuis 2003.

Munin est composé en deux services : munin-master qui va récupérer les données sur un ou plusieurs munin-node à intervalles réguliers (5 minutes). Ensuite munin-node génère des graphiques et des alertes si besoin.

Nous allons donc avoir besoin d'un serveur sur lequel installer le master, et ensuite nous allons installer les node sur les serveurs à monitorer.

Ensuite pour voir les graphiques, c'est super simple : munin génère des pages HTML et des graphiques sur forme d'image toutes les 5 minutes. Il suffit donc de faire pointer son serveur web sur le bon dossier, et c'est bon.

Pour vous faire une idée d'à quoi ressemble Munin, voici mon Munin public pour mon instance Mastodon. La prochaine version a l'air jolie !

Monitorer son serveur Linux avec Munin

Installation de munin-node

Commençons par installer les node sur les serveurs que l'on souhaite monitorer.

Sur Debian et Ubuntu, on installe les paquets suivants avec APT :

apt install munin-node munin-plugins-extra

Un fois que c'est fait, on va pouvoir ajouter des plugins : chaque plugin va récolter des données différentes.

Ajout de plugins

Pour visualiser les plugins présents, on peut utiliser la commande munin-node-configure :

Monitorer son serveur Linux avec Munin

Pour voir les plugins activés :

Monitorer son serveur Linux avec Munin

Pour avoir une suggestion de plugins activables :

Monitorer son serveur Linux avec Munin

Nos plugins sont des scripts Perl qui se trouvent dans /usr/share/munin/plugins, et ceux activés dans /etc/munin/plugins. Pour les activer il suffit de faire un lien symbolique entre les 2.

cd /etc/munin/plugins ln -s /usr/share/munin/plugins/cpu . ln -s /usr/share/munin/plugins/load .

Attention certains plugins prennent leur nom en paramètre, ici pour l'interface réseau :

ln -s /usr/share/munin/plugins/if_ if_eth0

Ce qui est chouette avec munin c'est qu'il y a beaucoup de plugins de disponibles par défaut, et encore plus dans le dépôt munin-contrib !

Autoriser un master

Munin communique par défaut sur le port 4949, n'oubliez pas de l'ouvrir si besoin.

Par défaut, Munin autorise localhost à récupérer les données. Pour autoriser notre master distant, on ajoute son IP dans /etc/munin/munin-node.conf :

allow ^123\\.123\\.123\\.123$ allow ^2001:db8:a0b:12f0::1$ Appliquer les changements

On redémarre le service pour qu'il prenne en compte nos nouveaux changements :

service munin-node restart Installation du maitre

C'est bien beau d'installer des nodes, mais il faut bien les récolter ces données !

On installe le grand maître :

apt-get install munin

Il a dans ses dépendances munin-node, donc il se monitore tout seul par défaut.

Pour prendre en compte les changements, on redémarre le même service :

service munin-node restart

Pour le configurer, la documentation est votre meilleure amie, mais clairement l'avantage de Munin c'est qu'il n'a pas grand chose à faire.

Ajout d'un node

Dans /etc/munin/munin.conf on remarque que par défaut, munin monitor le localhost :

# a simple host tree [localhost.localdomain] address 127.0.0.1 use_node_name yes

Vous pouvez remplacer localhost.localdomain par le FQDN de votre machine. Avec use_node_name yes c'est lui qui apparaîtra dans l'interface web.

Ensuite pour ajouter d'autres nodes à monitorer c'est facile, par exemple :

[lyra.angristan.xyz] address 123.123.123.123 use_node_name yes Accès à l'interface web

Là encore, on peut difficilement faire plus simple : Munin génère des pages HTML toutes les 5 minutes dans /var/cache/munin/www. Il suffit donc de faire pointer le vhost de son serveur web sur ce dossier.

Je ne vous met pas toute la marche à suivre parce que c'est basique et que ça se trouve partout. Personnellement j'ai aussi ajouté une authentification HTTP.

On peut aussi utiliser des thèmes !

Debug

Jetez un oeil au dossier /var/log/munin/. Le log /var/log/munin/munin-update.log est le plus intéressant si vous avez des soucis de plugins ou de données qui remontent pas.

Aussi, hyper pratique, pour exécuter un plugin à la main :

cd /etc/munin/plugins  root@server /e/m/plugins# munin-run memory slab.value 1528418304 swap_cache.value 0 page_tables.value 50163712 vmalloc_used.value 0 apps.value 1784778752 free.value 11720085504 buffers.value 1359192064 cached.value 17193353216 swap.value 0 committed.value 9598087168 mapped.value 238342144 active.value 14043992064 inactive.value 6173065216 Notifications par mail

On peut configurer Munin pour qu'il envoie des alertes au dessus de certain seuils.

Tout d'abord il faut avoir un relais SMTP fonctionnel :

apt install exim4

(Si l'envoi de mail avec la commande mail ne fonctionne pas, essayez un dpkg-reconfigure exim4)

Ensuite dans /etc/munin/munin.conf on paramètre la commande et le contact :

contact.angristan.command /usr/bin/mail -s "Munin Alert - ${var:host}" user@mail.tld contact.angristan.always_send warning critical

La première ligne est la commande que Munin va utiliser pour envoyer les mails, avec l'adresse à la fin, et la seconde signifie que l'on va utilise le contact "angristan" définit au dessus pour les alertes de type warning et critical.

Ensuite on définit nos seuils par plugin et par hôte, par exemple :

[lyra.angristan.xyz]     address 123.123.123.123     use_node_name yes load.load.warning 2 load.load.warning 4 cpu.user.warning 20000000 cpu.user.critical 50000000

C'est de la forme nomduplugin.sonde valeur (à déterminer avec munin-run)

Une notification ressemble à ça :

Alerte mail Munin

Attention il ne gère pas les changements d'états et va vous envoyer des mails toutes les 5 minutes tant que la ou les sondes en question sont en warning ou critical.

Enjoy !

Alors, heureux ? Munin se fait un peu vieux et n'est pas très adapté pour une petite échelle de temps, mais au moins c'est léger et c'est chouette pour avoir un historique. Moi j'adore, et je compte pas l'enlever de mes serveurs avant un petit moment !

L'article Monitorer son serveur Linux avec Munin a été publié sur Angristan

Gravatar de Angristan
Original post of Angristan.Votez pour ce billet sur Planet Libre.

Articles similaires

RaspbianFrance : Lancement de la Raspberry Pi Zéro WH, comme la zéro les GPIO en plus.

Si vous êtes un habitué de la Raspberry Pi, vous connaissez sans doute la Raspberry Pi Zéro W, une Raspberry Pi certes moins puissante, mais plus petite, moins chère et plus économe en énergie que sa grande sœur la Raspberry Pi 3.

Et bien la fondation Raspberry Pi a annoncé il y a peu une petite mise à jour sur ce modèle très intéressant pour les férus d’embarqué, de domotique ou de robotique. Cette nouvelle version se nommera donc Raspberry Pi Zéro WH, W signifiant toujours « Wireless » et H signifiant lui « Header ».

Cette nouvelle Raspberry Pi Zéro sera commercialisée aux alentours de 15$, donc probablement de 15€ en France. Vous pouvez dès à présent la commander ici chez Kubii.fr

Consulter le prix chez Kubii.fr Qu’est-ce qui change par rapport à la Raspberry Pi Zéro W ?

Si vous avez déjà eu l’occasion d’acheter une Raspberry Pi Zéro, ou si vous avez lu notre article dédié à la Raspberry Pi Zéro W, alors vous savez que celle-ci est livrée sans ports GPIO. Pour être plus précis, elle est livrée avec des ports GPIO, mais que vous devrez souder vous même !

La fondation annonce une nouvelle Raspberry Pi Zéro W

Sur cette image vous pouvez voir que la Raspberry Pi Zéro W dispose d’emplacements pour les GPIO sur la partie droite, mais qu’aucun picot ne dépasse. En effet, vous devez souder ceux-ci vous même.

Vous l’aurez donc deviné, la différence entre ces deux modèles est donc la présence de ports GPIO soudés sur la Raspberry Pi Zéro WH.

Conséquences : La Raspberry Pi Zéro WH est plus épaisse que la Raspberry Pi Zéro W sans GPIO et donc moins flexible que la Raspberry Pi Zéro W. En contrepartie, elle est plus adaptée pour les débutants, les écoles, etc.

Par ailleurs, sur le papier elle est aussi un petit peu plus chère que la Raspberry Pi Zéro W (comptez 5€ de plus à priori).

Est-il possible d’acheter une Raspberry Pi Zéro WH, y a-t-il des stocks ?

Quand l’on parle de Raspberry Pi Zéro, W, pas W, H ou pas H, pour les habitués la vraie question est la suivante : Quels seront les stocks ? En effet, pour tous les modèles Zéro précédents, si les prix sont très attractifs, il est généralement si difficile de trouver des stocks que la demande surpasse très fortement l’offre, entraînant une énorme montée des prix.

Pour l’instant, il semblerait que la Raspberry Pi Zéro WH se vende bien aux alentours de 15€, et Kubii.fr nous a confirmé que les stocks sont remplis (plusieurs milliers de produits) et qu’il n’y a aucune limite sur le nombre de produits lors de la commande. À priori le Pi Zéro WH semble donc très bien parti niveau disponibilité !

Dans tous les cas, les stocks sont pour l’instant bel et bien disponibles, et vous pouvez achetez une Pi Zéro WH sur leur site en cliquant ici.

La Raspberry Pi Zéro WH vaut elle le coup ?

Pour finir, en voyant l’annonce de cette sortie, nous nous sommes posé la question de savoir si la Raspberry Pi Zéro WH valait ou non le coup.

Honnêtement, nous n’avons pas de réponse définitive à cette question. À notre sens, la Raspberry Pi Zéro WH devient intéressante dans deux ou trois situations :

  • Vous ne savez pas souder et ne voulez pas prendre de risque
  • Vous devez utiliser une dizaine de Raspberry Pi Zéro W, vous aurez besoin de GPIO, et vous voulez gagner du temps
  • La Raspberry Pi W n’est pas disponible

Si vous êtes dans l’une de ces trois situations, nous pensons que la Raspberry Pi Zéro WH est intéressante. Sinon, nous vous conseillerions plutôt de prendre une Raspberry Pi Zéro W normale, d’acheter un fer à souder (parce que ça vous sera forcément utile si vous voulez bidouiller avec de l’électronique), et de souder vous mêmes les GPIO ! Honnêtement, ce n’est pas très compliqué.

Cet article Lancement de la Raspberry Pi Zéro WH, comme la zéro les GPIO en plus. est apparu en premier sur Raspbian-France.

Gravatar de RaspbianFrance
Original post of RaspbianFrance.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Syspatch : Patch n°4 disponible pour OpenBSD 6.2

OpenBSD nous informe hier d'un correctif pour la libSSL, corrigeant une erreur dans l'échange des données TLS, s'il n'y a pas d'extension, ce qui génère de mauvais bloc d'extension TLS.

Architectures concernées : amd64, arm64, i386

OS Version concernée : 6.2 seulement !

----

# syspatch
Get/Verify syspatch62-004_libssl.tgz 100% |***************************************************************************************************************************|  2515 KB    00:14    
Installing patch 004_libssl

----

Mieux vaut redémarrer votre machine informatique, ensuite...

 

 

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Journal du hacker : Liens intéressants Journal du hacker semaine #2

Pour la seconde semaine de l'année 2018, voici 10 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

wilfried caruel : Présentation de « LollyPop » lecteur de musique

Présentation LollyPop

 

Bonjour la communauté libriste.

Je n’écris pas beaucoup en ce moment (on est loin des 2 articles par semaine au tout début de cette aventure).

Je vais vous parler d’un sujet que je ne maîtrise pas , la musique (j’écoute plus de musique depuis plusieurs mois).

Je vais vous parler du lecteur de musique « LollyPop ».

Ce lecteur est à la base pour l’environnement de bureau (gnome) qu’on ne présente plus, mais si vous n’avez pas ce (DE)( vous pouvez l’installer et l’utiliser sans problème, c’est juste il me semble une question d’intégration).

Ce logiciel disponible sur gnu/linux

il est disponible pour certaines distributions officiellement comme :

  • Fedora
  • ArchLinux
  • Ubuntu
  • Flatpak
  • Opensuse
  • Freebsd

Autant dire qu’il est accessible facilement par une grande partie de la communauté.

Ce logiciel est disponible sous la licence très connue (GPLv3).

Concernant les fonctionnalités elles sont nombreuses.
  • mp3/4, ogg and flac.
  • Genre/Cover browsing
  • Genre/Artist/Cover browsing
  • Search
  • Main playlist (called queue in other apps)
  • Party mode
  • Replay gain
  • Cover art downloader
  • Context artist view
  • MTP sync
  • Fullscreen view
  • Radios support
  • Last.fm support
  • Auto install codecs
  • HiDPI support
  • Tunein support

Ce logiciel a été créé par « Cédric Bellegarde »

La vidéo

Mon avis :

Même si je m’en sers très peu (au moins pour le présenter et faire la vidéo) avec son design qui rafraîchi notre écran , le mode soirée qui semble pas mal (vous permet de filtrer pour que tel album ou style ne passe pas).

Par contre au premier abord le logiciel est assez déroutant peut- être car il est épuré (le principal des boutons est en haut alors que la plupart des logiciels de musique c’est en bas).

Le fait que ça permette d’écouter la radio (régionale ou nationale) c’est une bonne intégration,

par contre, je ne  connais pas ce genre de chose mais on peut utiliser une clé api google , je sais pas si il y a des alternatives open source (d’après ce qui est renseigné c’est pour chercher les jaquettes des albums).

Par contre pour moi soit c’est la clé api qui est déjà limitée ou alors c’est le style de musique qui est pas courant pour Google (la musique japonaise).

Pas grave pour l’utilité que j’en ai.

Pour conclure je dirais que j’aime bien son interface , mais que je m’occupe pas des tags alors je sais que dans un lecteur de musique c’est primordial.

Allez- vous l’installer ou l’utiliser ? Ou si c’est déjà fait , n’hésitez pas à prendre la parole dans les commentaires.

 

Installation :

ArchLinux
yaourt -S lollypop

Liens :

Site officiel

Gravatar de wilfried caruel
Original post of wilfried caruel.Votez pour ce billet sur Planet Libre.

Articles similaires

blog-libre : Danse avec les reboots

A l’occasion des failles Spectre et Meltdown, des millions de serveurs vont être redémarrés. On m’a demandé à mon boulot, pourquoi certains serveurs rebootaient en 40s et d’autres en plus de 100s ?

Extinction puis démarrage

Un redémarrage (reboot) est composé de deux phases : l’extinction (shutdown) et le démarrage (boot). Peu de gens s’intéressent à l’extinction de leur pc, normal on arrête de l’utiliser. En revanche le temps de redémarrage d’un serveur est important, plus il sera long, plus longue sera la période d’indisponibilité des services fournis. Pour moi 60s c’est que dalle mais sur un serveur mutualisé avec disons 100 clients dessus, c’est 100 clients qui seront impactés pendant 1 minute. Cette minute devient très importante.

Pour réduire le temps de redémarrage, kexec (1, 2, 3) est l’outil le plus utilisé. Chez Ubuntu il y a Canonical Livepatch qui peut éviter d’avoir à redémarrer. Le démarrage est la partie visible de l’iceberg et la plus « simple ». On a en effet une session, nos outils, des logs, on peut déboguer. La base sera de jouer avec journalctl, dmesg -T | grep quelquechose, un petit journalctl -p err vous mettra sûrement sur la voie.

Déboguer l’extinction sera plus difficile. Le système s’éteint, on n’a plus de connexion réseau, pas la main sur un quelconque outil et ça dure une poignée de secondes. Pour « voir » une extinction, il faut avoir un écran branché sur le serveur ou utiliser certains outils basés sur IPMI (ipmitool), Dell iDRAC, HP iLO, KVM over IP. Évidemment c’est un peu mieux puisqu’on « voit » quelque chose cependant ça va très (trop) vite. Avec un peu de chance vous verrez « A stop job is running for… » mais on doit trouver plus exploitable.

journalctl

Si vous faites journalctl, vous afficherez les logs depuis le démarrage mais comment avoir les logs de l’extinction ? Dans un article précédent, j’avais souligné un choix par défaut discutable dans /etc/systemd/journald.conf. Faites un petit man journald.conf.

Storage= Controls where to store journal data. One of "volatile", "persistent", "auto" and "none". If "volatile", journal log data will be stored only in memory, i.e. below the /run/log/journal hierarchy (which is created if needed). If "persistent", data will be stored preferably on disk, i.e. below the /var/log/journal hierarchy (which is created if needed), with a fallback to /run/log/journal (which is created if needed), during early boot and if the disk is not writable. "auto" is similar to "persistent" but the directory /var/log/journal is not created if needed, so that its existence controls where log data goes. "none" turns off all storage, all log data received will be dropped. Forwarding to other targets, such as the console, the kernel log buffer, or a syslog socket will still work however. Defaults to "auto".

Par défaut Storage=auto, le journal est stocké dans /run/log/journal qui est perdu à chaque extinction puisque /run est un système de fichier temporaire (tmpfs). On a deux solutions pour avoir des logs de l’extinction, mettre Storage=persistent dans /etc/systemd/journald.conf ou simplement créer le dossier /var/log/journal (« so that its existence controls where log data goes », si /var/log/journal existe les logs seront envoyés dedans). Afin que la modification soit prise en compte sans rebooter (ha ha ha), on aura éventuellement besoin de faire systemctl restart systemd-journald. Faites journalctl --list-boots pour afficher les derniers boots, vous n’en aurez qu’un seul (le dernier). Maintenant si vous redémarrez votre pc/serveur puis que vous refaites journalctl --list-boots, vous en aurez deux. On va pouvoir regarder les logs de la précédente extinction ;)

journalctl -p err sera encore utile mais perso je préfère journalctl -b -1 -n250 | grep 'timed out' # ou grep 'kill'. Cette seconde commande affiche les 250 dernières lignes (-n250) des logs du précédent boot (-b -1). C’est ainsi que j’ai trouvé mon fautif, j’ai confirmé en désactivant et stoppant le service systemctl disable --now servicerelou puis en rebootant : 40 secondes au lieu de 100.

Allons plus loin

Tout d’abord pour mieux comprendre journald, man systemd-journald. On y trouvera notamment une explication plus claire du point précédent : « By default, the journal stores log data in /run/log/journal/. Since /run/ is volatile, log data is lost at reboot. To make the data persistent, it is sufficient to create /var/log/journal/ where systemd-journald will then store the data ».

A noter que le Storage=auto fait actuellement débat, Ubuntu est revenu dessus, les arguments avancés sont très intéressants à lire.

Si /var/log/journal existe ou si vous passez Storage=persistent, attention cela signifie que vous allez avoir rsyslog qui fera son boulot ET journald. Perso je crée le dossier /var/log/journal au besoin et une fois que j’ai fini de déboguer, je le supprime.

DefaultTimeoutStartSec et DefaultTimeoutStopSec

J’ai trouvé le service responsable mais j’ai dû déboguer, je n’ai évidemment pas fait cela sur des serveurs en prod. Peut-on réduire le temps de reboot en se passant de la phase de recherche/debug ?

Déjà afin de connaître le temps d’arrêt et de démarrage d’un service, on peut utiliser time systemctl stop servicerelou et time systemctl start servicerelou.

Je vous invite maintenant à lire ceci. Les options DefaultTimeoutStartSec= et DefaultTimeoutStopSec= permettent d’influer sur le timeout par défaut du démarrage/arrêt d’un service. Si vous modifiez ces valeurs dans le fichier /etc/systemd/system.conf, c’est le timeout par défaut de tous les services que vous modifiez.

Concrètement systemd attend 90s (par défaut) qu’un service s’arrête (stop), si au bout de ces 90s il n’est pas arrêté il va le tuer (kill). On comprend dès lors que si on met DefaultTimeoutStopSec=30s, systemd n’attendra au maximum que 30 secondes avant de tuer le service nous économisant de précieuses secondes. On peut donc au choix surcharger servicerelou (à l’aide des drop-ins) ou modifier le timeout par défaut pour tous les services (via /etc/systemd/system.conf).

Attention cependant ! Tuer un service peut provoquer une perte de données. Si votre service postgresql est éléphantesque, qu’il a besoin de 43 secondes pour s’arrêter et que vous avez mis DefaultTimeoutStopSec=30s, il sera tué au bout de 30s.

On en vient à se demander si la valeur par défaut (90s) est pertinente, est-elle juste ? Chacun se fera sa propre idée, on pourrait considérer qu’un service qui ne s’arrête pas en 60s ne s’arrêtera probablement pas davantage en 90s.

On peut ruser ainsi en mettant DefaultTimeoutStopSec=60s dans /etc/systemd/system.conf suivi d’un systemctl daemon-reexec, redémarrer le serveur puis remettre DefaultTimeoutStopSec=90s suivi d’un systemctl daemon-reexec. On sera d’accord pour dire que ce n’est pas propre mais les contraintes de la prod obligent parfois à utiliser des « trucs » et des rustines pour arrondir les angles.

Conclusion

Voilà c’est ce genre de « détails » que je traite dans mon nouveau job, vous aimez ?

Et puisqu’on parle de Spectre et Meltdown, OVH décrit sur cette page la disponibilité des patchs par système d’exploitation, un lien pratique mais aussi intéressant. Pour Windows Server 2008 et 2012, il faut upgrade to Windows Server 2008/2012 R2. Il y en a qui doivent l’avoir très mauvaise, il faut racheter des licences et migrer vers une autre version lol. Ça permet aussi de suivre les plus impactés et les plus rapides à patcher, par exemple Windows Server 2016 et SUSE Linux Enterprise Server sont intégralement patchés mais Debian n’a pour l’instant patché qu’une CVE sur 3.

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

blog-libre : Mieux utiliser la barre d’adresse de Firefox

Récemment j’ai fait un point sur mon workflow avec Firefox, voici les raccourcis clavier que je juge intéressant :
Ctrl+w : Fermer l’onglet
Ctrl+t : Ouvrir un nouvel onglet
Ctrl+k : Mettre au point sur la barre de recherche
Ctrl+l (ou Alt+d) : Mettre au point sur la barre d’adresse
Ctrl+d : Marquer cette page
Alt+flèche gauche : Page précédente
Ctrl+Tab : Onglet suivant
Ctrl+Shift+Tab : Onglet précédent

Je me suis mis un peu à Ctrl+k, rapidement remplacé par Ctrl+l que j’utilise maintenant constamment. Pour rappel on peut changer les résultats à la volée de la barre d’adresse :
^ pour rechercher des correspondances dans votre historique de navigation
* pour rechercher des correspondances dans vos marque-pages
+ pour rechercher des correspondances dans les pages que vous avez étiquetées
% pour rechercher des correspondances dans les onglets actuellement ouverts
~ pour rechercher des correspondances dans les pages que vous avez saisies
# pour rechercher des correspondances dans les titres de page
@ pour rechercher des correspondances dans les adresses web (URL)
$ pour rechercher des correspondances dans les suggestions de recherche

* jdh cherchera jdh dans mes marque-pages. Il est possible de combiner certains de ces filtres, par exemple : ^ # app. Perso j’utilise surtout * (marque-pages) et ^ (historique).

Il faut savoir que la barre d’adresse est capable d’afficher des résultats d’après l’historique, les marque-pages, les onglets ouverts et de proposer de faire une recherche avec votre moteur de recherche par défaut. On peut paramétrer la barre d’adresse afin qu’elle propose moins de choses. Dans Préférences, Vie privée et sécurité, Barre d’adresse, j’ai pour ma part décoché Onglets ouverts. J’ai aussi décoché Afficher les suggestions de recherche parmi les résultats de la barre d’adresse dans Préférences, Recherche, Moteur de recherche par défaut. Ces deux paramétrages me permettent surtout de « nettoyer » les résultats (meilleure lisibilité) que je peux avoir via la barre d’adresse afin d’être plus efficace/rapide.

Maintenant je vais sur https://www.journalduhacker.net/newest, je marque cette page (Ctrl+d) et je la nomme Jdh. Je vais sur https://www.cic.fr/fr/banques/particuliers/index.html, je marque cette page et je la nomme CIC. Je vais sur http://www.allocine.fr/seance/salle_gen_csalle=B1139.html, je marque cette page et je la nomme Carré Sénart. En gros je crée une liste des pages où je vais régulièrement, mes favoris (évidemment la majorité concerne le boulot).

A présent Ctrl+l (je mets au point sur la barre d’adresse), je tape car (j’ai mon favori Carré Sénart qui s’affiche dans la barre d’adresse), je fais Tab (je le sélectionne), je fais Entrée (je me retrouve sur http://www.allocine.fr/seance/salle_gen_csalle=B1139.html).

Ce petit changement de workflow me fait gagner un temps prodigieux. Auparavant je passais quasi-systématiquement par une recherche dans un moteur de recherche, suivi de plusieurs clics sur le site pour arriver où je souhaitais. J’ai également ouvert un compte Sync (Préférences, Compte Firefox), je synchronise ainsi Marque-pages et Préférences entre mes différents pc.

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Miamondo : Linux, pour sortir de l’obsolescence programmée !

Cet article du collectif Emmabuntüs est également publié dans le journal l’âge de faire

 

Linux est un système d‘exploitation libre qui permet de sortir de la dépendance à Windows et Apple. À partir de ce « noyau » libre, ont été développées de multiples distributions GNU/Linux, dont certaines sont très faciles à installer et à utiliser (voir notre chronique du mois dernier). Utiliser une distribution GNU/Linux, ce n’est pas seulement utiliser un « commun » et sortir des logiciels propriétaires, c’est aussi permettre à son matériel informatique de vivre plus longtemps, en sortant de l’obsolescence programmée par les grandes firmes. Votre ordinateur ne s’alourdira pas démesurément à chaque mise à jour, il ira plus vite, pas besoin de le changer, de remplacer les périphériques…

Et de fait, les avantages de Linux par rapport à Windows sont nombreux au quotidien. En voici une liste non exhaustive :

  • Prise en charge de périphériques anciens (imprimantes, etc.) qui ne sont plus supportés par les versions récentes de Windows (grâce à l’intégration dans le noyau Linux d’une multitude de pilotes) ;

  • Moindre consommation de mémoire RAM, grâce à des environnements graphiques plus légers ;

  • Moindre utilisation du disque dur, environ 10 Go, contre 20-25 Go pour Windows 7 ;

  • Faible à très faible sensibilité aux virus : pas besoin d’antivirus, donc gain en ressources du processeur ;

  • Durées de démarrage et d’arrêt constantes dans le temps ;

  • Mises à jour des logiciels plus simples, et sur lesquelles l’utilisateur garde le contrôle (quand, quoi, etc.) ;

  • Pas de migration de version sans votre consentement, comme le fait Windows pour générer de l’obsolescence programmée tous les 3 ans ;

  • Des bugs existent aussi sous Linux. Mais les codes (la recette du logiciel) étant accessibles à tous, cela permet une analyse par tous, et non pas seulement de l’éditeur, qui pourrait avoir la tentation de « contrôler » les failles ;

  • Possibilité de tester les distributions Linux sans avoir besoin de les installer sur votre disque dur. Cela s’appelle l’essai en mode « live ».

Grâce à toutes ces qualités, Linux fait fonctionner des ordinateurs DualCore de 10 ans sur des versions récentes et maintenues jusqu’en 2022 ! C’est vraisemblablement le matériel qui cessera de fonctionner avant la version de Linux !

Pour prolonger votre lecture, voir :

Le mois prochain :« Pour passer au Libre, faites appel à des ami.e.s dans le monde réel !».

Collectif EmmabuntüsGPL V3

Affiche : Conception ThierryMC pour LAC-Chablais CC BY-NC-ND, pictogrammes par différents auteurs de Flaticon

Gravatar de Miamondo
Original post of Miamondo.Votez pour ce billet sur Planet Libre.

Carl Chenet : LinuxJobs.fr : les chiffres de décembre et de 2017

Quels sont les principaux chiffres de LinuxJobs.fr, le site d’emploi de la communauté du Logiciel Libre et Open Source pour décembre et plus globalement de 2017 ?

Les chiffres de décembre 2017

Afin de tenir au courant notre communauté des évolutions de LinuxJobs.fr, nous présentons les principaux indicateurs du mois précédent et les objectifs pour le mois en cours (et ceux à venir).

Revenus et annonces

Ce mois de décembre a été un petit mois pour LinuxJobs.fr, l’activité s’arrête en effet brusquement dans la 3ème semaine du mois. Seules 9 nouvelles offres ont été postées ce mois-ci pour un gain total de 278€.

Réseaux sociaux

LinuxJobs.fr est présent sur 3 réseaux sociaux :

Mastodon et l’intérêt des Mastonautes pour LinuxJobs.fr a été la bonne surprise de ces derniers mois. Le compte Twitter quant à lui continue à se développer régulièrement.

Les chiffres de 2017

Plus globalement, nous présentons les différents chiffres de LinuxJobs.fr pour l’année 2017, classés selon les revenus par mois, le nombre d’annonces par mois, le gain moyen par mois ainsi que le nombre d’offres moyens par mois

Revenus par mois en 2017

Pour rappel comme j’avais précisé dans mon dernier billet sur le sujet, LinuxJobs.fr n’est devenu payant qu’en février 2017. Le prochain graphique détaille les gains par mois sur l’année 2017.

Nombre d’annonces par mois en 2017

Le prochain graphique indique le nombre d’annonces publiées en 2017. Les recruteurs pouvant supprimer leurs annonces, il s’agit de chiffres approximatifs mais qui donnent une idée du nombre d’annonces publiées par mois.

Moyennes des revenus et des annonces pour 2017

La moyenne des revenus pour 2017 s’établit donc à 442€ pour mois. Le nombre moyen des offres d’emploi postées est donc de 23.

Directions pour janvier 2017

Notre principal objectif pour janvier 2017 et pour les mois suivants : continuer à faire connaître LinuxJobs.fr, à la fois aux professionnels du Logiciel Libre en France, mais aussi aux recruteurs du secteur. Le petit mois de décembre doit pousser à penser que rien n’est gagné et à continuer à travailler dur.

Nous tenons aussi à nous affirmer comme un membre à part entière de la communauté du Logiciel Libre, en communiquant sans langue de bois sur les différents éléments relatifs à l’activité de LinuxJobs.fr.

Me suivre sur les réseaux sociaux

N’hésitez pas à me suivre directement sur les différents sociaux pour suivre au jour le jour mes différentes projets dans le Logiciel Libre dont LinuxJobs.fr :

 

 

Gravatar de Carl Chenet
Original post of Carl Chenet.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Sauvegarder simplement avec Ubuntu ?

Dans le cadre des sauvegardes, il y a la théorie et les bonnes pratiques... A ce sujet Sauvegarde la règle des 3-2-1 et Qu'est ce que je dois sauvegarder ? Mais généralement les sauvegardes, on sait qu'il faut les faire, on remet toujours ça à plus tard...

Il y a des solutions techniques, efficaces, mais complexes, du script utilisant Grsync à des solutions comme Borg en passant par des BackupPC... Pour le code, il y a les serveurs Git...

Dans le présent article, je voudrais parler d'une solution simple de sauvegarde de document bureautique. Je travaille assez régulièrement à la rédaction de document bureautique (de type documentation à livrer à un client). Et pour faire mes sauvegardes (je travaille sous Ubuntu d'où le titre), j'ai deux façons de faire.

Nextcloud, uns solution simple

J'ai un dossier "De travail" synchronisé avec un Nextcloud. Et je m'efforce de faire tout le travail de rédaction (les documents en cours d'écriture et de modification) dans ce dossier. Ce système de synchronisation n'est pas vraiment une sauvegarde, mais c'est mieux que rien car cela permet d'avoir un double du document et si l'option est bien activée sur le serveur, d'avoir différentes versions du document archivées (on a un historique des versions antérieures). Toutefois cette solution a pour inconvénient de solliciter le réseau à chaque enregistrement du (des) fichiers et on se repose alors sur la confiance que l'on a dans le serveur Nextcloud et les sauvegardes qui en sont faites.

L'outil de sauvegarde intégré dans Ubuntu

Ubuntu est fournie par défaut avec un outil de sauvegarde. Il suffit de chercher "Sauvegarde" tout simplement pour lancer le logiciel. Je dispose d'un disque dur externe que je branche régulièrement et c'est sur ce dernier que sont alors faites les sauvegardes.

Ce logiciel, appelé Deja Dup, a l'avantage d'être assez paramétrable, mais de façon simple :
- dossier à sauvegarder, dossier à ignorer
- sauvegarde tous les jours ou toutes les semaines,
- durée de conservation : 6 mois, un an, indéfiniment...

L'espace disque disponible est pris en compte, on peut protéger les données par un mot de passe (à utiliser pour la restauration des données. Et attention à ne pas oublier ce mot de passe sinon on ne peut plus récupérer ses sauvegardes).

Restauration ?

Sauvegarder, c'est bien. Mais il faut toujours tester les restorations des sauvegardes. Car une bonne sauvegarde est une sauvegarde que l'on peut restaurer. Restaurer ? C'est une autre façon de dire "récupérer des données sauvegardées". Voir à ce sujet Sauvegarde et restauration

Ayant supprimé par mégarde un fichier, j'ai donc eu avoir recours à ma sauvegarde et valider que cet outil faisait bien les restauration de façon correcte.

On appuie sur le bouton, on définie la date, le dossier où rétablir la sauvegarde (le dossier d'origine ou un autre dossier), le mot de passe. On restaure tout le contenu de la dernière sauvegarde. Il faut donc le faire dans un dossier dédié si on ne veut récupérer qu'un fichier et non l'état du dossier sauvegardé à un instant donnée (celui de la sauvegarde). Et c'est là une des limites de cette solution : on ne peut pas restaurer un seul fichier ; on doit restaurer tout une sauvegarde. Pas très pratique. Mais c'est déjà mieux que pas de sauvegarde du tout.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Pages