Planet Libre

Miamondo : Distro à jour, distro toujours!

Introduction Le programme de mise à jour Les difficultés rencontrées avec crontab et systemd.timer L'astuce pour contourner le problème Le code Conclusion Introduction Bonjour, Il y a quelques jours, j'ai regardé une vidéo d'Adrien Linuxtricks expliquant que la distribution Linux Mint présentait l'inconvénient de ne jamais rappeler à l'utilisateur lambada qu'il était temps de faire [...]

Gravatar de Miamondo
Original post of Miamondo.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #20

Pour la 20ème semaine de l'année 2019, voici 10 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Apports de Fedora à l'écosystème du Logiciel Libre partie 2

Il est courant, au sein de la communauté du Logiciel Libre, de présenter une distribution GNU/Linux comme une simple intégration, ou un assemblage de tous les logiciels qu'elle propose. Une sorte de glu entre eux.

Si c'est sans doute le cas de certaines d'entre elles, nous ne pouvons en conclure que c'est toujours le cas. En particulier, la distribution Fedora va au delà de ce constat. Ses objectifs et sa communauté lui permettent de réaliser d'autres choses. En effet depuis sa création Fedora est une vitrine technologique et à ce titre a essayé de mettre en avant ou de développer des solutions novatrices pour le Logiciel Libre. Mais depuis Fedora 21, sortie fin 2014, Fedora s'est découpée en trois produits distincts. Si finalement une Fedora Workstation et Server ont accès aux mêmes paquets, le projet a souhaité fournir des expériences utilisateur adaptées à chaque cas d'usage dès la fin de l'installation. Par conséquent, Fedora Workstation a sa liste de travail pour intégrer et développer de nouvelles solutions pour améliorer l'usage bureautique de l'utilisateur.

Et si la distribution Fedora est souvent considérée comme une version de tests pour la distribution Red Hat Enterprise Linux (RHEL) de Red Hat nous allons constater que finalement toute la communauté tire des bénéfices de ses travaux.

Le présent article est une adaptation des articles de blogs ici et de Christian Schaller qui m'en a donné l'autorisation. Il fait suite à un premier article à ce sujet qui avait donné lieu à une conférence lors des JM2L de 2017 et aux RMLL de 2018 dont la vidéo est disponible ici.

Expérience utilisateur Pipewire

Wim Taymans, co-auteur de GStreamer et grand contributeur de PulseAudio étend le spectre de ses travaux avec Pipewire. Il souhaite avec ce composant unifier l'audio et la vidéo sous Linux. L'objectif au long terme n'est pas de gérer uniquement la vidéo, mais de prendre en compte également tout type de flux audio. Et non seulement il souhaite s'attaquer aux cas d'usage de PulseAudio, mais également à ceux de Jack (qui est plutôt dédié au traitement audio professionnel ou d'amateurs éclairés). Cela passera notamment par une compatibilité avec les applications existantes sans réécriture de leur part.

L'objectif est de rendre la plateforme Linux plus attirante pour les compositeurs et autres artistes du milieu. Pipewire a fait sa première apparition dans Fedora 27. Et son usage commence à produire ses premiers effets.

En effet, grâce à ce composant, GNOME Shell avec Wayland est capable de faire de l'affichage distant de la session via le protocole VNC. Cela permet donc les usages de contrôles à distance graphique. Merci à Jonas Ådahl pour ce résultat.

Séquence de démarrage Affichage de GRUB

Hans de Goede a travaillé pour masquer GRUB par défaut sous Fedora, sauf si plusieurs systèmes sont installés. En effet dans ce cas de figure, GRUB ne sert qu'à démarrer un ancien noyau, ce qui est nécessaire uniquement en cas de soucis. Pour des raisons de cohérence et de simplicité, les messages de démarrage étant cachés par défaut, ce menu est caché pour ne pas perturber l'utilisateur outre mesure et gagner du temps.

Un nouveau mécanisme est mis en place. Le menu caché est finalement affiché si le précédent démarrage n'a pas abouti à une session valide. Cela autorise ainsi une résolution possible du problème. Pour désactiver cette fonctionnalité, vous pouvez manuellement appliquer la commande suivante avec les droits super utilisateurs :

# grub2-editenv - unset menu_auto_hide

Hans de Goede a publié une FAQ à propos de ce changement pour savoir comment l'activer ou le désactiver et quel est le comportement en cas de problèmes. Ce travail documenté permet à d'autres distributions de reproduire ce comportement pour simplifier la séquence de démarrage.

Démarrage sans remise à zéro de l'affichage

Pour les utilisateurs d'une carte graphique Intel et d'un ordinateur avec l'UEFI activé, l'affichage durant le démarrage est continu, sans remise à zéro de ce dernier. Cela rend l'expérience plus fluide et jolie. La changement fait suite au changement introduit dans Fedora 29 pour qu'un ordinateur mono-système ait GRUB masqué par défaut. Le nouveau thème plymouth bgrt récupère également le logo du constructeur de l'ordinateur ou de la carte mère durant le démarrage. Si vous ne souhaitez pas voir ce logo, basculez vers le thème spinner. Vous pouvez regarder cette vidéo pour voir le changement en action et les explications en détails et la FAQ par Hans de Goede, son développeur.

Les jeux vidéo

Beaucoup de tests ont été effectués par Olivier Fourdan et Jonas Ådahl pour identifier les problèmes d'exécution des jeux vidéo Steam avec GNOME sous Wayland et ont pu en corriger l'essentiel. Cela permet de repousser les limites de Wayland dans les cas d'usage et rendre ainsi chaque jour X11 de moins en moins nécessaire.

Pour améliorer également les performances des jeux vidéo, l'entreprise Feral Interactive a développé le projet gamemode pour optimiser la configuration du système dans le but de maximiser les performances lors de l'exécution d'un jeu. Pour l'instant Fedora se contente de proposer par défaut ce paquet mais une réflexion est en cours pour essayer de rendre ce paquet non nécessaire, en améliorant le gouverneur du CPU par exemple.

Gestion du matériel Autonomie

Hans de Goede a travaillé sur une meilleure gestion de l'autonomie des ordinateurs portables avec un processeur Intel. Cela passe par une meilleure gestion de l'énergie des ports SATA pour disques durs et SSD (gain estimé de 1-1,5 W) en reprenant le mode utilisé par Windows : med_power_with_dipm. Intel HDA codec pour le multimédia est mis en sommeil après une seconde d’inactivité (gain estimé de 0,4 W). Et activation de l'économie d'énergie pour les récepteurs Bluetooth en USB (gain estimé de 0,4 W si tous les ports USB sont en repos). Sachant qu'un ordinateur portable récent non orienté puissance consomme moins de 10 W (7,5 W par exemple sur un Lenovo E560) en usage non intensif. Cela peut donner 20% d'autonomie supplémentaire.

Thunderbolt 3

Intégration de la norme Thunderbolt 3 qui est une norme concurrente à l'USB sur de nombreux points. Cette norme permet en effet de gérer des transferts de données ou de brancher un écran externe par exemple sur le même port. Cependant ces périphériques pourraient accéder à des informations sensibles de votre machine lors du branchement pour des raisons de performances. En effet pour alléger la charge CPU, ces périphériques peuvent être maîtres de la communication DMA. C'est pourquoi la norme propose une politique de sécurité pour que l'utilisateur autorise ou non l'accès à l'ordinateur et éviter que discrètement un appareil branché sans votre consentement ait un libre accès. Maintenant il est possible de configurer dans GNOME ces accès par le biais des notifications ou du panneau de configuration qui lui est dédié.

Panneau-Thunderbolt.png

Les politiques de sécurité possibles étant :

  • none : pas de restrictions ;
  • dponly : uniquement la sortie vidéo via DisplayPort ;
  • user : les périphériques connectés doivent recevoir une autorisation de l'utilisateur ;
  • secure : l'utilisateur doit autoriser l'appareil également et l'appareil doit prouver son identité avec une clé secrète.
Développement Fedora Toolbox

Debarshi Ray a développé l'outil Fedora Toolbox pour simplifier le développement en utilisant massivement les conteneurs. Ainsi il sera plus simple de développer par exemple votre projet maison avec Fedora pour bénéficier des dernières versions, de le tester sur RHEL pour la compatibilité. Et si c'est un jeu, exécuter cela dans un environnement SteamOS.

Un gros travail est en cours pour améliorer encore l'expérience utilisateur afin de ne pas à avoir à réinstaller les mêmes outils dans chaque conteneur, ou d'être confus à propos du contenu de chacun. Il est envisagé de pouvoir plus facilement travailler sur des environnements complexes précis tels que Tensorflow ou CUDA par exemple.

Son intérêt sera particulièrement important dans le cadre du projet Silverblue, détaillé plus bas. En effet dans le contexte d'un système immutable, l'objectif sera de reposer les outils de développement sur des conteneurs manipulés à travers ce genre d'outils.

Et demain ? Le HiDPI fractionnel

GNOME_HiDPI.png

Les affichages à haute densité de pixels (HiDPI) sont de plus en plus fréquents dans les configurations milieu et haut de gamme. Ils permettent d'améliorer la finesse de l'affichage sans pour autant réduire la taille des éléments affichés. Cependant sur certains modèles d'écran, les ratios entiers du HiDPI produisent des affichages trop grands ou trop petits. Pour résoudre ce problème, on souhaite introduire des valeurs intermédiaires non entières.

La bonne prise en charge de tels écrans n'est possible qu'avec Wayland, et GNOME dispose à titre expérimental d'une telle fonctionnalité qui a besoin de quelques raffinements encore. Pour ceux qui veulent tester, il suffit d'ajouter la valeur scale-monitor-framebuffer à la clé gsettings org.gnome.mutter.experimental-features pour que le panneau de configuration le propose.

Cela peut être effectué à l'aide de la commande suivante :

$ gsettings set org.gnome.mutter.experimental-features ['scale-monitor-framebuffer']

Ce travail est le fruit de la collaboration entre Jonas Ådahl de Red hat et Marco Trevisan de Canonical. Il devrait être bientôt disponible de manière stable.

Pipewire

Pipewire est encore en voie de maturation. De nombreuses choses restent à faire ou à stabiliser. Par exemple Jan Grulich, Tomas Popela et Eike Rathke travaillent sur la fonctionnalité d'écran partagé avec Wayland pour Firefox et Chrome afin de partager son écran lors d'une visioconférence avec WebRTC par exemple. Cependant cela n'est pas encore assez stable pour être activé par défaut. Si vous le souhaitez avec Chrome, il suffit d'activer l'option chrome://flags/#enable-webrtc-pipewire-capturer.

La gestion de l'audio n'est pas encore en place bien que le chantier soit bien avancé. Pipewire peut utiliser un plugin PulseAudio de GStreamer pour jouer le son de certaines applications GNOME. Wim teste également les applications employant Jack pour corriger les problèmes de compatibilité. Il fait également des tests sur une barre de son Sony HT-Z9F soundbar pour s'assurer du bon fonctionnement de Pipewire avec ce genre de matériel. Ainsi à terme les protocoles SPDIF, HDMI ou Bluetooth seront pris en charge convenablement. Le codec LDAC qui est un codec de haute qualité audio pour le Bluetooth sera également de la partie.

La prise en charge de JACK devrait être disponible avant celle de PulseAudio. Les premiers résultats stables pourraient apparaitre pour Fedora 31 à ce niveau.

OpenH264

Cela fait quelques temps que Firefox dispose de la bibliothèque d'OpenH264 de Cisco pour décoder matériellement le format H264 qui est très répandu. Cependant, le format H264 dispose de ce que l'on appelle des profils. L'objectif est d'activer certaines fonctionnalités du format suivant le cas d'usage de la vidéo. Une visio-conférence par exemple a besoin d'une plus faible qualité d'image que le film enregistré sur votre disque dur, et ce afin de limiter le besoin en bande passante et en latence.

OpenH264 ne prenait en charge que le profil baseline. Grâce à une collaboration de Red Hat, Endless, Cisco et Centricular, les profils high et main seront proposés prochainement. Le travail est en fait déjà partiellement disponible mais quelques rafinements restent nécessaires avant de le proposer par défaut. Des plateformes de vidéo en ligne comme Youtube pourront en tirer parti prochainement.

Les applications reposant sur la bibliothèque GStreamer, comme Totem de GNOME seront également bénéficiaires de cette amélioration.

Wayland Firefox

Firefox_Wayland.png

Fedora a beaucoup œuvré pour proposer Wayland par défaut et faire en sorte que les logiciels essentiels fonctionnent bien avec comme LibreOffice et GNOME. C'est également le cas pour Firefox qui commence à voir le bout du tunnel, ce travail étant porté par Martin Stransky.

Fedora avait un dépôt COPR pour tester Firefox avec Wayland, puis un paquet officiel firefox-wayland était proposé depuis Fedora 28. Ce dernier n'étant qu'un script qui lance Firefox avec la variable d'environnement MOZ_ENABLE_WAYLAND défini à 1. Cela a permis de constater de nombreux problèmes qui ont pu être corrigés. Pour Fedora 31, qui devrait sortir en fin d'année 2019, Firefox avec la gestion native de Wayland sera proposé par défaut. Ainsi l'un des derniers composants par défaut de Fedora Workstation pourrait se passer du besoin d'utiliser XWayland.

Pilote propriétaire de nVidia

Il y a également le pilote propriétaire de nVidia qui n'offre pas pleinement une bonne expérience avec une session sous Wayland. Ce qui est bien sûr un problème pour ceux qui veulent tirer le plein potentiel de la carte graphique, en particulier pour les jeux ou le montage vidéo. Des travaux importants de Adam Jackson ont pu résoudre des problèmes pour la gestion des espaces de couleur et des écrans multiples. Mais il manque toujours la compatibilité avec XWayland pour offrir une expérience complète d'une session sous Wayland, si vous n'en avez pas besoin cela devrait fonctionner convenablement dès maintenant.

Les souris à haute résolution

Les souris à destination des joueurs ou des graphistes ont souvent des résolution plus haute afin d'améliorer la sensibilité et la précision du pointage. C'est pourquoi Peter Hutterer et Benjamin Tissoires ont proposé une RFC pour Wayland afin de tenir compte de ces cas d'usage. Le périphérique Dell Totem pourrait avoir une prise en charge pour Fedora 31.

La construction des applications Flatpak

GNOME_Logiciels_Flatpak_RPM.png

Owen Taylor travaille sur l'infrastructure de Fedora pour apporter de quoi construire des applications Flatpak directement, en parallèle des formats RPM classiques. L'objectif est de faciliter la vie du mainteneur qui pourra concevoir en une fois la construction des deux formats et les autres distributions ou utilisateurs pourront récupérer le Flatpak à jour directement s'ils le souhaitent.

Depuis la dernière fois, des progrès sensibles ont été obtenus. Un site web a été mis en ligne pour suivre l'évolution de ce travail pour une dizaine de paquets. Une fois que cet essai sera transformé, l'objectif est bien sûr d'étendre ce système à l'ensemble des paquets concernés.

Une réflexion est menée pour que GNOME Logiciels propose via une option de choisir d'installer un logiciel depuis Flatpak ou le dépôt RPM par défaut. À plus long terme l'option disparaitrait pour laisser place aux Flatpak uniquement, les RPM seraient relégués pour la base du système.

L'outil fleet commander avec Active Directory

FleetCommander.png

Fleet Commander est un outil pour gérer des flottes entières de machines sous Fedora ou RHEL, notamment pour les universités, les grosses entreprises ou les administrations et ainsi, de pouvoir gérer des milliers de machines. Il est possible de configurer les postes avec un navigateur Web ou l'outil Cockpit.

Oliver Gutierrez a intégré la sauvegarde de la configuration avec la solution Active Directory en plus de FreeIPA qui n'attend plus que la mise à disposition de la nouvelle version. Cela permettra de rendre cet outil plus pertinent dans plus d'entreprises ou administrations, qui utilisent plus souvent Active Directory que FreeIPA.

Fedora Silverblue

silverblue-logo.png

Fedora travaille beaucoup pour concevoir un système atomique, selon les travaux de Project Atomic. Actuellement c'est la version Cloud qui en bénéficie nativement, mais les travaux sur la version Workstation sont en cours. Le but est d'améliorer la fiabilité du système, il sera ainsi possible de facilement mettre à jour le système en diminuant les risques liés à une procédure exécutée dans un ordre différent que prévu par exemple. Le retour à une situation antérieure en cas de problème sera également plus facile en sélectionnant l'état précédent du système dans GRUB.

Une telle architecture propose aussi un système dans un état immutable, le rendant plus fiable ce qui impose une séparation plus stricte et claire entre le système et les applications. Ce qui parachève le travail envisagé par le projet Fedora.next. L'objectif est que Fedora propose un système de base et immutable à travers rpm-ostree et que les applications traditionnelles soient installées avec des Flatpak uniquement.

Devant l'intérêt récent pour cette technologie, un groupe de travail a été constitué l'année dernière, le projet a été renommé également en Fedora Silverblue et de grands progrès fonctionnels ont eu lieu depuis.

En effet cela fait deux cycles de développement de Fedora où Fedora Silverblue a bénéficié d'une journée de tests. Ainsi de nombreuses personnes, dont votre serviteur, ont pu le tester pour vérifier la viabilité du système avec l'image de base et les applications provenant du dépôt Flathub. Et les résultats sont positifs.

Aujourd'hui la gestion des Flatpak est complète. GNOME Logiciels permet de gérer un système reposant sur rpm-ostree. Les situations un peu particulières, comme Google Chrome qui installe tout dans /opt ou le pilote graphique propriétaire de nVidia qui ne peut être distribué nativement ont été réglées.

Le travail reste important pour gérer l'ensemble des cas d'usage tout en proposant une expérience utilisateur optimale. Par ailleurs quelques travaux restent nécessaires pour proposer des environnements de développement complets capables de gérer un tel système, la gestion des codecs ou encore des applications complexes comme VirtualBox.

Matthias Clasen a publié un article complet pour ceux qui veulent plus de détails.

Vous pouvez tester Fedora Silverblue en téléchargeant les images mis à disposition régulièrement.

Conclusion

Comme nous pouvons le voir avec cette liste d'exemples, une distribution d’envergure comme Fedora, mais aussi Ubuntu, Debian ou autres peuvent apporter bien plus qu'une liste de logiciels à installer. Ils proposent des nouveaux outils, participent au développement ou à la stabilisation des logiciels qu'ils fournissent, peuvent collaborer avec d'autres entreprises ou communautés pour améliorer la prise en charge de leur produit.

Et encore, nous ne parlons que des travaux significatifs de ces trois dernières années, Fedora a également œuvré pour PulseAudio, systemd, PackageKit, NetworkManager, le pilote libre nouveau et tant d'autres composants par le passé !

Et malgré les liens forts entre Red Hat et Fedora, nous pouvons voir que beaucoup des travaux de Fedora de ces dernières années ont bénéficié à la plupart des distributions aujourd'hui. Et cela n'est pas près de se terminer.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Yannic Arnoux : Souvenir de blog

J’aime bien l’allure du nouveau blog mais l’ancien Blog du Yax me manque un peu, probablement parce que j’avais tout fait de A à Z, le HTML, le CSS et le JavaScript. Le résultat faisait un peu amateur mais c’était ma création.

Il me reste Archive.org pour les souvenirs :-)

Ancien Blog du Yax

Gravatar de Yannic Arnoux
Original post of Yannic Arnoux.Votez pour ce billet sur Planet Libre.

genma : L'application FreshRSS pour Android

Utilisant FreshRSS sur mon instance Yunohost depuis un long moment, j'utilisais par défaut le client EasyRSS sur mon ordiphone.

Dans ce petit billet, je voudrais présenter rapidement l'existence d'une application FreshRSS que l'ami Augier des Internet a créé.

Il s'agit d'une application cliente pour le logiciel FreshRSS, et cette application est donc une alternative à EasyRSS. Et une alternative, c'est toujours à prendre.

Reparti de zéro en exploitant l'API de FreshRSS, pour avoir une application répondant à ses besoins et reposant sur des technologies qu'il maitrise, en bon libriste, Augier a mis le code source à disposition en ligne ici et le package de l'application prêt à l'installation ici

A tester en parallèle de EasyRSS pour celles et ceux qui consultent leur agrégateur FreshRSS depuis leur ordiphone / smartphone. C'est encore en version alpha mais une versions alpha assez stable qui est utilisable au jour le jour.

Et si vous avez des remarques, des critiques constructives, des suggestions ou envie de contribuer, ça se passe par ici

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Thuban : Syspatch : patch LibreSSL - srtp - multi-arch - 6.5

L'équipe d'OpenBSD nous livre ce soir un nouveau correctif, cette fois-ci pour LibreSSL.

  • nommé "srtp" : Les serveurs LibreSSL qui ne fournissent pas de profil SRTP ont la négotiation DTLS qui échoue.

Ce correctif ne concerne qu'OpenBSD 6.5 - patch n°2.

Architectures concernées : amd64, arm64 et i386

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Jean-Pierre Morfin : Transformer Dolibarr en serveur CalDAV/CardDAV

Logo module CDAV

Dolibarr est un Progiciel de Gestion Intégré (P.G.I.), il est développé par une grande communauté d'utilisateurs francophones spécialement dédié aux TPE/PME, indépendants, auto-entrepreneurs et associations. C'est un logiciel libre fonctionnant dans un environnement PHP/MySQL.

Dolibarr s'utilise au travers d'un simple navigateur web comme Mozilla Firefox et est accessible par tous les postes Windows, Mac ou GNU/Linux du réseau local.

Son utilisation depuis le terrain à partir d'un téléphone n'est pas idéal compte tenu de la taille des écrans, et de la nécessité à être connecté.e au serveur. Ce constat nous a motivé à créer un module Dolibarr qui permet d'utiliser les applications natives des smartphones et tablettes : carnets d'adresses, agenda, todo list. Habitués à la synchronisation de ces éléments avec différents services comme Owncloud/Nextcloud, créer un serveur CalDAV et CardDAV permettant d'accéder à ses données d'entreprise était une évidence. C'est ce que fait le module CDAV en s'appuyant sur la bibliothèque PHP de référence : Sabre/DAV.

Après avoir installé ce module sur votre instance Dolibarr, les utilisateurs vont pouvoir, à l'aide d'une url fournie par le module et de leurs identifiants Dolibarr, connecter leurs appareils Android et iOS mais aussi n'importe quel logiciel prenant en charge les protocoles CalDAV et/ou CardDAV. Parmi ceux-ci, on remarquera l'application de bureau Thunderbird grâce aux extensions Lightning, TBSync et sa sous extension pour ces protocoles.

Après synchronisation, on a ainsi accès, même en mode déconnecté, aux informations des contacts Dolibarr, de son agenda et de ses tâches de projet. La synchronisation est bidirectionnelle et les modifications des informations sur le terrain seront rapatriées sur Dolibarr lors de la prochaine synchronisation. Les utilisateurs Dolibarr ayant accès aux agendas des autres collaborateurs pourront aussi synchroniser ces données dans des calendriers séparés.

Pour aller plus loin, le module CDAV a la capacité de générer des tâches de projet à partir des documents de type commandes ou propositions rattachés à un projet à partir des lignes de type service qu'ils contiennent. Lors de la validation d'un projet, CDAV crée des tâches débutant à la date de début du projet. Il est alors facile de les déplacer dans le temps, de changer leur affectation à partir de Thunderbird et d'organiser le planning de l'entreprise

Befox a des clients qui utilisent ce module pour gérer les interventions de leurs techniciens qui retrouvent sur le terrain leur planning, les tâches à réaliser, les coordonnées de leurs clients et peuvent saisir facilement leur compte rendu d'intervention en validant les tâches dans l'application Android Open Tasks. Le suivi d'un projet dans Dolibarr prend alors tout son sens, surtout avec des équipes mobiles. La synchronisation Android est assuré par l'application DAVx⁵ aussi disponible sur F-Droid

Pour soutenir ce projet libre, le module CDAV est aussi disponible sur la place de marché Dolistore

Gravatar de Jean-Pierre Morfin
Original post of Jean-Pierre Morfin.Votez pour ce billet sur Planet Libre.

Eddy33 : Fedora 30 vs Fedora 29 : comparaison des performances pour les versions 64 bits

Salut.

Voici les résultats comparatifs de Fedora 30 vs Fedora 29.

Pour rappel, ma machine est équipée d'un Quad Core Intel Q6600 à 2,4 GHz avec 4 Go de RAM.

Je me suis limité au benchmark UnixBench qui fournit un indice global, ce qui me simplifiera la comparaison. La version UnixBench utilisée est la version 4.1.0.

Mon protocole de tests est le suivant :
  • Installation de Fedora 30 version 64 bits avec le noyau Fedora  5.0.9-301.fc30.x86_64.
  • La machine est placée en niveau 3 (init 3).
  • 10 séries de tests avec UnixBench compilé sous Fedora 30 et exécuté sous Fedora 30 (5.0.9-301.fc30.x86_64).
  • 10 séries de tests avec UnixBench compilé sous Fedora 29 et exécuté sous Fedora 29 (4.18.16-300.fc29.x86_64).
Voici les résultats obtenus :
Fedora 30 version 64 bits : Série 1 : 603.2
Série 2 : 612.5
Série 3 : 620.0
Série 4 : 620.0
Série 5 : 605.6
Série 6 : 605.2
Série 7 : 605.4
Série 8 : 611.3
Série 9 : 614.1
Série 10 : 609.5

Moyenne : 610,7
Fedora 29 version 64 bits : Voici pour rappel les résultats obtenus avec Fedora 29 :Série 1 : 607.9
Série 2 : 623.7
Série 3 : 624.0
Série 4 : 635.0
Série 5 : 615.2
Série 6 : 614.8
Série 7 : 626.2
Série 8 : 631.6
Série 9 : 623.6
Série 10 : 619.5

Moyenne : 622,1Résultats : Pour Fedora 30, on obtient un indice moyen de 610,7 pour UnixBench.
Pour Fedora 29, j'avais obtenu un indice moyen de 622,1 pour UnixBench.


On a donc une baisse de 1,8 % de Fedora 30 64 bits par rapport à Fedora 29 64 bits :

perfs_fedora_F30.png

Conclusion :
Au moment de ces tests, le noyau Fedora 30 (basé sur le noyau vanilla 5.0.9) est un peu moins performant de 1,8 % que le noyau Fedora 29 (basé sur le noyau vanilla 4.18.16).
++

Gravatar de Eddy33
Original post of Eddy33.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #19

Pour la 19ème semaine de l'année 2019, voici 10 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

antistress : Les trucs que j'aurais aimé connaître dès mes débuts en informatique pour éviter de galérer

Microphone

Il y a des trucs qu'on aurait aimé savoir dès le début pour éviter de galérer, et d'autres qu'on aurait aimé savoir avant qu'il ne soit trop tard... Petite liste basée sur mon expérience personnelle ;)

Règles d'hygiène numérique Prenez le temps de vous créer plusieurs adresses électroniques

La règle de base est déjà d'avoir une adresse indépendante de son FAI, afin de pouvoir la conserver en changeant de FAI.

Ensuite il vous faut plusieurs adresses pour ne pas voir votre adresse principale envahie par les publicités et messages indésirables. Par exemple j'en ai quatre : professionnelle, personnelle, achats en ligne et autres relations commerciales, geekeries sous pseudonymat. Vous pouvez en prévoir une cinquième comme adresse poubelle.

Vous jonglerez facilement entre toutes ces adresses avec un logiciel multi-comptes comme Thunderbird (pour lequel je donne quelques astuces ci-après).

Prenez le temps d'organiser votre disque dur

Que ceux qui stockent tout dans le dossier Téléchargements lèvent la main ! C'est le réflexe que nous avons quand nous ne savons pas comment faire autrement.

Je conseille plutôt de faire usage des dossiers xdg-user-dirs : ce sont des dossiers standards sous GNU/Linux nommés Documents, Images, Musique, Téléchargements, Vidéos.

Dans le détail :

  • Il ne faut pas que ce système soit une entrave. Ainsi pour ma part je ne respecte pas à la lettre ce découpage et préfère distinguer deux cas. Pour ce qui est des loisirs je respecte bien cette répartitions : morceaux de musique dans Musique, photos personnelles dans Photos, séries et films dans Vidéos (hum hum)... Mais si j'ai des photos autres que de loisirs, par exemple un dégât des eaux, je le mets dans un dossier ad hoc qui comprendra tout ce qui a trait à cette affaire et qui aura son siège dans Documents, quelle que soit la nature du fichier pour le coup. Vous voyez l'idée.
  • Pour ce qui est de classer les photos de loisirs, j'ai choisi de garder un classement basique par dossiers en fonction de la date de prise de vue. En effet, même si vous classez vos photos à l'aide de tags (bien plus pratique que les dossiers, on est d'accord), stocker toutes vos photos dans un unique dossier va rendre difficile son ouverture (avoir trop de fichiers dans un même dossier allonge le temps d'ouverture du dossier, encore plus quand le système va devoir aller chercher ou générer les miniatures de tous les fichiers). Je créée donc des dossiers pour chaque mois sous la forme ANNEE MOIS (par exemple « 2019_05 » pour des pĥotos prises ce mois-ci) afin de pouvoir opérer un tri chronologique des dossiers. Vous pouvez, si vous le souhaitez, créer des dossiers supplémentaires pour un évènement spécifique sans altérer le classement, en nommant le dossier ANNEE MOIS EVENEMENT (par exemple « 2019_05 Vacances » pourra être créé en plus de « 2019_05 » qui, lui, contiendra tout ce qui n'a pas trait audit évènement ce mois-ci). Enfin, à l'intérieur des dossiers, quand il y a beaucoup de photos provenant de différents appareils, j'aime bien les ordonner par date, ce qu'il est possible de faire très simplement avec un outil en ligne de commande comme jhead.
Prenez le temps de configurer un système de sauvegardes (ne comptez pas sur la chance)

Ce point a un rapport direct avec un des paragraphes suivants où j'évoque le cas de l'effacement inopiné du disque dur... De même qu'on se décide à poser un système d'alarmes après avoir été cambriolé, c'est après avoir perdu ses données qu'on pense à un système de sauvegarde ;)

Avec un logiciel comme Sauvegardes pour GNOME (alias Déjà Dup) qui vous prend par la main, franchement, il ne reste pas grand chose à expliquer : choisissez les dossiers à sauvegarder (facile si vous avez pris le temps d'organiser votre disque dur comme indiqué au paragraphe précédent !), où vous souhaitez écrire la sauvegarde, et si vous souhaitez protéger votre sauvegarde avec un mot de passe. Après votre choix se fera entre lancer les sauvegardes à la main (mon choix) ou automatiquement. À noter : la première sauvegarde peut prendre du temps car le logiciel doit tout copier. Ensuite, il n'écrira plus que les différences avec la copie précédente.

Prenez le temps de compartimenter votre navigation sur le Web

Exactement comme pour les adresses électroniques, il est sage de compartimenter la navigation à la fois pour limiter le pistage en ligne et pour réduire les risque de sécurité (en évitant d'ouvrir n'importe quel onglet à côté de celui de votre banque par exemple).

Comme détaillé dans ce billet, j'ai pour ma part fait le choix de créer plusieurs profils sous Firefox : surf (profil par défaut), shopping, travail, finances, séries TV et invité (un profil qui ne garde aucune trace de navigation).

Une autre possibilité est de recourir à une fonctionnalité récente de Firefox : les onglets contextuels. Tout est expliqué sur blog.mozfr.org.

Dépannage Au secours, j'ai formaté par erreur la mauvaise partition du disque !

Ben oui, ça arrive même aux meilleurs ;)
C'est fou le temps qu'on perd en voulant aller vite !

Bon, ce qu'il faut savoir dans ce cas là, c'est qu'il ne faut surtout rien écrire sur le disque. Tant que vous n'écrasez pas vos données avec de nouvelles, c'est récupérable. Différents outils géniaux existent sous GNU/Linux pour vous sauver la mise.

Commencez par tester votre partition avec la commande :
fsck /dev/nom_de_la_partition_qui_pose_problème

Tentez de réparer la table des partitions avec TestDisk. Si ça ne fonctionne pas, passez à l'étape supérieure : essayez de récupérer vos données avec dd_rescue. Attention, sous Debian gddrescue (dont la commande dans un terminal est ddrescue) remplace dorénavant ddrescue (dont la commande dans un terminal est dd_rescue)...

Dernière possibilité à ma connaissance : utilisez des outils spécialisés dans la récupération de photos, vidéos etc. : PhotoRec (lire aussi ce billet), Foremost et ForemostGUI.

Et peut être surtout : repérez bien vos partitions avant de travailler dessus. Sous GNOME nous n'avons aucune excuse car il y un outil graphique très complet nommé Disques que je ne peux que vous conseiller d'utiliser avant d'agir.

Astuces Sous Thunderbird, effacer n'est pas jouer

Sous Thunderbird je ne comprenais pas pourquoi le logiciel était devenu si lourd, même après avoir fait le ménage dans mes messages.
Puis, un jour, Thunderbird a commencé à me demander si je voulais compacter mes dossiers. Lassé de répondre non à chaque lancement (!) je me suis décidé à lancer une recherche sur le web à ce sujet. Surprise : le « compactage » consiste à effacer réellement les messages supprimés, un peu comme vider la corbeille de votre OS. Reconnaissons que cela n'avait rien d'évident !
Résultat, après compactage, vous retrouvez un Thunderbird réactif et de l'espace disque :)
Plus d'explications ici.

Affichez les messages sous forme de discussion dans Thunderbird ?

C'est possible, et sans extension.

Sous Debian, les paquets téléchargés pour être installés restent stockés sur le disque Dieu sait pourquoi

Une simple commande, sudo apt-get clean, vous nettoie tout cela (techniquement, elle vide le répertoire /var/cache/apt/archives).

D'autres commandes utiles pour entretenir votre Debian : sudo apt autoremove va supprimer les dépendances qui ne sont plus utilisées, et, si vous avez installé des logiciels via Flatpak, la commande flatpak uninstall --unused est utile pour nettoyer les environnements d'exécutions qui ne sont plus utilisés par les applications Fatpak.

Récupérer facilement un son ou une vidéo quelque part sur le Web

Un replay sur Arte, un podcast sur France Inter... Sous GNU/Linux existe un outil formidable, puissant et simple, en ligne de commande : youtube-dl (tuto). Ha oui, et n'oubliez pas la fonction très pratique d'autocomplétion du terminal (saisir les premières lettres de l'outil et tabuler pour afficher le nom complet). Du coup, chez moi cela prend quelques secondes et 5 étapes : copier l'url, lancer le terminal, saisir « you », tabuler, coller l'url, valider et voilà.

Convertir des pdf en jpg (ou inversement) sous linux, en 3 secondes ?

C'est possible, avec imagemagick.

Mon fichier vidéo est illisible : je le jette ?

Pas de précipitation : si vous pouvez l'ouvrir dans Avidemux (sous Debian le logiciel peut être installé à partir du dépôt deb-multimedia.org sous le nom avidemux-qt) alors c'est certainement le conteneur qui est endommagé (et non les pistes son et vidéo elles-mêmes). Inutile dans ce cas de tout ré-encoder, il suffit de ré-assembler les pistes son et vidéo dans un fichier correct. Profitez-en pour choisir un conteneur moderne et performant comme le MKV (surtout par rapport à l'antique AVI par exemple) et laissez les champs « Sortie Vidéo » et « Sortie Audio » sur « copy ».

Avidemux est vraiment le couteau suisse de la vidéo sous GNU/Linux (NB : l'équivalent pour le son est Audacity) et vous trouverez d'autres astuces le concernant dans ce billet.

Connaître l'intérieur de son PC sans l'ouvrir

Quelques commandes :
lspci -v listera assez précisément le nom et la marque de votre matériel ;
sudo hdparm -i /dev/sda pour connaître toutes les caractéristiques de votre disque dev/sda (renouveler la commande pour dev/sdb etc.) ;
nano /proc/cpuinfo vous donnera toutes les caractéristiques de votre processeur ;
lspci -nnk | grep -i vga -A2 pour savoir si le pilote graphique est bien installé ;
uname -a pour connaître la version de votre noyau ;
dpkg -s nom_du_paquet | grep ^Version pour connaître, sous Debian, la version d'un paquet donné ;
echo $WAYLAND_DISPLAY pour savoir si votre session tourne sous Wayland (réponse vide = non, "wayland-0" = oui).

Et vous, quelles astuces auriez-vous aimé connaître dès le début ?

NB : Vous trouverez beaucoup de ces astuces, et d'autres, sur ma page Liens utiles que j'essaie de garder à jour.

Gravatar de antistress
Original post of antistress.Votez pour ce billet sur Planet Libre.

Articles similaires

Boutor : Impossible de lancer une mise à niveau Ubuntu

J’ai eu la mise à niveau de 18.10 vers 19.04 bloquée. Ceci est dû à un paquet non mis à jour et plus proposé à la mise à jour par le gestionnaire de mises à jour.

Ceci est lié à un décochage de sa mise à jour lors d’une précédente mise à jour (par erreur dans mon cas), lorsque le gestionnaire de mise à jour liste les mises à jour disponibles.

Du coup, lorsque le bouton Mise à niveau apparaît dans le gestionnaire de mise à jour, cliquez dessus ne mène à rien.

Pour diagnostiquer le problème, procédez comme suit dans un terminal:
sudo do-release-upgrade

Vous obtenez en retour:

Please install all available updates for your release before upgrading.

Il faut lister les paquets non mis à jour pour forcer leur installation :
apt list --upgradable

Dans mon cas, j’ai obtenu :

calibre/cosmic,cosmic 3.31.0+dfsg-1 all [pouvant être mis à jour depuis : 3.21.0+dfsg-1build1]
N: Il y a une version supplémentaire 1. Veuillez utiliser l’opérande « -a » pour la voir.

Je force sa mise à jour :
sudo apt-get install calibre

Je ferme le terminal et relance le gestionnaire de mise à jour, clique sur le bouton mise à niveau. Et cela fonctionne.

Il faudra bien sûr adapter la mise à niveau de vos paquets selon la liste obtenue.

Gravatar de Boutor
Original post of Boutor.Votez pour ce billet sur Planet Libre.

Articles similaires

Yannic Arnoux : Antisocial en veilleuse

Je traîne beaucoup moins sur Diaspora : je poste très peu et j’ai fait récemment une grosse lessive parmi les gens et les hashtags que je suivais.

La descente

C’est en partie à cause de la triste actualité des six derniers mois ; les gilets jaunes, les violences, le bashing anti-gouvernement, il n’y avait plus que cela dans mon fil d’actu Diaspora. Des gens que je suivais pour leurs publications sur le Libre et l’Open Source ont commencé à militer et c’est devenu leur sujet principal. Paradoxalement, alors que je limite la pollution de mon esprit en ne regardant plus les informations télévisées depuis des années, je me suis retrouvé à avoir le point de vue du réseau social sur un sujet brûlant d’actualité. Et au bout de quelques semaines de matraquage j’ai eu un ras-le-bol, la surdose et j’ai commencé à couper les sources.

Ca m’a fait prendre du recul sur le réseau en entier et reconsidérer ma façon de l’utiliser. Ce qui me plait dans Diaspora c’est la possibilité de suivre une personne ou de suivre un hashtag donc un centre d’intérêt. Mais les deux possibilités ont des inconvénients.

Suivre toutes les publications d’une personne

Cela suppose que tout ce qu’il publie va vous intéresser. C’est rarement le cas ! L’exemple des gilets jaunes montre l’inconvénient à son paroxysme où on finit par virer la personne. Sans en arriver là, on a toujours du bruit : des publications qui ne nous intéressent pas donc du temps perdu et le besoin de filtrer l’information.

Un autre problème est la manie de certains de copier-coller des articles en intégralité. Etant dans une consommation mobile de Diaspora, c’est pas génial de faire défiler 30000 pixels pour arriver à la publication suivante dans le flux d’actualité. Je préfère un lien vers l’article et un commentaire personnel qui me donne envie de l’ouvrir.

Suivre un hashtag pour alimenter un centre d’intérêt

C’est une fonctionnalité géniale pour couvrir un sujet d’intérêt mais qui peut avoir des désagréments : du bruit car la publication n’est pas intéressante ou hors-sujet, ou bien on assiste à une conversation publique entre deux personnes. Par exemple j’aime les photos de villes anciennes et je découvre des trucs sympas. Par contre je m’intéresse à la collapsologie et là c’est du concentré d’ondes négatives, du militantisme local mais rarement du contenu qui m’intéresse. Après c’est le risque, un hashtag c’est ouvert donc il faut s’attendre à traiter du déchet (donc passer du temps) pour trouver des pépites.

Et le micro-blogging ?

Vu le genre de publication que je fais sur Diaspora et ce que j’en attends, je me suis dit que le micro-blogging était peut-être plus indiqué pour moi : une publication courte avec un lien ou une photo et un commentaire ou un ressenti. J’ai installé une instance Pleroma une journée puis je l’ai démonté et je me suis inscrit sur Mastodon chez la mère Zaclys.

J’ai toujours un compte Twitter où je ne publie rien mais qui me sert à suivre quelques comptes officiels qu’on ne retrouvera jamais sur le Fediverse. Ma première mauvaise idée a été de republier le compte Twitter LesNews sur le Fediverse via un bot : lesnews_bot at botsin.space. C’était marrant à faire, ça m’a amusé une paire d’heures (https://hub.docker.com/r/kianby/tweet-toot) mais j’ai réalisé que je dupliquais le modèle que je fuyais : inonder des fils de toots avec de l’information mal qualifiée.

Finalement le micro-blogging n’est pas plus adapté à ma sociabilité virtuelle limitée donc je reste sur Diaspora pour garder le contact avec mon petit cercle de connaissances et je restreins les hashtags suivis. Je me concentre sur la source des infos plutôt que les gens qui les relaient, c’est moins d’énergie perdue. Pour les domaines liés à l’informatique (technos, système, Linux) on a de toute façon a peu près tous les mêmes sources. Si la personne produit du contenu sur un site je la rajoute à mes fidèles flux RSS que j’écluse quotidiennement. Et je redécouvre les newsletter grâce à Carl Chenet. C’est un média intéressant, une publication hebdomadaire est idéale pour mon cas, ça laisse la semaine pour lire, le contenu a été filtré en amont, c’est efficace.

Gravatar de Yannic Arnoux
Original post of Yannic Arnoux.Votez pour ce billet sur Planet Libre.

blog-libre : L’option ControlMaster de ssh_config

D’habitude j’essaie d’être synthétique, ce ne sera pas le cas cette fois, l’article sera long. Je voudrais vous montrer comment je procède lorsque je creuse un sujet et les voies tortueuses pour apprendre, comprendre.

L’option ControlMaster

D’après le man ssh_config, elle permet d’activer le partage de multiples sessions à travers une seule connexion réseau. On ne le dit pas assez mais le man c’est brut de décoffrage, celui qui comprend à quoi cette option peut servir à partir de l’explication est un génie. Je vais faire la traduction en vous parlant de son usage et de son intérêt.

Lorsqu’on se connecte à un serveur en SSH, on passe par une phase d’authentification avant d’être connecté. C’est en général très rapide, j’ai fait quelques tests sur des serveurs au boulot, je tourne à 0.3s. Cela va dépendre de nombreux facteurs : la vitesse de votre connexion (fibre, ADSL…), votre méthode d’authentification (clés SSH, clés SSH et mot de passe…), l’emplacement géographique de votre serveur, etc. L’option ControlMaster va permettre de réutiliser la connexion que vous venez d’établir, la première connexion aura toujours cette durée autour de 0.3s (aucun changement) mais la seconde connexion au même serveur se fera beaucoup plus rapidement, je tourne à 0.03s.

Je n’ai pas vu un grand intérêt à cette option au départ puisqu’on parle de gagner du temps (connexion plus rapide) à partir de la seconde connexion à un même serveur, pourquoi se connecter plusieurs fois au même serveur ? En réalité, il y a de nombreuses occasions où vous allez vous connecter plusieurs fois au même serveur et un intérêt certain :
1/ On se connecte à un serveur à 9h00, on se déconnecte puis on y retourne 2h plus tard pour voir quelque chose. En temps normal vous aurez 2 phases d’authentification, à chaque fois 0.3s pour établir la connexion. Avec l’option ControlMaster activée, la première connexion sera de 0.3s, les autres dans la journée de 0.03s. À noter que certains lanceront un screen et resteront connectés toute la journée sur le serveur, ils se contenteront de rappeler leur session screen connectée au serveur (1 seule connexion)
2/ Lorsqu’on parle de connexion, pensez à vos scripts et tâches récurrentes : rsync, git, script qui va se connecter plusieurs fois à un serveur en lançant des commandes
3/ Dans mon job j’ouvre souvent plusieurs connexions sur le même serveur : Typiquement un terminal pour suivre les logs (less +F ou tail -f), le second pour éditer un fichier de conf, le dernier pour restart un service et lancer des tests (3 connexions). À noter que certains lanceront un screen et diviseront simplement le terminal en 3 (1 seule connexion) mais tout le monde ne sait/veut pas se servir de screen
4/ On peut toujours sourire devant des temps aussi courts mais à l’usage on voit et on sent la différence. Une fois goûté, difficile de s’en passer

Comprendre (et creuser)

Dans une majorité d’articles, vous aurez sensiblement cette configuration proposée à ajouter à votre ~/.ssh/config.

Host * ControlMaster auto ControlPath /tmp/socket-%r@%h:%p ControlPersist 3600

Host * signifie que les options suivantes s’appliqueront à tous les serveurs. On retrouve ControlMaster auto à l’identique dans tous les articles, je vous laisse chercher à quoi correspond auto et pourquoi c’est ce qu’il faut utiliser hé hé.

J’ai ajouté la partie suivante à mon ~/.ssh/config puis j’ai commencé à bosser avec. Pour bien comprendre quel est le rôle de chaque option, il est nécessaire de commencer par une config minimale.

Host * ControlMaster auto

Un jour je me connecte à un serveur puis je lance une seconde connexion dessus, je termine ma tâche et ferme ma première connexion, la seconde session (seconde connexion) est alors immédiatement fermée. Désagréable et potentiellement très problématique mais cela s’explique facilement. Souvenez-vous, on partage de multiples sessions à travers une seule connexion réseau. Là on a fermé la première session/connexion (par laquelle passe la seconde session), par conséquent les deux connexions sont coupées. On a besoin de l’option ControlPersist.

L’option ControlPersist

L’option ControlPersist va avoir deux utilités différentes en fonction du chiffre renseigné. Ce chiffre (3600 par exemple) spécifie le temps que la connexion maître doit rester ouverte en arrère-plan dans l’attente d’une future connexion. 3600 correspond à 3600s, on peut également écrire 1h (pour 1 heure) ou 60m (pour 60 minutes). Je préfère les notations claires et human-readable.

Maintenant utilisons dans ~/.ssh/config.

Host * ControlMaster auto ControlPersist 5

Je me connecte à un serveur puis je lance une seconde connexion dessus, je ferme ma première connexion, la seconde session reste ouverte. On vient de résoudre le problème cité plus haut (première utilité).

Renseignons dans ~/.ssh/config.

Host * ControlMaster auto ControlPersist 20

Pour voir le gain de temps lié à l’option ControlMaster, je vous invite à lancer time ssh cascador@monserveur.bogosse.net exit, j’ai sensiblement 0.3s. Relancez la commande, j’obtiens 0.03s. L’option ControlMaster fait son job. À noter que lorsque vous fermez une session « partagée » via l’option ControlMaster, vous avez le petit message : Shared connection to monserveur.bogosse.net closed.

À présent lancez time ssh monserveur.bogosse.net exit, attendez 1 minute (pour rappel ControlPersist est à 20s) puis relancez la commande, j’obtiens 0.3s à la première commande et la même chose à la seconde commande. On aborde là le point 1/ cité tout à l’heure (On se connecte à un serveur à 9h00, on se déconnecte puis on y retourne 2h plus tard…). L’option ControlPersist doit être réglée en conséquence, au minimum 2h pour notre exemple. On se connecte à 9h00 sur le serveur, à 9h05 on se déconnecte, à 11h02 on se connectera en 0.03s mais si ça avait été 11h10 alors la connexion se serait faite en 0.3s. Après quelques réflexions et tests, j’ai décidé de mettre ControlPersist 4h pour ma part. Résumons : Sur chaque serveur où je me connecte une première fois, je me connecterai bien plus rapidement à la prochaine connexion dans la limite de 4h (seconde utilité).

L’option ControlPath

Tout ceci fonctionne grâce aux sockets. Un socket de contrôle est utilisé pour le partage de connexion. L’option ControlPath spécifie le chemin d’accès au socket de contrôle.

Renseignons dans ~/.ssh/config.

Host * ControlMaster auto ControlPath /tmp/socket-%r@%h:%p ControlPersist 5m

Si je me connecte à mon serveur (ssh cascador@monserveur.bogosse.net) alors j’aurais un fichier /tmp/socket-cascador@monserveur:22 sur mon pc. D ‘après le man ssh_config toujours : %r the remote username, %h the remote hostname, %p the remote port. Cela permet d’identifier le socket utilisé pour la connexion à un serveur précis. Si on se déconnecte du serveur, le fichier /tmp/socket-cascador@monserveur:22 sera toujours présent… pendant 5 minutes (ControlPersist 5m). En supprimant ce fichier, on rompt la connexion au serveur et si on se connecte de nouveau au serveur, ça sera en 0.3s.

Pourquoi utiliser /tmp/socket-%r@%h:%p ? Bah justement c’est pas une bonne idée. Il est probable que vous soyez seul à utiliser votre pc, dans mon cas je partage mon pc portable avec Madame. Si je verrouille ma session utilisateur, qu’elle ouvre sa session puis fait ls -l /tmp : Elle saura quel nom d’utilisateur j’utilise, le nom de mon serveur et le port SSH. Pas glop si on considère qu’en matière de sécurité, moins l’attaquant a d’informations, mieux on se porte.

J’utilise ControlPath ~/.ssh/sockets/socket-%C. Donc mkdir -p ~/.ssh/sockets; chmod 700 ~/.ssh/sockets pour commencer. Les sockets sont dans mon home (chiffré), dans un répertoire (avec les droits qui vont bien) précis ~/.ssh/sockets/ et facilement retrouvable (il peut y avoir beaucoup de choses dans /tmp). %C Shorthand for %l%h%p%r, dans les faits ça donne un truc incompréhensible et c’est ce que je veux justement, exemple : ~/.ssh/sockets/socket-2416f65bfd78bq467a7887585sd1d4g456cc78e7. Certains diront mais du coup tu sais pas de quel serveur il est question, yes mais en gros je m’en fous et je m’y retrouve avec la date de modification du fichier (socket pour être précis).

À noter que certains préconisent /tmp car au reboot les sockets seront effacés… c’est le cas peu importe où vous les mettez, ça revient un peu à dire qu’une connexion réseau survit à un reboot…

Sockets, où ils sont mes sockets

On arrive au gros drame. Ce problème est tellement énorme qu’en ce qui me concerne j’ai failli rejeter l’utilisation de ControlMaster, attention cependant il s’agit d’un cas très particulier (perte de réseau) il est probable que ça concerne une minorité de personnes. Si vous bossez au bureau, ça ne vous arrivera qu’extrêmement rarement. Je bourlingue beaucoup : Datacenter, coworking, maison… les déconnexions Wi-Fi sont assez régulières. Plantons le décor : Je suis en datacenter, je suis déconnecté du Wi-Fi, je ne peux donc plus lancer de commandes sur les serveurs sur lesquels j’étais connecté, en général je déconnecte mon OpenVPN, je ferme mon terminal (plusieurs onglets, XX connexions) puis une fois reconnecté je relance mon OpenVPN. Drame, je lance mes connexions aux serveurs mais j’attends indéfiniment que les connexion se fassent. Que se passe-t-il Sherlock ?

Il se passe que les sockets sont toujours présents dans ~/.ssh/sockets/, quand je lance une connexion à un serveur où j’étais précédemment connecté SSH utilise un de ces sockets qui ne fonctionne plus (car j’ai perdu la connexion réseau quelques instants auparavant). Je supprime tous les sockets dans ~/.ssh/sockets/, je peux de nouveau me connecter à mes serveurs.

Ce problème, je n’ai pas vu un article en parler et pourtant quelle saloperie ! J’ai mis en place une solution qui me paraît assez propre et à l’usage, ça le fait. J’utilise beaucoup deux alias, le premier pour lancer la connexion au VPN de ma boîte, le second pour kill cette connexion VPN (alias pko='sudo pkill openvpn'). J’ai simplement ajouté ce dont j’avais besoin à la suite donc alias pko='sudo pkill openvpn; for socket in $(find ~/.ssh/sockets/ -type s); do ssh -o ControlPath=$socket -O exit toto 2>/dev/null || rm $socket; done'.

Ce sera plus lisible ainsi.

for socket in $(find ~/.ssh/sockets/ -type s); do ssh -o ControlPath=$socket -O exit toto 2>/dev/null || rm $socket done

C’est une boucle basique.
for socket in : Pour chaque socket
find ~/.ssh/sockets/ -type s : Trouver les sockets (-type s) dans le dossier ~/.ssh/sockets/
ssh -o ControlPath=$socket -O exit toto 2>/dev/null || rm $socket : On lance ssh -o ControlPath=$socket -O exit toto, si le code de sortie est différent de 0 alors on rm $socket

On pourrait me faire le reproche que c’est super-ultra-méga propre parce que 1/ On sait où chercher (~/.ssh/sockets/) et a priori il n’y aura que des sockets dans ce dossier 2/ un simple rm ~/.ssh/sockets/socket-* fait le job. Ouais c’est pour vous expliquer quelle est la bonne/élégante manière de faire. Je ne sais pas si c’est nécessaire, personne ne démonte ses partages réseaux (CIFS, NFS…) « proprement » avant d’éteindre son pc par exemple.

ssh -o ControlPath=$socket -O exit toto 2>/dev/null what ??

ssh -o ControlPath=$socket -O exit est la manière propre de fermer un socket, je vous invite à man ssh puis rechercher -O ctl_cmd. On peut également faire ssh -O exit cascador@monserveur.bogosse.net.

Pourquoi toto ? Parce que si j’avais mis autre chose (genre cascador@monserveur.bogosse.net), vous auriez pensé que la commande allait se connecter au serveur pour lui dire ferme le socket. La commande qu’on envoie ici est en local, le socket qu’on va exit est en local dans le dossier ~/.ssh/sockets/ MAIS la syntaxe d’une commande ssh étant ssh hostname au minimum, on est obligé de fournir un hostname sinon on aura une erreur. À noter que certains écrivent ssh -o ControlPath=$socket -O exit localhost, je trouve ça trompeur car on pourrait croire que localhost est la seule/bonne réponse alors que vous pouvez mettre indifféremment babar, troubadour, cunnilingus…

Autre subtilité faisons ssh -o ControlPath=/home/cascador/.ssh/sockets/socket-2416f65bfd78bq467a7887585sd1d4g456cc78e7 -O exit carambar. La commande s’exécute bien, on a le code retour 0 si on fait echo $? (code retour de la dernière commande) MAIS on a un message « Exit request sent » qui lui ne sort pas sur stdout mais stderr (d’où le 2>/dev/null). Ce qui veut dire qu’on peut avoir une commande qui s’exécute bien mais une sortie sur stderr. Je ne savais pas que c’était possible, ça se trouve c’est commun mais je n’avais jamais fait attention. Tout l’intérêt de creuser les choses, on découvre.

C’est bon là, t’as fini ?

Ouais c’est bon, j’espère avoir bien illustré la différence entre la documentation et la pratique. C’est en forgeant qu’on devient forgeron. Aujourd’hui j’utilise ça.

Host * ControlMaster auto ControlPath ~/.ssh/sockets/socket-%C ControlPersist 4h

À noter que vous n’êtes bien-sûr pas obligé d’utiliser ces options pour tous les serveurs, un dev qui met ces options pour sa connexion à son serveur de dev pour push/pull y aura déjà un intérêt.

Tcho !

Sources :
http://www.qanuq.com/2017/09/09/diminuer-temps-connexion-ssh/
https://developer.rackspace.com/blog/speeding-up-ssh-session-creation/
https://en.wikibooks.org/wiki/OpenSSH/Cookbook/Multiplexing
http://www.anchor.com.au/blog/2010/02/ssh-controlmaster-the-good-the-bad-the-ugly/
https://www.cyberciti.biz/faq/linux-unix-osx-bsd-ssh-multiplexing-to-speed-up-ssh-connections/
https://unix.stackexchange.com/questions/24005/how-to-close-kill-ssh-controlmaster-connections-manually
https://unix.stackexchange.com/questions/427189/how-to-cleanup-ssh-reverse-tunnel-socket-after-connection-closed

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Articles similaires

blog-libre : youtube-dl, récupérer les flux audio et vidéo de nombreux sites

youtube-dl sous licence Unlicense permet de télécharger les flux audio et vidéo de nombreux sites dont youtube, youporn, facebook, arte.tv, france.tv, tf1.fr, vimeo, twitch… En temps normal j’aurais fait une présentation plus soignée de youtube-dl mais Next INpact a publié un article complet que je vous invite à lire (comme je soutiens la presse de qualité et que je suis une grosse feignasse). Pour l’installation, go to Mémo installation packages.

À l’occasion de la diffusion de Internet ou la révolution du partage, faisons un focus sur les principales commandes et options à connaître pour utiliser cet outil.

Les options à connaître

-F, --list-formats : Lister tous les formats des flux audio et vidéo disponibles pour une URL
-r, --limit-rate : Limiter le débit du téléchargement (500K ou 3.5M par exemple)
-a, --batch-file : Fournir une liste d’URLs à télécharger via un fichier (une URL par ligne)
-i, --ignore-errors : Continuer si une erreur se produit lors d’un téléchargement, surtout utile quand on fournit une liste d’URLs à télécharger (--batch-file)
-o, --output : Nommer le fichier de sortie à partir de template, voir les exemples et la documentation
-x, --extract-audio : Extraire le flux audio
--audio-format : Spécifier le format audio de sortie (« best », « aac », « flac », « mp3 », « m4a », « opus », « vorbis », « wav », « best » par défaut)
--audio-quality : Spécifier la qualité audio de sortie (valeur entre 0 la meilleure et 9 la pire)
-f 'bestvideo[ext=mp4]+bestaudio[ext=m4a]/best[ext=mp4]/best' : Télécharger le meilleur format mp4 disponible ou le meilleur format disponible si le mp4 n’est pas disponible, voir les exemples et la documentation

Récupérer le son d’une vidéo

Une énorme quantité de clips et chansons sont présentes sur YouTube, vous avez envie d’avoir Je danse le Mia sous le coude ?

youtube-dl --extract-audio --audio-format m4a --audio-quality 0 --output "~/Musique/%(title)s.%(ext)s" https://www.youtube.com/watch?v=wf4YT-vsq_4

Vous obtiendrez ~/Musique/IAM - Je Danse le Mia (Audio officiel).m4a.

Récupérer une vidéo

Votre pêché mignon est Capitaine Marleau (comme moi) mais vous avez loupé celui de mardi soir (shit une rediff de la saison 1 !) ?

youtube-dl -f 'bestvideo[ext=mp4]+bestaudio[ext=m4a]/best[ext=mp4]/best' --output "~/Téléchargements/%(title)s.%(ext)s" https://www.france.tv/france-3/capitaine-marleau/saison-1/304197-en-trompe-l-oeil.html

Vous obtiendrez ~/Téléchargements/Capitaine Marleau - En trompe-l'oeil.mp4.

Récupérer une liste de vidéos

youtube-dl -f 'bestvideo[ext=mp4]+bestaudio[ext=m4a]/best[ext=mp4]/best' --output "~/Téléchargements/%(title)s.%(ext)s" --ignore-errors --batch-file '~/Téléchargements/Liste_dl.txt'

Vous obtiendrez… un paquet de vidéos. Vous pouvez vous passer de l’option --batch-file en renseignant plusieurs URLs sur la ligne de commande.

youtube-dl -f 'bestvideo[ext=mp4]+bestaudio[ext=m4a]/best[ext=mp4]/best' --output "~/Téléchargements/%(title)s.%(ext)s" --ignore-errors URL URL URL

Script et alias

Voici l’alias que j’ai dans ~/.bash_aliases (vous pouvez le mettre directement dans ~/.bashrc) : alias yt='screen -dm ~/Scripts/yt.sh'. Je remplis le fichier Liste_dl.txt des vidéos que je veux télécharger puis yt, le script yt.sh est alors lancé dans un screen.

#!/bin/bash sudo -H pip3 install --upgrade youtube-dl youtube-dl -f 'bestvideo[ext=mp4]+bestaudio[ext=m4a]/best[ext=mp4]/best' --output "~/Téléchargements/%(title)s.%(ext)s" --ignore-errors --batch-file '~/Téléchargements/Liste_dl.txt'

Téléchargements

youtube-dl reste mon outil attitré pour le contenu légal : replay, documentaire, vidéo, musique. J’utilise openpyn quand je fais du torrent ou du direct download. Pour le reste, il y a Netflix et Mastercard.

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Goffi : SàT 0.7.0 vient d'entrer en bêta

La version « 0.7.0 beta 1 » de Salut à Toi vient de sortir. En d'autres termes, nous venons de commencer la phase bêta, il n'y aura plus de nouvelles fonctionnalités (sauf ajustements mineurs), et maintenant il s'agit de se concentrer sur la stabilité, le débogage, et l'utilisabilité.

Pour mémoire, « Salut à Toi » est un écosystème de communication libre, décentralisé, et éthique. Il propose de nombreuses fonctionnalités (messagerie instantanée, chiffrement de bout en bout, blog, partage de fichiers, événements, forums, etc.), et fonctionne nativement sur bureau, appareils mobiles (Android), sur le web, et sans interface graphique (interface console et en ligne de commande).

C'est un soulagement de passer cette étape après l'énorme travail depuis la dernière version (0.6.1), sortie il y a plus de 2 ans 1/2 !

Maintenant c'est à vous de jouer, il faut tester, remonter les problèmes (sur https://bugs.goffi.org ou sur le salon du projet, aussi accessible via le web), et faire vos suggestions, c'est le moment !

Si vous connaissez Python, je cherche des personnes pour m'aider à rendre le project installable sur Windows, Mac OS et *BSD. Je travaille également sur un paquet flatpak. La partie web serait intéressante à avoir sur Yunohost, là encore de l'aide serait appréciée (cf. travail commencé).

Notez que SàT est déjà disponible sur Debian et probablement derivés (la bêta n'y est pas encore par contre), ainsi que sur Arch Linux (utilisez les paquets sat-*-hg pour tester la bêta).

Les instructions d'installation sont disponibles dans la documentation, et je travaille sur un nouveau site web qui en affichera un rendu plus agréable à lire, il devrait être en ligne dans la semaine.

Voici les liens pour les fichiers d'installation, et vous trouverez la plupart d'entre eux sur Pypy (notez que vous devez parcourir « release history » pour voir la version bêta) :

Je fini avec une capture d'écran de la version Android de Cagou, notez que ce blog est également fait avec ce projet :

capture d'écran de Cagou v0.7.0b1 sur Android

Gravatar de Goffi
Original post of Goffi.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #18

Pour la 18ème semaine de l'année 2019, voici 10 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

Full Circle Magazine FR : Le 143 est prêt pour vous

Bonjour !

Notre très petite équipe BÉNÉVOLE est heureuse de pouvoir vous présenter le numéro 143, celui de mars 2019, en français, malgré les vacances et plein d'autres choses à faire. Nous serions très heureux d'accueillir de nouveaux membres dans l'équipe. Même si vous ne pratiquez pas l'anglais, n'hésitez pas à vous joindre à nous pour les relectures. Malheureusement pour nous - et heureusement pour vous - nous sommes des perfectionnistes ; nous exigeons trois lectures de chaque version du PDF pour vérifier les articles, puis les corrections, puis les problèmes occasionnés par les corrections. Mais, pas d'inquiétude, chacun fait ce qu'il veut quand il peut le faire... d'où notre retard...

Vous pouvez télécharger ou visionner le numéro 143 sur notre page NUMÉROS ou le récupérer directement en cliquant sur l'image ci-dessous.

issue_143.png

Vous y trouverez, notamment :

  • Des tutoriels - Python, Freeplane, Darktable et Inkscape ;
  • Une nouvelle série sur le BSD, ce que c'est et pourquoi ce n'est pas Linux :
  • Des critiques - celui d'un livre qui s'appelle Practical Binary Analysis (un must pour les administrateurs, paraît-il) et celui du jeu This is the Police 2 ;
  • Un entretien avec Simon Quigley qui, à seize ans, est l'un des développeurs principaux de Lubuntu et
  • La partie trois de la série sur les RGPD dans la rubrique Mon opinion.

Enfin, il y a presque toutes les bonnes choses habituelles comme la rubrique Q. ET R., 16 pages d'Actus, une présentation de l'OTA-8 d'UBports Touch, et pas un, mais DEUX dessins du pingouin !

Nous vous en souhaitons bonne lecture.

Notre équipe ne demande qu'à grandir. Pour l'instant, il y a Bab, notre scribeur qui fait aussi des relectures, et d52fr et moi, AuntieE, qui faisons des traductions et des relectures.

Gravatar de Full Circle Magazine FR
Original post of Full Circle Magazine FR.Votez pour ce billet sur Planet Libre.

Articles similaires

RaspbianFrance : Raspberry Pi, comment booter sur une clé USB ou un disque dur externe.

Démarrer la Raspberry Pi sur clef USB.

Comme vous le savez, la Raspberry Pi utilise une carte micro SD à la place d’un disque dur. C’est bien pratique niveau encombrement et prix, mais les cartes SD finissent par s’abîmer à force de multiplier les opérations de lecture et d’écriture.

Pour limiter l’usure de votre carte SD une solution simple est de configurer votre Raspberry Pi pour démarrer sur un périphérique de stockage USB, que ce soit une clef ou un disque dur.

Dans ce tutoriel, nous allons donc voir en quelques minutes comment faire booter votre Raspberry Pi sur une clé USB ou un disque dur externe.

La matériel nécessaire

Pour réaliser cette opération , vous aurez besoin du matériel suivant (cliquez sur un lien pour voir son prix chez Amazon) :

Autoriser la raspberry pi à booter sur une clé USB

Maintenant que vous avez l’ensemble du matériel nécessaire, vous allez devoir commencer par installer Raspbian sur votre carte SD. Pour cela, nous vous renvoyons à notre article pour installer Raspbian depuis Windows, ou depuis Linux.

Raspbian installé sur votre carte microSD, répétez l’opération en installant cette fois-ci Raspbian sur votre clef USB/disque dur. Une fois fini, débranchez la clef USB/disque dur.

Une fois les deux installations terminées, connectez la carte SD à votre PC et rendez vous dans la partition boot de la carte (la seule accessible depuis Windows, normalement) pour éditer le fichier config.txt et rajouter à la fin du fichier la ligne suivante :

program_usb_boot_mode=1

Sauvegardez le fichier, puis insérez la carte micro SD dans votre raspberry pi et démarrez la (insérez seulement la carte SD, pas la clef USB/disque dur). Normalement une fois démarrée, la raspberry pi va automatiquement se configurer pour à l’avenir démarrer sur la clé USB.

Pour vérifier que tout est bon, on peut regarder le registre 17 de l’OPT (One-Time programmable qui désigne la mémoire morte qui ne peut être programmée qu’une seule fois). Pour cela on utilise la commande suivante :

vcgencmd otp_dump | grep 17

La raspberry pi doit nous retourner : 17:3020000a. Si ce n’est pas le cas, c’est que vous avez mal effectué une étape précédente et que vous devez recommencer la création de la carte.

Vous pouvez maintenant éteindre votre Raspberry Pi, sortir votre carte micro SD et insérer votre clef USB/disque dur avec Raspbian installé.

Il ne vous reste plus qu’à brancher votre Raspberry Pi, le démarrage va prendre quelques secondes, et ça y est, votre Raspberry Pi boot depuis votre clef USB !

Lire l'article complet : Raspberry Pi, comment booter sur une clé USB ou un disque dur externe.

Gravatar de RaspbianFrance
Original post of RaspbianFrance.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Syspatch : patch IPv6 - rip6cksum - multi-arch - 6.3+6.4+6.5

L'équipe OpenBSD nous livre ce matin un nouveau correctif en rapport avec IPv6 :

- nommé "rip6cksum" : Si un programme utilisateur définit le décalage de somme de contrôle IPv6 sur un socket brut, un paquet entrant peut planter le noyau. C'est le cas d'un programme, tel que ospf6d.


Le redémarrage de votre machine est nécessaire, car cela affecte le noyau.

Architectures concernées : amd64, arm64 et i386

* Note : Ce patch sera le dernier pour OpenBSD 6.3, et est le premier de la livrée pour 6.5 !

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Pages