Planet Libre

Dimitri Robert : Mémo Shotcut : débuter dans le montage vidéo

Le 31 mai dernier, j’animais ma première formation dédiée au montage vidéo avec le logiciel libre Shotcut. J’ai donc produit un mémo Shotcut pour synthétiser les bases avec un peu de théorie sur la vidéo en général.

C’est sommaire, c’est une version 0.1, comme on dit quand on met à disposition la première mouture d’un logiciel. Ça ne demande qu’à être amélioré.

Et prochainement je publierai des articles et vidéo sur le montage vidéo et Shotcut en particulier. Shotcut n’est pas le meilleur logiciel de montage vidéo, mais il est simple, multi-plateforme et vous permet de démarrer facilement. Nul doute qu’avec un peu de pratique vous aurez envie de faire plus de choses et de vous tourner vers Kdenlive ou Blender.

Enfin, un grand merci à l’Urfist de Lyon qui m’a fait confiance pour l’animation de cette formation !

Voici à nouveau le lien pour télécharger le mémo Shotcut (au cas où vous l’auriez raté plus haut).

L’article Mémo Shotcut : débuter dans le montage vidéo est apparu en premier sur Formation logiciel libre.

Gravatar de Dimitri Robert
Original post of Dimitri Robert.Votez pour ce billet sur Planet Libre.

Renault : [F29] Participez à la journée de test consacrée au noyau Linux 4.17

Aujourd'hui, ce mardi 12 juin, est une journée dédiée à un test précis : sur le noyau Linux 4.17. En effet, durant le cycle de développement, l'équipe d'assurance qualité dédie quelques journées autours de certains composants ou nouveautés afin de remonter un maximum de problèmes sur le sujet.

Elle fournit en plus une liste de tests précis à effectuer. Il vous suffit de les suivre, comparer votre résultat au résultat attendu et le notifier.

En quoi consiste ce test ?

Le noyau Linux est le cœur du système Fedora (et des autres distributions GNU/Linux). C'est le composant qui fait le lien entre les logiciels et le matériel. C'est lui qui permet aux processus de travailler ensemble sur un même ordinateur et de pouvoir utiliser les périphériques (à travers des pilotes) disponibles sur chaque machine.

C'est donc un composant critique et il est nécessaire de s'assurer qu'il fonctionne. Notons par ailleurs que l'équipe des mainteneurs du noyau chez Fedora ont décidé de faire une journée de tests systématique après la sortie d'un nouveau noyau !

Les tests du jour couvrent :

  • L'exécution des tests automatisés par défaut et ceux de performances ;
  • Vérifier que la machine démarre correctement ;
  • Vérifier que le matériel est bien exploité (affichage, claviers, souris, imprimantes, scanners, USB, carte graphique, carte son, webcam, réseau filaire et wifi, etc.)
Comment y participer ?

Vous pouvez vous rendre sur la page des tests pour lister les tests disponibles et rapporter vos résultats. La page wiki récapitule les modalités de la journée.

Si vous avez besoin d'aide lors du déroulement des tests, n'hésitez pas de faire un tour sur IRC pour recevoir un coup de main sur les canaux #fedora-test-day et #fedora-fr (respectivement en anglais et en français) sur le serveur Freenode.

En cas de bogue, il est nécessaire de le rapporter sur le BugZilla. Si vous ne savez pas faire, n'hésitez pas à consulter la documentation correspondante.

De plus, si une journée est dédiée à ces tests, il reste possible de les effectuer quelques jours plus tard sans problème ! Les résultats seront globalement d'actualité.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

elementary OS : Maintenance du forum

Bonjour à toutes et tous,

Nous allons réaliser dans l'après-midi une opération de maintenance sur le forum. Il sera volontairement mis en lecture seule le temps de notre opération. Nous vous préviendrons dés que celui-ci sera opérationnel.

The post Maintenance du forum appeared first on elementary OS Fr.

Gravatar de elementary OS
Original post of elementary OS.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #23

Pour la 23ème semaine de l'année 2018, voici 12 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

Eddy33 : Fedora 28 vs Fedora 27 : comparaison des performances pour les versions 64 bits

Salut.

Voici les résultats comparatifs de Fedora 28 vs Fedora 27.

Pour rappel, ma machine est équipée d'un Quad Core Intel Q6600 à 2,4 GHz avec 4 Go de RAM.

Je me suis limité au benchmark UnixBench qui fournit un indice global, ce qui me simplifiera la comparaison. La version UnixBench utilisée est la version 4.1.0.

Mon protocole de tests est le suivant :
  • Installation de Fedora 28 version 64 bits avec le noyau Fedora 4.13.9-300.fc27.x86_64.
  • La machine est placée en niveau 3 (init 3).
  • 10 séries de tests avec UnixBench compilé sous Fedora 28 et exécuté sous Fedora 28 (4.16.3-301.fc28.x86_64).
  • 10 séries de tests avec UnixBench compilé sous Fedora 27 et exécuté sous Fedora 27 (4.13.9-300.fc27.x86_64).
Voici les résultats obtenus :
Fedora 28 version 64 bits : Série 1 : 641.7
Série 2 : 648.2
Série 3 : 634.5
Série 4 : 637.1
Série 5 : 641.8
Série 6 : 639.5
Série 7 : 645.3
Série 8 : 606.9
Série 9 : 632.4
Série 10 : 641.5

Moyenne : 636,9
Fedora 27 version 64 bits : Voici pour rappel les résultats obtenus avec Fedora 27 :Série 1 : 963.4
Série 2 : 997.7
Série 3 : 994.7
Série 4 : 975.2
Série 5 : 984.4
Série 6 : 991.7
Série 7 : 645.3
Série 8 : 1005.1
Série 9 : 998.7
Série 10 : 1003.6

Moyenne : 990,7Résultats : Pour Fedora 28, on obtient un indice moyen de 636,9 pour UnixBench.
Pour Fedora 27, j'avais obtenu un indice moyen de 990,7 pour UnixBench.


On a donc une baisse de 35,7 % de Fedora 28 64 bits par rapport à Fedora 27 64 bits :

perfs_fedora_F27.png

Conclusion :
Au moment de ces tests, le noyau Fedora 28 (basé sur le noyau vanilla 4.16.3) est nettement moins performant que le noyau Fedora 27 (basé sur le noyau vanilla 4.13.9). Si l'on regarde les différences entre les 2 versions, on s'aperçoit que les indices sur les copies de fichier, le débit dans un pipe et l'overhead sur un appel système sont nettement moins bons pour Fedora 28 que Fedora 27. A suivre...
++

Gravatar de Eddy33
Original post of Eddy33.Votez pour ce billet sur Planet Libre.

Articles similaires

nIQnutn : Masquer des utilisateurs dans GDM

Il est parfois utile de masquer des utilisateurs dans le gestionnaire de connexion, ça évite d'avoir une liste d'utilisateur à n'en plus finir ou inutile.

Pour GDM (le gestionnaire de connexion par défaut de Gnome), il faut modifier un fichier de configuration.

On commence donc par lister les fichiers utilisateurs présents dans le dossier /var/lib/AccountsService/users/

[codeUser]ls /var/lib/AccountsService/users/[/codeUser]

Pour l'utilisateur que l'on souhaite masquer sur GDM, il suffit d'éditer son fichier de configuration. S'il n'existe pas, il faudra le créer:

[codeRoot]touch /var/lib/AccountsService/users/[/codeRoot]

Avec l'éditeur de texte, on peut effectuer les modifications

[codeRoot]nano -B /var/lib/AccountsService/users/[/codeRoot] [codeFile fichier="/var/lib/AccountsService/users/"][User] SystemAccount=true[/codeFile]

Il peut être nécessaire de redémarrer l'ordinateur pour que les modifications soient prises en compte.

By nIQnutn

Gravatar de nIQnutn
Original post of nIQnutn.Votez pour ce billet sur Planet Libre.

blog-libre : Quelques réflexions autour de l’externalisation des sauvegardes

Sebsauvage a publié sur son wiki sa recherche d’un petit cloud perso pour y stocker des données personnelles (2 To).

Une majorité d’entre nous fait ses sauvegardes sur un disque dur interne/externe ou sur un NAS. Données et sauvegardes sont situées au même endroit physique, il peut arriver un événement rare (mais pas impossible) comme un incendie ou un cambriolage => gros fail. On en conclue qu’on a besoin d’externaliser nos sauvegardes.

Identifier et formaliser

Il faut vraiment prendre le temps d’identifier et formaliser. Prenons le cas de Sebsauvage.

Public visé : Informaticien
Ressources et moyens : Connaissances en informatique et Lignux, usage de BorgBackup, prêt à payer pour son besoin
Contexte : Personnel pas professionnel (environnement), pas urgent (délai), assez important (priorité), actuellement chez hubiC (analyse de l’existant)
Besoin : Avoir un système de sauvegarde efficace (et pas simplement “faire des sauvegardes”) pour 2 To de données
Corollaires : Identifier les outils pour effectuer des sauvegardes, restaurer les données, tester la restauration des sauvegardes, externaliser les sauvegardes
Contraintes : Coût limité (typiquement pas plus de 10 euros par mois), accès par protocole ouvert (ssh/sftp/ftp/webdav/rsync…)
Tolérance : Se moque des performances et de la disponibilité
Idéal : Le moins coûteux possible (argent et temps), principe KISS
Inconnus : Pas d’information sur la volumétrie de données à envoyer ni sur le planning (récurrence/fréquence) des sauvegardes ni sur leurs utilisations

Ce que je viens d’écrire est relativement simple mais on a grandement précisé les choses via 4 axes :

  • Situation de base : Public visé, ressources et moyens, contexte
  • Besoin : Besoin et corollaires, ce dernier étant souvent oublié
  • Attentes : Contraintes, tolérance (marge de manœuvre), idéal
  • Inconnus : Il est très rare d’avoir toutes les informations en main, souvent même les principaux intéressés ne savent pas

On fournit une solution par rapport à un public, des ressources et des moyens à disposition, un contexte et un besoin. Sauvegarder 50 Go ou 2 To, ce n’est pas le même besoin donc le même problème à résoudre. De même un débutant n’aura pas les mêmes connaissances en informatique qu’un informaticien, une entreprise n’aura pas les mêmes moyens qu’un particulier. Il est nécessaire d’adapter la solution à chaque cas.

On cherche à faire des sauvegardes (niveau 1) puis ensuite à avoir un système de sauvegarde efficace (niveau 2). Il y a une logique de progression mais aussi de priorités. Avant de penser à externaliser, il faut que votre processus “faire des sauvegardes” soit rodé et satisfaisant. Je vous renvoie à la règle des 3-2-1.

Considérer les solutions

Je ne vais me concentrer que sur les principaux inconvénients d’externaliser ses données personnelles dans le cloud en me basant sur le cas de Sebsauvage (je vous invite fortement à lire son article avant les lignes ci-dessous) :

  • Idéalement il faut une fibre, au minimum une “bonne” connexion ADSL parce que 2 To il faut pouvoir les uploader déjà
  • On devient tributaire d’un tiers, ce tiers (société, CHATONS, association…) peut fermer, revoir ses offres, bannir l’utilisateur ou une utilisation précise qui ne lui conviendrait pas et il est soumis à la législation de son pays
  • Le chiffrement logiciel est une obligation pas une option, le chiffrement matériel n’est pas possible
  • La disponibilité des données peut varier : 1/ Suivant où on se trouve sur le globe et notre connexion, on mettra plus ou moins de temps à récupérer les données 2/ Les données sont “gelées” (stockage froid), on peut les “dégeler” avec un délai de quelques minutes à plusieurs heures
  • Il faut accepter de confier ses données à un tiers. Je ne souhaite pas envoyer les photos de mes proches même chiffrées dans un cloud. Pour rappel le chiffrement ne fait que rendre suffisamment coûteux en temps et ressources l’accès aux données. Dans 10 ans il est probable que les algorithmes de chiffrement qu’on utilise aujourd’hui seront dépréciés et que l’on pourra à un coût raisonnable (délai et puissance) déchiffrer les données
  • Vérifier l’intégrité des données reçues sur le cloud du tiers est coûteux : Temps, éventuellement argent si c’est le paiement à l’usage qui est utilisé
  • Le paiement à l’usage tend à se généraliser mais ne soyez pas dupes, ce qu’on gagne en économie, on le perd en compréhension, visibilité et prévision des coûts. D’ailleurs on constate un glissement lexical de prévision des coûts à simulation/estimation des coûts. C’est complexe (adieu simplicité) et également trompeur (adieu confiance) mais en effet ça s’adapte et répond à vos besoins au plus près. L’exemple donné par Sebsauvage, stockage : 0,0024€ TTC/Go/mois, transfert (upload ou download) : 0,0138€ TTC/Go. J’adore donner la page pricing de Amazon Glacier : Tarification du stockage en fonction de la région, du transfert de données entrantes ou sortantes, “Sauf indication contraire, nos prix n’incluent pas les taxes et redevances applicables, y compris la TVA et les taxes de vente applicables”, etc. N’oubliez pas que souscrire à une offre ferme genre 10€ par mois pour 2 To, c’est également une limite pour vous. Lorsque vous atteignez les 2 To, vous serez informés/bloqués. Contrairement au paiement à l’usage où le principe est justement que vous n’êtes plus limités, on vous fournit ce que vous avez besoin sans changement d’offre simplement en se calquant sur votre usage/consommation. Consommez, consommez mes petits, moins vous vous en souciez, plus ça vous coûte cher. CB renseignée et prélevée automatiquement avec des coûts fluctuants… ça peut faire des étincelles
  • Le plus grave à mon sens et le résultat de ces points : Les tests de restauration ne seront quasiment jamais effectués et la restauration des données sera longue et complexe

A présent je vais proposer une autre solution que je vais nommer “solution locale” :

  • Sebsauvage prend 2 DD externe de 2 To en USB 3.0, coût 160 euros. A titre indicatif et selon son comparatif l’offre la moins chère (paiement à l’usage) de la “solution cloud” se situe à 57.6€ TTC/an pour 2 To
  • Il utilise pour “faire des sauvegardes” BorgBackup qui gère la rotation, compresse, chiffre. Pas besoin d’utiliser un nouvel outil, il suffit de brancher le DD externe sur le pc/serveur
  • Il branche le premier DD externe sur le pc/serveur chez lui le week-end, la sauvegarde s’effectue avec un cron. Le lundi il prend ce DD et le dépose dans son tiroir/bureau/casier en arrivant au boulot. Il prend le second DD dans son tiroir/bureau/casier qu’il ramène chez lui un soir puis il branche ce DD sur le pc/serveur
  • Il peut remplacer boulot par parents/enfants/famille/potes
  • Il fait ce qu’il veut avec ses cheveux données notamment vérifier l’intégrité des données, chiffrement matériel, faire des tests de restauration plus simplement et régulièrement, dupliquer sur un DD plus volumineux, fournir à un proche un moyen simple de récupérer ses données suite à son décès…
Inconnus, données actives et inactives

Il y a potentiellement un gros fail dans cette solution, ça correspond aux inconnus, on ne connaît pas l’utilisation de ses données. Sebsauvage a-t-il besoin de restaurer/récupérer régulièrement les données de ses sauvegardes ?

On va différencier 3 types de données :

  • La donnée active “fraiche” qu’on synchronise et qu’on sauvegarde. Je considère la donnée comme fraiche dans une période de 15 jours après sa création ou dernière modification. Ça sera par exemple le dossier /home/Documents
  • La donnée active “chaude” qu’on sauvegarde. Typiquement /home
  • La donnée inactive “froide” qu’on archive. Sebsauvage est probablement dans ce cas-là, il n’aura pas besoin de ses photos de vacances 2015 tous les jours, on peut les mettre sur un HDD puis le ranger dans un placard. Ce sera plus long à ressortir et lire mais après tout l’accès à cette donnée est très peu fréquent

Ce que l’on vient de faire là, c’est analyser plus finement le cas d’utilisation et les besoins de Sebsauvage. On les a passé sous une loupe et on a augmenté notre champ lexical : fréquence (régulièrement, tout le temps, une fois de l’an ?), accès (rapide, lent, de partout ?), utilisation (lecture, écriture, partagée ?).

Mon besoin

J’ai sensiblement le même besoin que Sebsauvage à la différence notable que j’ai besoin d’inclure une synchronisation des données.

J’ai un pc portable (pour mes déplacements/interventions), un pc fixe perso à mon domicile, un pc fixe pro au bureau. Lorsque je travaille quelque part, j’ai besoin de récupérer les données sur les autres postes. ATTENTION UNE SYNCHRONISATION N’EST PAS UNE SAUVEGARDE. J’écris un texte dans un document, il se synchronise sur les autres postes, je supprime ce texte, il se synchronise sur les autres postes, je perds donc mon texte. Dans le monde proprio l’outil de synchronisation par excellence s’appelle Dropbox, dans le monde libre c’est Syncthing dont le fonctionnement est distribué. Syncthing a mauvaise presse pour deux raisons : 1/ Sa relative complexité (que je confirme) liée au fait que c’est un outil pointu, puissant, souple 2/ Les ressources qu’il consomme, ça tombe bien c’est réglé depuis quelques semaines.

A présent ma solution nommée sobrement “solution maison” :

  • Mes 3 postes sont synchronisés sur le “nœud” principal Syncthing qui est le Raspberry Pi de mon domicile auquel j’ai ajouté une clé USB pour éviter l’usure de la carte SD et avoir un espace disque convenable. L’intérêt du Pi est qu’il est toujours allumé, disponible, peu énergivore et suffisant
  • Mes données actives fraiches (que j’utilise le plus, les plus importantes) sont synchronisées grâce à Syncthing en permanence. Pour perdre mes données, il faudrait que je perde l’accès aux 4 nœuds (quasi-impossible) : J’ai mon pc portable avec moi en déplacement, mon pc fixe et le Pi à la maison, mon pc fixe boulot au bureau
  • Il n’y a cependant pas que la perte de données mais également la corruption, modification inopportune ou suppression de données à prendre en compte. Syncthing propose le versioning des fichiers. Des crons déclenchent la sauvegarde des données sur DD interne sur mon pc fixe domicile ET mon pc fixe bureau me permettant d’avoir deux jeux de sauvegarde à des endroits différents
  • J’ai 2 DD externe. Je branche le premier DD externe sur mon pc chez moi le week-end, la sauvegarde s’effectue avec un cron. Le lundi je prends ce DD et le dépose au boulot. Je prends le second DD que je ramène chez moi le soir
  • Je fais ce que je veux avec mes données, librement… pas de tiers, pas de coûts cachés, KISS, moins coûteux et plus sûr qu’une “solution cloud”
Votre besoin

Je ne viens pas de vous donner une solution générique, chaque cas est particulier. En revanche je vous ai fourni les informations, les termes, les pistes, le cheminement si vous voulez apprendre, comprendre…

A noter que pour aller au fond des choses, on devrait utiliser des outils de sauvegarde différents. Borg d’un côté, restic de l’autre prévenant ainsi une erreur humaine ou un bug sur l’un des deux outils. On peut évidemment mixer les solutions présentées dans ce billet, c’est même recommandé pour appréhender les différentes possibilités.

J’ai pris des libertés sur certains concepts car j’essaie de vulgariser, merci de ne pas m’injurier dans les commentaires ;)

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Élections pour le FESCo cette semaine

Après les élections du Mindshare et du Council qui se sont conclues cette nuit, voici le tour du FESCo d’ouvrir sa période de vote aujourd’hui pour une semaine aussi.

Chaque candidat a bien sûr un programme et un passif qu'ils souhaitent mettre en avant durant leur mandat pour orienter le projet Fedora dans certaines directions. Je vous invite à étudier les propositions des différents candidats pour cela.

J'ai voté

Pour voter, il est nécessaire d'avoir un compte FAS actif et de faire son choix sur le site du scrutin. Vous avez jusqu'au jeudi 13 juin à 2h heure française pour le faire. Donc n'attendez pas trop.

FESCo

Le FESCo (Fedora Engineering Steering Committee) est un conseil entièrement composé de membres élus et totalement dévoués à l'aspect technique du projet Fedora.

Ils vont donc traiter en particulier les points suivants :

  • Les nouvelles fonctionnalités de la distribution ;
  • Les sponsors pour le rôle d'empaqueteur (ceux qui pourront donc superviser un débutant) ;
  • La création et la gestion des SIGs (Special Interest Group) pour organiser des équipes autour de certaines thématiques ;
  • La procédure d'empaquetage des paquets.

Le responsable de ce groupe est tournant. Les 9 membres sont élus pour un an, sachant que chaque élection renouvelle la moitié du collège.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Devenir SysAdmin d'une PME - Les sauvegardes- Billet n°4

Ce billet fait partie de la série :
-Devenir SysAdmin d'une PME, retour d'expérience - Billet n°0
-Devenir SysAdmin d'une PME - Gestion du legacy- Billet n°1
-Devenir SysAdmin d'une PME - Mineur de bitcoin- Billet n°2
-Devenir SysAdmin d'une PME - Accepter de ne pas avoir le contrôle sur tout- Billet n°3

Introduction

Les sauvegardes... Ah les sauvegardes... Depuis que j'ai eu mon premier ordinateur et que j'ai perdu des données, j'ai appris très rapidement à faire des sauvegardes. Car il y a deux types d'administrateurs systèmes "celui qui a déjà fait un rm -rf /* et celui qui le fera".

J'ai écrit quelques billets au cours des années sur ce sujet, pour aider à savoir quoi sauvegarder etc. je vous mets la liste des principaux billets ici :
-A.I.2 - Qu'est ce que je dois sauvegarder ?
-Sauvegarde la règle des 3-2-1
-L'importance des sauvegardes...
-Sauvegarde et restauration

Dans ce billet, je voudrais parler de quelques trucs sympa sur les sauvegardes.

Borg pour la sauvegarde des fichiers

Nombreux sont les outils pour les sauvegardes de fichers, des scripts maisons à base de rsync en passant par des outils plus évolués comme Duplicty, Rdiffbackup... Dans un précédent billet, j'évoquais Borg comme outil de sauvegarde. Avec les semaines, je reste persuader et convaincu que Borg est l'outil idéal et permet de faire, d'une façon simple, des sauvegardes des fichiers (on exclue le cas des bases de données qui sera traiter dans un billet ultérieur). Et je ne suis pas le seul à le dire. Cet article Sauvegarder ses machines avec Borg et Backupninja présente par exemple les avantages de Borg Contrairement à rdiff-backup qui a un algorithme basé sur rsync et fonctionne par incrémentation de version en version (ce qui interdit notamment de supprimer une version intermédiaire), BorgBackup utilise une technique de déduplication de morceaux (chunks). Au lieu de travailler par fichiers, il concatène (et compresse) tout ce qu'il y a à sauvegarder, pour le stocker par morceaux de 50Mo. Sans rentrer dans les détails, les intérêts sont multiples...

Le but de cette partie n'est pas de faire un tutoriel sur Borg, mais de parler de mon retour d'expérience sur le sujet en quelques mots. Je l'utilise au quotidien pour mes sauvegardes de mon poste professionnel mais également pour différents serveurs. C'est rapide, simple et efficace, pour gérer des sauvegardes de plusieurs gigas en sauvegarde chaque jour (avec peu de fichiers modifiés), ça prends quelques dizaines de secondes. Pour le cas des serveurs, j'ai mis en place un script shell on ne peut plus basique, qui fait appel à Borg. Un script du type de celui-ci est placé en tâche cron lancé chaque nuit. Si besoin, l'avantage de Borg est que l'on peut même faire une tâche cron qui se lance toutes les heures pour avoir une sauvegarde des fichiers toutes les heures. Ca ne prendra pas beaucoup de place et on aura toutes les sauvegardes dont on pourrait avoir besoin...

# on se place dans le répertoire ou l'on veut sauvegarder, qui est un montage d'un espace de stockage dédié partagé par SSH, monté en SSHFS
cd /Backup
# on lance la sauvegarde par borg qui s'effectue par un incrémental
borg create -v --stats ./::`date +%Y-%m-%d-%H:%m:%S` /le_dossier_a_sauvegarder --show-rc -v >> /tmp/mailreport.txt 2>&1

# Purge des anciennes sauvegardes, on garde sur 7 jours, 1 par semaine pendant 4 semaine, 1 par an
borg prune -v --list --keep-daily=7 --keep-weekly=4 --keep-monthly=-12 .

# Pur avoir la liste des sauvegardes dans le mail de rapport de la sauvegarde
echo -e "Liste des Sauvegardes\\n" >> /tmp/mailreport.txt
borg list . >> /tmp/mailreport.txt

# envoie du rapport par courriel
sendemail -f expediteur@domaine.com -u "Sauvegarde du serveur XXXX - Daily Report" -t destinataire@domaine.com -s smtp.domaine.com -o message-file=/tmp/mailreport.txt

Pour répondre à la règle des 3, 2, 1, il faut donc avoir une copie externalisée qui est une copie / réplication de l'espace de stockage qui reçoit toutes les sauvegardes. A voir ce que l'on met en place : disque répliqué à l'identique, service de stockage haute-disponibilité...

Sauvegarde de la configuration

Pour l'instant, ce que je fais, c'est un export via Scp de tout /etc des différents serveurs avec la remontée des fichiers de configuration dans un dossier nommé selon le serveur dans un projet dédié dans un Gitlab. Ca se scripte assez bien pour avoir le scp, un git commit... Je fais au plus facile pour l'instant mais je pense. Pourquoi pas Borg ? Car git permet d'avoir l'historique et de comparer facilement les fichiers là où Borg permet de conserver l'ensemble d'une arborescence à un instant t, une sorte de snapshot, mais il faudrait montrer plusieurs sauvegardes pour faire les comparaisons fichier à fichier..

Je réfléchis à la mise en place d'un outil comme Etckeeper pour avoir une autre automatisation, il faut encore que j'étudie ça.
etckeeper est un système conçu pour suivre la configuration d'une machine (répertoire /etc, d'où le nom) à l'aide d'un gestionnaire de versions(par exemple Git).
Deux tutoriaux sur le sujet :
-Etckeeper sur le site de l'association Grenode
-Etckeeper sur le blog Syloe.com

Sauvegarde des bases de données

Du classique, un script, une tâche cron pour faire un export Dump sur un espace de stockage... Je pense que je développerai ce sujet dans un billet une prochaine fois.

Une sauvegarde complète (un snapshot par exemple pour une VM) et des sauvegardes régulières des éléments changeants

Snapshots

Dans mon billet Devenir SysAdmin d'une PME - Gestion du legacy- Billet n°1, je parlais de machines virtuelles sur des hyperviseurs. Je gère ces machines virtuelles comme des serveurs et j'applique donc au fur et à mesure l'homogénéisation de la sauvegarde en mettant Borg en place partout.
Il est important de pouvoir remonter rapidement un service et avec une V.M., c'est assez simple. Un snapshot régulier (je travaille à scripter l'automatisation et la rotation de ces snapshots sur Xen, je ferai un billet sur le sujet), le delta de la VM correspondant à ce qui est sauvegarder de façon journalière. Je n'ai donc qu'à restaurer la VM, à réappliquer les mises à jours de l'OS, éventuellement restaurer les données et les fichiers de configuration et tout est bon.

A noter que je ne considère pas le snapshot comme une sauvegarde mais comme un complément de sauvegarde. Le snapshot ne suffit pas comme la sauvegarde ne suffit pas. Si il faut réinstaller tout une machine avec tous les services... Quoiqu'avec le tournant qu'apporte le Devops et la gestion en mode PAAS, la création de VM à la demande et l'industrialisation à venir... Bref, encore plein d'autres sujets à aborder dans les prochaines semaines et prochains mois... A suivre.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Goffi : Vers une forge décentralisée basée sur XMPP

Avec la récente annonce concernant le changement de propriétaire de la plus grosse forge centralisée connue, on a vu resurgir ici et là des questionnements sur la création d'un outil similaire mais décentralisé.

J'ai profité de l'occasion pour rappeler le travail effectué pour implémenter tickets et requêtes de fusion (« merge requests ») dans Salut à Toi (SàT), travail qui était passé relativement inaperçu quand j'ai écrit à ce sujet, il y a 6 mois.

Désormais je souhaite apporter quelques précisions sur le pourquoi de ces outils.

Tout d'abord pourquoi pas la grosse forge ? Après tout une importante partie des logiciels libres actuels l'utilise déjà !
D'une part parce que ce n'est pas libre, et nous nous sommes engagés dans notre contrat social à utiliser tant que possible des logiciels libres, y compris pour l'infrastructure. D'autre part parce que c'est centralisé, et là encore notre contrat social est clair à ce sujet, même si c'est moins essentiel pour l'infrastructure que pour SàT lui-même. Enfin parce que nous utilisons à l'heure actuelle Mercurial, et que la forge la plus connue est construite autour de Git.
Ne cachons pas toutefois que nous nous sommes déjà posés la question notamment en assemblée générale (cf. les comptes rendus), nous étions intéressés en particulier par la visibilité.

« C'est centralisé ? Mais « Git » est décentralisé ! » est une réflexion que l'on entend souvent et elle est vraie, Git (et Mercurial, et d'autres) est décentralisé. Mais une forge n'est pas le gestionnaire de version, c'est tous les outils autour : hébergement, tickets, gestion des modifications (merge/pull requests), commentaires, wikis, etc. Et ces outils là ne sont pas décentralisés à l'heure actuelle, et même s'ils sont souvent accessibles par des API spécifiques aux services, ils restent soumis aux lois de la centralisation, c'est-à-dire du service qui héberge (et des aléas techniques de ce service). Cela veut également dire que si le service ne veut pas d'un projet, il peut le refuser, l'effacer, le bloquer.

La centralisation, c'est aussi la facilité pour cataloguer et rechercher… pour les projets qui sont sur ce service. Rendant de facto toute tentative extérieure moins visible et donc augmentant ses difficultés. C'est une situation que nous connaissons bien avec Salut à Toi (nous sommes également absents des « réseaux sociaux » propriétaires et centralisés pour les mêmes raisons), et que nous jugeons inacceptable. Il va sans dire que se concentrer sur une plateforme ne fait qu'encourager et prolonger cet état de fait. Notons tout de même qu'il n'est pas question ici de dénigrer ceux qui ont fait des choix différents, ces réflexions étant liées à notre implication politique forte et les contraintes changent d'un cas à l'autre.

Pourquoi, alors, ne pas utiliser des projets libres existants, avancés et fonctionnels comme Gitlab ? D'une part parce que nous travaillons avec Mercurial et non Git, et d'autre part parce que nous serions là aussi dans la centralisation. Il y a une autre raison : c'est qu'il n'existe pas ou peu (Fossil peut être ?) de forges décentralisées, et nous avons déjà tout ce qu'il nous faut avec SàT et XMPP. Et puis il y a un certain plaisir à créer les outils qui nous manquent.

SàT se veut un écosystème complet, offrant la majeure partie si ce n'est tous les outils nécessaires pour s'organiser et communiquer. Mais il est aussi générique et réutilisable. C'est pourquoi le système de « merge requests » n'est pas lié à un outil particulier (Git ou Mercurial), il peut être utilisé avec d'autre logiciels, et n'est d'ailleurs par réservé au développement de code. C'est une autre brique qui sera utilisée là où ça sera utile.

Pour conclure, je rappelle que si vous voulez voir une alternative décentralisée, éthique et engagée pour construire nos logiciels, nous organiser et communiquer, on peut la rendre possible en coopérant et contribuant, que ce soit avec du code, de la conception graphique (design), des traductions de la documentation des tests, etc.
Nous avons récemment eu de l'aide pour l'empaquetage sur Arch (merci à jnanar et aux mainteneurs précédents), et il y a des efforts continus pour l'empaquetage sur Debian (merci à Robotux, Naha, Debacle et les autre empaqueteur XMPP sur Debian). Si vous pouvez participer, merci de regarder comment nous contacter sur le site officiel), ensemble on peut faire la différence.
Si vous manquez de temps, vous pouvez aussi nous soutenir sur Liberapay: https://liberapay.com/salut_a_toi. Merci d'avance !

Gravatar de Goffi
Original post of Goffi.Votez pour ce billet sur Planet Libre.

Articles similaires

blog-libre : Se prendre les pieds dans le tapis : le blog DSFC s’emballe contre la Quadrature du Net

Je ne sais pas si vous avez suivi le billet La Quadrature du Net et le jeu des 4 erreurs, au moins ! de Denis Szalkowski (dont je recommandais le blog ici) mais il est assez déroutant.

Il reproche à la Quadrature du Net d’utiliser les réseaux sociaux et plateformes des GAFAM pour lancer leur campagne de communication suite à l’action de groupe lancée contre ces mêmes GAFAM.

Le pire étant atteint dans les commentaires où le blogueur s’en prend assez violemment aux personnes ayant commenté, avec un niveau d’argumentation assez enfantin, voir ridicule par moment. J’avais du mal à croire ce que je lisais et la déception a été assez forte. Sur la fin, il tente une justification en expliquant que c’était de la dérision mais on sent bien que c’est pour rattraper le coup.

Le meilleur commentaire, relevant un peu le niveau de cette page, est de Elzen, membre de la Quadrature du Net, remettant pas mal de choses en perspective quant l’approche de son organisme et calmant l’attitude du blogueur lui-même.

Il est clair que la Quadrature du Net a besoin de la meilleur visibilité possible pour leur action de groupe. Si leur opération communication se limitait à Dailymotion, Mastodon et Diaspora*, le retentissement serait nul. Utiliser les outils des GAFAM pour leur mission est inévitable de mon point de vue.

Morale de l’histoire : quand on est dans un mauvais jour, il faut couper internet.

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Articles similaires

Admin-Linux : Goploader – Partage de fichier et secret

Un petit article rapide pour vous présenter une découverte faite ce jour que je trouve sympa.

Il s’agit de Goploader, qui est un système de partage de fichier et secret.

L’idée de départ était de pouvoir partager facilement des fichiers depuis le terminal.

Goploader est composé d’un client et d’un serveur tous deux écrits en Go.

Les fonctionnalités de Goploader :

  • HTTPS seulement en utilisant Let’s Encrypt et Caddy Server
  • Upload directement depuis stdin
  • Upload un fichier en le donnant directement en tant qu’argument au client
  • Tous les fichiers sont cryptés à la réception et décryptés uniquement lorsqu’ils sont servis
  • La clef pour décryptée le fichier n’est pas sauvegardée sur le serveur
  • Fonctionne avec Curl

L’origine du projet est inspiré de 0bin, lui même inspiré de Zerobin de SebSauvage qu’on ne présente plus 🙂

 

Utiliser Goploader via curl

Upload the file named myfile.txt

$ curl -F file=@myfile.txt https://gpldr.in/

Change the name of the file to « myamazingfile! »

$ curl -F name="myamazingfile!" -F file=@myfile.txt https://gpldr.in/

 

Utiliser Goploader via le client :

Take a screenshot of the whole screen after 5 seconds, upload it with a progress bar and copy the returned URL to the clipboard

  • $ goploader --progress --screenshot --delay="5s" --clipboard

 

Intégrer Goploader au menu contextuel du gestionnaire de fichiers : [Desktop Entry] Type = Action Tooltip = Upload file on Goploader Name = Upload on Goploader... Profiles = goploader_onfile; [X-Action-Profile goploader_onfile] MimeTypes = all/allfiles; SelectionCount = =1 Exec = goploader -c %d/%b

 

Utiliser l’interface web de Goploader :

Rien de plus parlant qu’un screenshot :

Screenshot Goploader

Ou alors encore mieux, la démo en allant sur gpldr.in

 

À noter que pour du transfert de fichier avec lien unique il y a aussi Lufi de Luc Didry

 

Liens utiles :

Site Officiel et Démo de Goploader

Documentation de Goploader

Github de Goploader

L'article Goploader – Partage de fichier et secret est apparu en premier sur L'admin sous GNU / Linux - Blog Libre.

Gravatar de Admin-Linux
Original post of Admin-Linux.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Devenir SysAdmin d'une PME - Accepter de ne pas avoir le contrôle sur tout- Billet n°3

Ce billet fait partie de la série :
-Devenir SysAdmin d'une PME, retour d'expérience - Billet n°0
-Devenir SysAdmin d'une PME - Gestion du legacy- Billet n°1
-Devenir SysAdmin d'une PME - Mineur de bitcoin- Billet n°2

Nouveau billet de la série Devenir SysAdmin d'une PME avec cette fois ci un billet de réflexion autour du sujet du contrôle et de la maîtrise et plus exactement sur le fait d'accepter de ne pas avoir le contrôle sur tout.

A la mi-mars, j'écrivais deux billets assez intimistes à savoir Le métier passion et Tout intellectualiser, dans lesquels j'évoquais le travers dans lequel j'étais tombé de part avoir (enfin) un métier que j'aime et la volonté de vouloir toujours plus de contrôle...

Dans les semaines qui ont suivies, j'ai pris du recul, réfléchit et j'apprends peu à peu à accepter qu'on ne peut pas avoir le contrôle sur tout. Comme indiqué avec le début de la série de billet Devenir SysAdmin d'une PME, je suis en pleine restructuration de l'infrastructure en commençant par l'appropriation de cette dernière, la gestion de la documentation pour me permettre l'appropriation des différentes strates et couches accumulées au cours des années par différents administrateurs systèmes. Avant de pouvoir passer à une phase d'homogénéisation permettant alors une industrialisation de le gestion de tout le S.I., il y a la compréhension de ce dernier, la gestion du legacy, la gestion des incidents de sécuritépar méconnaissance de l'existence de ce site Drupal planqué dans un coin)...

Accepter de ne pas avoir le contrôle sur tout, c'est accepter que l'on a encore beaucoup de travail à faire avec la gestion du legacy. Et qu'un incident interviendra forcément sur quelque chose que l'on a pas encore eu le temps de documenter ou de revoir la documentation si celle-ci est déjà existante. Il y aura forcément, dans un coin, le serveur qui marche et que tout le monde a oublié avec un mot de passe que personne ne connaît plus... Jusque ce qu'il y ait un soucis (un disque qui ne répond plus ou autre) et que soudain, cela devienne une priorité.

Idem pour les sauvegardes. Je dois faire un billet dédié sur la mise en place des sauvegardes avec Borg (que je ne peux que conseiller et tous les retours que j'en ai des personnes qui ont suivi ce conseil me conforte dans le fait d'avoir moi-même suivi le conseil d'utiliser Borg. Les sysadmin, une grande famille qui partage les bonnes astuces). Je pars du principe que si je ne sais pas, ça n'existe pas.

Il y a très certainement des sauvegardes automatisées et tout marche. Mais comme dans tout legacy, il y a différents outils, mis en place au fur et à mesure. Je pars du principe que si je ne sais pas (encore) comment ça marche et surtout si je n'ai pas testé la restauration de la sauvegarde, ça n'existe pas. C'est très direct. Mais au moins ça donne un bon aperçu de la réalité : le moment où j'aurai besoin de cette sauvegarde, ce sera forcément dans un moment d'urgence. Si je ne sais pas comment ça marche et comment restaurer, cela revient à ne pas avoir de sauvegarde d'une certaine façon. Accepter de ne pas avoir le contrôle sur tout, c'est accepter que pour l'instant, tout n'est pas industrialiser au niveau des sauvegardes, que tout n'est pas sous contrôle...

De même, dans le cadre de la sécurité et de la gestion des PC des collaborateurs. Beaucoup d'entreprise font le choix de verrouiller au maximum les PC en limitant les droits, les applications installées, en mettant des proxys... Une autre façon de faire et de sécuriser le S.I. et d'accepter le BYOD et de responsabiliser les collaborateur.trice.s. L'entreprise dans laquelle je suis, je l'ai choisi sur de nombreux critères dont le fait que l'on soit Administrateur de sa machine. Le fait que l'on soit sous un O.S. GNU/Linux (distribution de son choix) limite grandement les risques de sécurité classique liés aux postes sous Windows (virus, spyware...) tout comme le fait d'avoir des colloborateur.trice.s geek, utilisateur.trice.s avancé.e.s ayant par conséquence des notions plus élevés que la moyenne des bonnes pratiques de l'hygiène numérique. Un exemple est la facilité que j'ai à imposer l'usage de Keepass vu que beaucoup l'utilisent déjà par défaut.

Toutefois, je sais bien qu'un tas de fichiers sont créés sur lei postes utilisateurs... Et avec la mise en application du RGPD, il y a eu des nouvelles sessions de formation et de sensibilisation de faite et des sessions à faire et refaire, aux nouveaux arrivants, en rappel... De même, trop nombreuses restent encore les personnes qui ignorent que Firefox stocke les données du profil en clair sur le disque, et que l'OS a beau avoir un mot de passe, l'intégralité du contenu du disque est accessible via un live usb. Dans ce cas, seule solution : le chiffrement du poste. Là, encore, accepte-t-on de ne pas avoir la phrase de passe ?

Autre cas, la gestion des tickets, des demandes etc. Là encore, il faut accepter de déléguer, en donnant des consignes strictes sur la qualité de la documentation mise en place, sur l'enrichissement et le maintient de cette dernière. On ne peut pas tout faire et il faut donc accepter de ne pas avoir le contrôle sur tout. Mais ce n'est pas une raison pour que l'on ait le contrôle sur rien ;)

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Journal du hacker : Liens intéressants Journal du hacker semaine #22

Pour la 22ème semaine de l'année 2018, voici 10 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

Eddy33 : Fedora 27 vs Fedora 26 : comparaison des performances pour les versions 64 bits

Salut.

Voici les résultats comparatifs de Fedora 27 vs Fedora 26.

Pour rappel, ma machine est équipée d'un Quad Core Intel Q6600 à 2,4 GHz avec 4 Go de RAM.

Je me suis limité au benchmark UnixBench qui fournit un indice global, ce qui me simplifiera la comparaison. La version UnixBench utilisée est la version 4.1.0.

Mon protocole de tests est le suivant :
  • Installation de Fedora 27 version 64 bits avec le noyau Fedora 4.13.9-300.fc27.x86_64.
  • La machine est placée en niveau 3 (init 3).
  • 10 séries de tests avec UnixBench compilé sous Fedora 27 et exécuté sous Fedora 27 (4.13.9-300.fc27.x86_64).
  • 10 séries de tests avec UnixBench compilé sous Fedora 26 et exécuté sous Fedora 26 (4.11.8-300.fc26.x86_64).
Voici les résultats obtenus :
Fedora 27 version 64 bits : Série 1 : 963.4
Série 2 : 997.7
Série 3 : 994.7
Série 4 : 975.2
Série 5 : 984.4
Série 6 : 991.7
Série 7 : 992.3
Série 8 : 1005.1
Série 9 : 998.7
Série 10 : 1003.6

Moyenne : 990,7Fedora 26 version 64 bits : Voici pour rappel les résultats obtenus avec Fedora 26 : Série 1 : 952.0 Série 2 : 986.1
Série 3 : 886.1
Série 4 : 976.2
Série 5 : 970.3
Série 6 : 982.4
Série 7 : 972.3
Série 8 : 981.0
Série 9 : 998.7
Série 10 : 973.2

Moyenne : 967,8Résultats : Pour Fedora 27, on obtient un indice moyen de 990,7 pour UnixBench.
Pour Fedora 26, j'avais obtenu un indice moyen de 967,8 pour UnixBench.


On a donc une augmentation de 2,4 % de Fedora 27 64 bits par rapport à Fedora 26 64 bits :

perfs_fedora_F27.png

Conclusion :
Au moment de ces tests, le noyau Fedora 27 (basé sur le noyau vanilla 4.13.9) est un peu plus performant de 2 % que le noyau Fedora 26 (basé sur le noyau vanilla 4.11.8).
++

Gravatar de Eddy33
Original post of Eddy33.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Fin de vie de Fedora 26

C'est en ce vendredi 1er juin 2018 que Fedora 26 a été déclaré comme en fin de vie.

Qu'est-ce que c'est ?

Un mois après la sortie d'une version de Fedora n, ici Fedora 28, la version n-2 (donc Fedora 26) est déclarée comme en fin de vie. Ce mois sert à donner du temps aux utilisateurs pour faire la mise à niveau. Ce qui fait qu'en moyenne une version est officiellement maintenue pendant 13 mois. Mais comme nous pouvons le voir, cela ne reste qu'une moyenne. Fedora 26 étant sortie tardivement (juillet 2017) il n'aura eu une maintenance que de 10 mois et demi !

En effet, la fin de vie d'une version signifie qu'elle n'aura plus de mises à jour et plus aucun bogue ne sera corrigé. Pour des questions de sécurité, avec des failles non corrigées, il est vivement conseillé aux utilisateurs de Fedora 26 et antérieurs d'effectuer la mise à niveau vers Fedora 28 ou 27.

Que faire ?

Si vous êtes concernés, il est nécessaire de faire la mise à niveau de vos systèmes. Vous pouvez télécharger des images CD ou USB plus récentes.

Il est également possible de faire la mise à niveau sans réinstaller via DNF ou GNOME Logiciels.

GNOME Logiciels a également dû vous prévenir par une pop-up de la disponibilité de Fedora 27 ou 28. N'hésitez pas à lancer la mise à niveau par ce biais.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : PeerTube : vers la version 1, et au-delà !

PeerTube est un logiciel libre permettant d’héberger et de partager des vidéos.

Ses principales différences avec YouTube, Dailymotion, Vimeo & co ?

  • PeerTube est libre : son code est un « commun » numérique, partagé avec tous et toutes, et non une recette secrète appartenant à Google (pour YouTube) ou à Vivendi/Bolloré (pour Dailymotion).
  • PeerTube est décentralisé : toute personne en ayant les compétences peut l’installer sur son propre serveur et mettre en place « sa » version de PeerTube (qu’on appelle une « instance »).
  • PeerTube n’impose pas de gouvernance : contrairement à YouTube, toute structure (individu, entreprise, association, communauté, etc.) ayant installé son instance PeerTube peut choisir sa thématique, les vidéos qu’elle héberge, qui peut s’y enregistrer pour disposer d’un compte, etc.
  • PeerTube est fédéré : contrairement à YouTube qui est un seul énorme silo contenant des milliards de vidéos, une instance PeerTube peut se connecter à d’autres instances de son choix et afficher leurs vidéos, sans avoir besoin de changer de site. Ainsi, avec PeerTube, vos vidéos ne sont plus isolées sur une seule machine : elles peuvent être cherchées et regardées depuis des centaines d’autres instances PeerTube.
  • PeerTube permet du streaming en pair-à-pair : contrairement à YouTube, qui est le seul « émetteur » de la vidéo, si 100 personnes regardent une même vidéo avec PeerTube, elles s’envoient de petits morceaux de la vidéo les unes aux autres, diminuant ainsi les coûts de diffusion pour la structure hébergeant l’instance.

[Vidéo de présentation de PeerTube, en anglais, avec les sous-titres français, sur Framatube. Pour la vidéo avec les sous-titres en anglais, cliquez ici. Réalisation : Association LILA (CC by-sa)]

 

Rappel des épisodes précédents : en novembre dernier, nous vous annoncions que Framasoft avait recruté Chocobozzz, le développeur du logiciel PeerTube (alors en version alpha), afin de lui donner les moyens de produire une version bêta du logiciel.
Nous vous avions alors sollicités pour nous aider à financer ce contrat de quelques mois (octobre 2017 à mars 2018). Grâce à l’aide précieuse de centaines de donatrices et donateurs, nous avons pu tenir notre engagement et publier la version bêta de PeerTube en mars 2018 (en respectant les délais, en plus !).

Depuis, les instances PeerTube ont fleuri. On compte aujourd’hui plus d’une centaines d’instances publiques déclarées (et sans doute bien plus non publiquement déclarées), hébergeant plusieurs milliers de vidéos !
Nous avons aussi pu éprouver sa robustesse lorsque nos amis de Datagueule ont publié leur film « Démocratie(s) » simultanément sur YouTube et PeerTube. Malgré des milliers de connexions, le logiciel a parfaitement tenu la charge :-)

Vers la version 1, et au-delà !

Cependant, force est de constater que PeerTube reste un logiciel encore non finalisé.
Par exemple la recherche n’est pas encore très fonctionnelle (si vous cherchez « Iinternet own boy » sur Framatube, aucun résultat n’est retourné, alors que si vous cherchez « internet’s own boy« , vous pourrez accéder à cet excellent documentaire sur la vie de l’hacktiviste Aaron Swartz).
PeerTube ne permet pas non plus encore d’intégrer un fichier de sous-titres à une vidéo. Ou d’afficher son interface dans une autre langue que l’anglais, etc.
Bref, PeerTube fonctionne (bien), mais il reste encore de nombreuses améliorations à y apporter pour pouvoir le considérer comme une alternative sérieuse à YouTube.

Framasoft a donc fait le pari de prolonger le contrat de Chocobozzz jusqu’à la fin de l’année 2018, afin là encore de se donner les moyens d’atteindre son objectif, fournir une version 1 de PeerTube.

Mais là encore, se posait la question du financement de ce poste.

Comme nous avions déjà sollicité la communauté francophone (qui connaît plutôt bien l’association Framasoft et nous fait confiance depuis des années), nous ne souhaitions pas demander à cette communauté de mettre à nouveau la main au portefeuille.

Représentation d’instances PeerTube (CC by-sa – Association LILA)

 

Framasoft Need You !

Nous avons donc fait le choix de lancer une « classique » campagne de financement participatif. Mais de nous adresser avant tout au public non-francophone lors de son lancement.

En effet, les actions de Framasoft sont relativement inconnues à l’étranger. Évidemment parce que l’essentiel de nos travaux (maison d’édition Framabook, annuaire Framalibre, et bien entendu nos différents services libres de la campagne « Dégooglisons Internet ») sont publiés en français, mais aussi parce que nous communiquons et intervenons rarement à l’étranger (à quelques exceptions près).
Nous souhaitons donc, avec cette campagne, sensibiliser le public non-francophone, en l’informant de l’existence de PeerTube (qui n’est pas un vaporware  puisque déjà largement fonctionnel).

Par ailleurs, et de façon pas du tout anecdotique, nous souhaitons remercier l’association LILA qui, en parallèle de la réalisation de ZeMarmot (long métrage d’animation réalisé avec Gimp), a réalisé la magnifique animation que vous pouvez découvrir au début de cet article ou, bien entendu, sur la page de campagne. Cette vidéo a été réalisée uniquement avec des logiciels libres (Gimp, ça va de soi, mais aussi Synfig et Blender). Merci à Jehan et Aryeom pour leur colossal travail en un temps record ! N’hésitez pas à les remercier et à les encourager financièrement pour leurs travaux.

Notez que la vidéo est disponible sur Framatube (évidemment) afin de pouvoir la partager. Elle est naturellement sous licence libre (CC by-sa), ainsi que la musique (par Ken Bushima – CC by).

La page de la campagne en anglais est accessible ici : https://www.kisskissbankbank.com/en/projects/peertube-a-free-and-federated-video-platform/ (et en français ici : https://www.kisskissbankbank.com/fr/projects/peertube-a-free-and-federated-video-platform/ )

Le premier des trois paliers de la campagne de financement PeerTube (CC by-sa – Association LILA)

Comment nous aider ?

Vous pouvez bien évidemment participer financièrement à la campagne de financement participatif, mais si vous l’avez déjà fait fin 2017, vous aurez compris qu’on ne vous met pas la pression (d’autant que cette fois, il n’y aura probablement pas de défiscalisation possible).

Vous pouvez aussi nous aider à traduire certaines parties de la campagne, qu’il s’agisse de la page de campagne, de la FAQ, des sous-titres de la vidéo, ou du site joinpeertube.org, en vous signalant comme volontaire sur notre forum.

Nous sollicitons surtout votre aide pour partager l’information sur les médias sociaux (libres ou non), en utilisant si possible le hashtag #joinpeertube !

Si vous avez un oncle d’Amérique, une tante en Australie, une cousine au Chili, ou un frère en Allemagne, lui signaler l’existence de PeerTube nous serait d’une grande aide pour faire découvrir ce projet qui nous semble essentiel pour l’émancipation de toutes et tous.

 

Joinpeertube – Cliquez pour accéder à la page de campagne

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Eddy33 : Fedora 26 : performances pour la version 64 bits

Salut.

Suite à mon billet sur la fin de mes tests de Fedora 32 bits avec la version 25, je repars donc avec les tests de Fedora 26 version 64 bits. Pour cette première fois, il n'y a pas de comparaison avec une autre version de Fedora.

Pour rappel, ma machine est équipée d'un Quad Core Intel Q6600 à 2,4 GHz avec 4 Go de RAM.

Je me suis limité au benchmark UnixBench qui fournit un indice global, ce qui me simplifiera la comparaison. La version UnixBench utilisée est la version 4.1.0.

Mon protocole de tests est le suivant :
  • Installation de Fedora 26 version 64 bits avec le noyau Fedora 4.11.8-300.fc26.x86_64.
  • La machine est placée en niveau 3 (init 3).
  • 10 séries de tests avec UnixBench compilé sous Fedora 26 et exécuté sous Fedora 26 (4.11.8-300.fc26.x86_64).
Voici les résultats obtenus :
Fedora 26 version 64 bits : Série 1 : 952.0 Série 2 : 986.1
Série 3 : 886.1
Série 4 : 976.2
Série 5 : 970.3
Série 6 : 982.4
Série 7 : 972.3
Série 8 : 981.0
Série 9 : 998.7
Série 10 : 973.2

Moyenne : 967.8

Résultats : Pour Fedora 26, on obtient un indice moyen de 967.8 pour UnixBench.

Conclusion :
Pour rappel, on avait obtenu 791.2 avec Fedora 25 version 32 bits.  La version 64 bits est donc plus performante que la version 32 bits et je l'avais déjà noté en octobre 2007...

++

Gravatar de Eddy33
Original post of Eddy33.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Élections pour le Conseil et Mindshare cette semaine

Comme le projet Fedora est communautaire, une partie du collège des organisations suivantes doit être renouvelée : Council et Mindshare. Et ce sont les contributeurs qui décident. Exceptionnellement, le collège du FESCo ne sera pas partiellement renouvelé en même temps, faute de candidatures la fenêtre de dépôts de candidatures a été élargi pour cet organe.

Chaque candidat a bien sûr un programme et un passif qu'ils souhaitent mettre en avant durant leur mandat pour orienter le projet Fedora dans certaines directions. Je vous invite à étudier les propositions des différents candidats pour cela.

J'ai voté

Pour voter, il est nécessaire d'avoir un compte FAS actif et de faire son choix sur le site du scrutin. Vous avez jusqu'au mercredi 6 juin à 2h heure française pour le faire. Donc n'attendez pas trop.

Je vais profiter de l'occasion pour résumer le rôle de chacun de ces comités afin de clarifier l'aspect décisionnel du projet Fedora mais aussi visualiser le caractère communautaire de celui-ci.

Council

Le Council est ce qu'on pourrait qualifier le grand conseil du projet. C'est donc l'organe décisionnaire le plus élevé de Fedora. Le conseil définit les objectifs à long terme du projet Fedora et participe à l'organisation de celui-ci pour y parvenir. Cela se fait notamment par le biais de discussions ouvertes et transparentes vis à vis de la communauté.

Mais il gère également l'aspect financier. Cela concerne notamment les budgets alloués pour organiser les évènements, produire les goodies, ou des initiatives permettant de remplir les dits objectifs. Ils ont enfin la charge de régler les conflits personnels importants au sein du projet, tout comme les aspects légaux liés à la marque Fedora.

Les rôles au sein du conseil sont complexes.

Ceux avec droit de vote complet

Tout d'abord il y a le FPL (Fedora Project Leader) qui est le dirigeant du conseil et de facto le représentant du projet. Son rôle est lié à la tenue de l'agenda et des discussions du conseil, mais aussi de représenter le projet Fedora dans son ensemble. Il doit également servir à dégager un consensus au cours des débats. Ce rôle est tenu par un employé de Red Hat et est choisi avec le consentement du conseil en question.

Il y a aussi le FCAIC (Fedora Community Action and Impact Coordinator) qui fait le lien entre la communauté et l'entreprise Red Hat pour faciliter et encourager la coopération. Comme pour le FPL, c'est un employé de Red Hat qui occupe cette position avec l'approbation du conseil.

Il y a deux places destinées à la représentation technique et à la représentation plus marketing / ambassadrice du projet. Ces deux places découlent d'une nomination décidée au sein des organes dédiées à ces activités : le FESCo et le Mindshare. Ces places sont communautaires mais ce sont uniquement ces comités qui décident des attributions.

Il reste deux places communautaires totalement ouvertes et dont tout le monde peut soumettre sa candidature ou voter. Cela permet de représenter les autres secteurs d'activité comme la traduction ou la documentation mais aussi la voix communautaire au sens la plus large possible. C'est pour ces places que le vote est ouvert cette semaine !

Ceux avec le droit de vote partiel

Un conseiller en diversité est nommé par le FPL avec le soutien du conseil pour favoriser l'intégration au sein du projet des populations le plus souvent discriminées. Son objectif est donc de déterminer les programmes pour régler cette problématique et résoudre les conflits associés qui peuvent se présenter.

Un gestionnaire du programme Fedora qui s'occupe du planning des différentes versions de Fedora. Il s'assure du bon respect des délais, du suivi des fonctionnalités et des cycles de tests. Il fait également office de secrétaire du conseil. C'est un employé de Red Hat qui occupe ce rôle toujours avec l'approbation du conseil.

Mindshare

Mindshare est une évolution du FAmSCo (Fedora Ambassadors Steering Committee) qu'il remplace. Il est l'équivalent du FESCo sur l'aspect plus humain du projet. Pendant que le FESCo se préoccupera beaucoup plus des empaqueteurs, la préoccupation de ce conseil est plutôt l'ambassadeur et les nouveaux contributeurs.

Voici un exemple des thèmes dont il a compétence qui viennent du FAmSCo :

  • Gérer l'accroissement des ambassadeurs à travers le mentoring ;
  • Pousser à la création et au développement des communautés plus locales comme la communauté française par exemple ;
  • Réaliser le suivi des évènements auxquels participent les ambassadeurs ;
  • Accorder les ressources aux différentes communautés ou activités, en fonction des besoin et de l'intérêt ;
  • S'occuper des conflits entre ambassadeurs.

Et ses nouvelles compétences :

  • La communication entre les équipes, notamment entre la technique et le marketing ;
  • Motiver les contributeurs à s'impliquer dans différents groupes de travail ;
  • Gérer l'arrivé de nouveaux contributeurs pour les guider, essayer de favoriser l'inclusion de personnes souvent peu représentées dans Fedora (femmes, personnes non américaines et non européennes, étudiants, etc.) ;
  • Gestion de l'équipe marketing.

Il y a 9 membres pour gérer ce nouveau comité. Un gérant, 2 proviennent des ambassadeurs, un du design et web, un de la documentation, un du marketing, un de la commops et les deux derniers sont élus. C'est pour ces deux derniers sièges que les scrutins sont ouverts.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Marien Fressinaud : Un homme sans rêve

Écrire un bouquin de 50 000 mots en un mois, c’était le défi que je m’étais fixé en novembre 2014. Ces mots, je ne les ai jamais publiés nul part. Ils étaient pourtant là, couchés sur de multiples octets, ces 50 000 mots et le défi du NaNoWriMo relevé. Mais l’excitation redescendue, les deux pieds à nouveau sur Terre, il fallait se rendre à l’évidence : ce n’était vraiment pas terrible. Des fautes, des incohérences, des dialogues pourris, des éléments de l’intrigue avec lesquels je n’étais pas à l’aise… et même une intrigue pas intrigante pour un sou !

Pourtant, au milieu de tout ça il y avait forcément moyen de sauver quelques meubles. En 50 000 mots, il y a forcément des fulgurances, des choses qui fonctionnent mieux que d’autres, un ensemble de mots et de phrases qui « sonnent » bien. C’est en mars 2016 que je relus l’histoire d’Asmara, avec beaucoup de recul et que je reprenais un certain plaisir à me plonger dans un univers que j’avais créé (hey ! C’est pas rien non plus). Un chapitre en particulier (le dernier écrit) retint mon attention : il y avait matière à en tirer une mini-nouvelle.

Quelques relectures et corrections plus tard, elle était prête. Cela m’avait pris seulement 9 jours à retravailler ce court texte, mais il me fallut deux ans de plus pour trouver le courage de le publier. Alors voilà, je pose tout ça là, ignorant si ma nouvelle sera lue ou non. Pour moi il s’agit surtout de mener un peu plus loin ce que j’ai entamé il y a 3 ans et demi avec le NaNoWriMo, bien qu’il reste encore beaucoup de chemin à parcourir avant d’en dévoiler plus sur Asmara.

La nouvelle se nomme Un homme sans rêve et est placée sous licence CC BY.

Ce chapitre/nouvelle est en fait une réinterprétation d’un chapitre de 1984 de Georges Orwell, toute ressemblance n’est absolument pas fortuite. Le défi lors de cette réécriture était surtout de travailler les dialogues et l’évolution psychologique du personnage. Comme la nouvelle s’inscrit dans un contexte plus global, il subsiste des références au reste de l’histoire que vous ne saisirez probablement pas. J’ai décidé de les conserver pour me laisser des pistes à explorer de nouveau lorsque je souhaiterai me replonger dans Asmara.

Je vous souhaite une bonne lecture !

Gravatar de Marien Fressinaud
Original post of Marien Fressinaud.Votez pour ce billet sur Planet Libre.

Pages