Planet Libre

François Boulogne : La brique internet : contourner son FAI par un VPN ou tor

Je viens de lire le billet de aeris concernant la fabrication d'une torbox. Il me semble que la brique internet conçue par des contributeurs de FFDN et yunohost est trop méconnue. Courte présentation.

La brique internet consiste en un ordinateur à faible consommation possédant une carte ethernet et une antenne wifi. Le principe est de connecter cette brique au modem-routeur et d'émettre un wifi qui redirige la communication sur un VPN. Ainsi, le FAI ne voit que des communications chiffrées avec un VPN.

Quelques cas d'utilisations :

  • Chez soi, on a un réseau wifi propre sans configuration VPN des clients.
  • Cette brique peut être intéressante pour l'autohébergement car elle permet de disposer d'une IP fixe du VPN et de ne pas avoir à se préoccuper d'un FAI ne fournissant pas d'IP fixe ou bloquant des ports.
  • En déplacement chez des amis, on a son propre accès internet.
  • Avoir un accès tor en plus de l'accès VPN sur un réseau wifi séparé
  • Mettre en place un espace de partage (piratebox)
  • Faire tourner quelques services (mais pas trop gourmand en ressources) comme du RSS, filtrage email, petit site web.

Le coût total est de 80€, mais on peut l'obtenir pour env. 60€ si on passe par FFDN. Pour l'installation, il suffit de suivi cette documentation Yunohost très didactique. Pour une présentation plus exhaustive (au moment où la réalisation était encore en cours), voici une conférence à PSES2015.

Gravatar de François Boulogne
Original post of François Boulogne.Votez pour ce billet sur Planet Libre.

Articles similaires

Monitoring-FR : Meetup Paris Zabbix #1 avec Alexei Vladishev le 23 juin 2016 chez Blablacar

Le groupe Meetup Paris Monitoring s’étend et propose un Meetup Paris Zabbix UG (User Group) le 23 juin 2016. Fait marquant de ce meetup, la participation d’Alexei Vladishev, créateur de Zabbix, logiciel libre de supervision et de monitoring, fondateur et CEO de Zabbix LLC, la société éditrice de Zabbix. Meetup à ne pas manquer si vous êtes fan de Zabbix!

Le meetup aura lieu le jeudi 23 juin 2016, dans les locaux de la société Blablacar, sponsor de l’événement mais aussi utilisateur de Zabbix. Pour rappel, un cas d’utilisation de Zabbix avait déjà été réalisé par Blablacar lors du premier meetup Paris Monitoring en juin 2015 :

« 23k métriques & 6,5k alertes, 300 tests par seconde avec Zabbix: comment fait-on chez BlaBlaCar ? »
Par Jean Baptiste Favre / @jbfavre / http://www.jbfavre.org

À noter que vous pouvez proposer des sujets si vous souhaitez faire un retour utilisateur de Zabbix.

Pensez à vous inscrire sur le site pour participer à l’événement.

Correctif : le meetup aura bien lieu le jeudi 23 juin (et non le 26 comme mentionné précédemment).

Gravatar de Monitoring-FR
Original post of Monitoring-FR.Votez pour ce billet sur Planet Libre.

Articles similaires

Marthym : Github release avec Travis CI

Introduction

Vous développez un projet Open Source que vous hébergez chez Github et vous utilisez Travis CI pour le builder automatiquement. C’est sympa ça fait le job mais reste une étape un peu fastidieuse, la release de votre projet. Travis peut faire ça pour vous.

Plusieurs sites en parlent mais beaucoup sont obsolètes et la plupart donnent un bout de configuration Travis sans plus d’informations.

Cas pratique

Dans l’exemple que l’on va voir j’ai traité mon CV comme un programme. Il est écrit en LaTeX et nécessite donc d’être compilé et buildé. Puis, au lieu d’un .jar ou d’un .tgz, c’est le PDF resultant qui est releasé. La partie compilation est particulière mais c’est la partie release qui nous intéresse ici et qui sera la même quel que soit le type d’application à produire.

Voilà donc le bout de configuration que j’ai rajouté dans le .travis.yml :

Question de sécurité

La première question à se poser est celle de la sécurité. En effet on va donner à Travis le droit de modifier des choses dans notre compte github. Sachant que tout est en open source et donc lisible par n’importe qui c’est un peu flippant.

Pour cela travis offre la possibilité de crypter des informations dans les fichiers .travis.yml. Seul ce bon vieux Travis sera alors capable de lire ces informations. Le cryptage est fait via un mécanisme de clés privée/publique. Pour crypter les informations il faudra installer travis-client, c’est lui qui a la clé publique et qui permettra d’encoder l’accès à github. Mais ce système permet d’encoder tout ce que vous voulez faire passer à vos scripts de build. Les informations encryptées sont alors accessibles en tant que variables d’environnement dans vos scripts.

Ensuite si Travis se fait voler sa clé privée ou que quelqu’un y a accès, c’est un risque à considérer. Pour limiter les dégâts, il est fortement recommandé de créer un compte github dédié à Travis ET au projet à déployer. Ce compte aura des accès limités au minimun nécessaire pour releaser dans le repos voulu. Ca évitera qu’un éventuel attaquand est le plein accès à tout vos repos.

Pré-requis Installation

Le client travis s’installe facilement (sous Debian) :

apt-get install ca-certificates apt-get install ruby ruby-dev build-essential gem install travis --no-rdoc --no-ri La version rapide

En effet, une commande va permettre de configurer le processus de release rapidement. Pour cela il faut se mettre dans le répertoire de son projet, où se trouve le .travis.yml et taper :

travis setup releases

Documentation Travis

Configurer le projet à la main

La commande se contente d’ajouter dans votre projet le fichier travis.yml

deploy: - provider: releases api_key: secure: file: mon-cv.pdf skip_cleanup: true on: repo: Création de l’API Key Secure

Le plus compliqué c’est la partie api_key.secure. Pour la renseigner, le client travis crée dans votre compte GitHub (celui créé pour l’occasion) un “Personnal access token” avec le scope “public_repo”. Puis il prend le token généré (qui ressemble à ça 442a8535d2071f98c83bb3bef862312d58a72ee8) et l’encrypte.

travis encrypt "442a8535d2071f98c83bb3bef862312d58a72ee8" -r

Il est possible d’omettre le si vous êtes dans le répertoire du repo en question. Le résultat donne la ligne secure :

secure: "KZFkBvpo+K6d0UfYa5Xpgmn4MfrNpFCOzjNbXpX682eRurJrbL+OxfwDmR0dyBFkcEKMgBoUX3YCnXQnzLHIb4fFWUx2K+sfdvvMZwse2rbDnQeM2P8peyYSXer52fuORPzMin0vnCem12t7sNIbi/0oSOUsVOTEUZSsNJoPZYo=" Options intéressantes

Comme expliqué plus haut, j’ai traité mon CV comme un programme développé en LaTeX. Mais LaTeX à installer c’est un peu l’usine. Si je ne suis pas sur mon PC et que je veux faire une retouche rapide c’est compliqué.

Par chance Travis vient à mon secours, c’est lui qui va compiler le CV et me retourner le PDF sous forme d’une release draft. Voilà mon travis.yml visible sur mon github

deploy: - provider: releases api_key: secure: DgG2D29uPVbTLAfD3cte6hGT35CppoaNv56PENgvrHpfAIFWhxsjLy9x/qvEGXSPYA6bHpOIIrjT4cwBHZN7HxPsrtL+xuXCZYCP1G6XT8RteHAtCterOvvtLtihe2iW6PLxCgCR8etDpxKnE4s0/Jwt+s0eNm73Q7FsolN3aSk= file: mon-cv.pdf skip_cleanup: true draft: true on: repo: Marthym/curriculum-vitae - provider: releases api_key: secure: DgG2D29uPVbTLAfD3cte6hGT35CppoaNv56PENgvrHpfAIFWhxsjLy9x/qvEGXSPYA6bHpOIIrjT4cwBHZN7HxPsrtL+xuXCZYCP1G6XT8RteHAtCterOvvtLtihe2iW6PLxCgCR8etDpxKnE4s0/Jwt+s0eNm73Q7FsolN3aSk= file: mon-cv.pdf skip_cleanup: true on: tags: true repo: Marthym/curriculum-vitae

La section on permet de mettre des conditions à la release. Et il est possible de préciser plusieurs configurations de release avec des conditions différentes. L’option draft permet de générer des drafts de release, c’est un peu moins lourd et ça ne génère pas de tag sur la branche.

Le premier bloc demande donc une draft release à chaque fois qu’un commit est posés sur la branche. Ca me permet par exemple de contrôler que les modifications que je fais sont bonnes. Puis quand tout est bon, il suffit de tagger la branche et de pousser. Grâce à la condition tags:true de la deuxième configuration, Travis va me faire une vrai release au lieu d’un draft.

Liens

Github release avec Travis CI écrit à l'origine par Marthym pour J'ai acheté un PC neuf cassé ... le May 11, 2016.

Gravatar de Marthym
Original post of Marthym.Votez pour ce billet sur Planet Libre.

Philippe Scoffoni : 4 suites bureautiques en ligne open source

Office365 conquiert tous les jours davantage de terrain dans les entreprises malgré la concurrence de Google. L’existence de solutions open source dont l’utilisateur peut avoir le contrôle est un réel enjeu. À ce jour, peu d’alternatives crédibles ont pointé le bout de leur nez.

La plus ancienne est la solution DotRiver. Basée sur des logiciels libres, c’est en fait un service en ligne uniquement. Elle met à disposition de l’utilisateur un bureau de travail complet sous GNU/Linux. La session de l’utilisateur s’exécute sur un serveur distant. Seuls l’image du bureau de l’utilisateur, le son et les interactions clavier/souris transitent sur le réseau.

Le passage obligé par un bureau « non Windows » bien que similaire peut représenter un frein dans l’acceptation par les utilisateurs et dans l’intégration d’un existant. Surtout si celui-ci impose de disposer de logiciels ne fonctionnant que sur Windows sur toutes les sessions utilisateurs. Ce problème peut-être contourné par la virtualisation d’un poste sous Windows. Cependant, cette solution offre un très haut niveau de sécurité et de disponibilité. Les documents peuvent être accessibles en parallèle via l’interface web du logiciel Pydio ou de son client de synchronisation.

Les trois autres candidates sont :

L’approche choisie par ces trois suites bureautiques en ligne est différente. La connexion aux applications passe d’abord par un portail web. Ensuite, l’édition des documents est confiée soit à un éditeur complet s’exécutant dans le navigateur (Collabora Online et OnlyOffice), soit à une application distante comme le fait DotRiver.

Pour Collabora le portail web est le logiciel Owncloud, pour OnlyOffice une interface spécifique et pour Open365 Seafile. Je vous laisse découvrir la suite dans cette vidéo.

En revoyant la vidéo, je me rends compte qu’il y a sur le tableur un rendu incorrect des couleurs pour Collabora.

Des trois suites, seule OnlyOffice est prête pour la production. J’ignore combien de temps Collabora et Open365 vont mettre avant d’être finalisée. Je parierais tout de même sur Open365 qui conserve l’indéniable avantage de reposer sur LibreOffice et toutes ses fonctionnalités. Par contre, il faudra prévoir de la RAM et de la CPU côté serveur pour absorber les instances LibreOffice des utilisateurs.

Je dirais que nous nous ne sommes donc plus très loin de disposer d’une suite bureautique en ligne open source. Cependant, Office365 gagne tant de parts de marché chaque jour dans les entreprises que cette concurrence arrive peut-être trop tard….

Réagir à cet article

Article original écrit par Philippe Scoffoni le 10/05/2016. | Lien direct vers cet article

Cette création est mise à disposition sous un contrat Creative Commons BY à l'exception des images qui l'illustrent (celles-ci demeurent placées sous leur mention légale d'origine).

.

Gravatar de Philippe Scoffoni
Original post of Philippe Scoffoni.Votez pour ce billet sur Planet Libre.

Articles similaires

elementary OS : Bluetooth, alimentation et centre de partage

Le passage de Luna vers Freya a apporté de nombreuses améliorations quant à l’accessibilité et l’intégration dans notre environnement de travail ou à la maison, toutefois force est de constater que certains manques sont toujours présents avec Freya mais sont sur le point d’être prochainement comblés soit lors d’une mise à jour de Freya ou lors du passage vers Loki.

Avant de commencer à faire le tour de ces nouveautés, il est important de préciser que nous n’avons pas d’information précise sur la mise à disposition de ces éléments sur Freya (ndlr : nous pensons toutefois que cela sera le cas)

Bluetooth Center

DanRabbit a posté, sur le Google+ de l’équipe, une première ébauche du centre de partage dédié au Bluetooth, comme à son habitude, l’interface est relativement dépouillée pour aller directement à l’essentiel.

Power settings

Autre point d’attention dédié aux utilisateurs mobiles, les paramètres d’alimentation se verront apporter plusieurs modifications relativement importantes, en effet, il vous sera maintenant possible de modifier le comportement de mise en veille en fonction de l’état du capot de votre ordinateur portable ou de l’état de votre batterie. L’OS vous permettra de configurer plus finement cela en fonction de l’alimentation de votre ordinateur portable : connecté au secteur ou sur batterie.

 

File sharing Center

La dernière capture va, j’en suis persuadé, en ravir plusieurs : bon nombre d’entre vous nous ont demandés comme faire du partage de documents depuis elementary OS, et….. jusqu’à très récemment cette opération ne s’avérait pas être abordable pour tout le monde (ndlr : Samba et sa configuration pour ceux qui savent de quoi je parle).

De nombreuses questions sont pour l’instant en suspend et devront trouver prochainement réponses prochainement :

  • Sera t-il possible de partager des fichiers via le protocole CIFS
  • Quid de la prise en charge du NFS

Et vous quelles sont vos prochaines attentes ?

Le billet Bluetooth, alimentation et centre de partage a été publié sur le site de la elementary OS -

Gravatar de elementary OS
Original post of elementary OS.Votez pour ce billet sur Planet Libre.

Renault : Fedora 24 Beta est là !

En ce mardi 10 mai, les utilisateurs du Projet Fedora seront ravis d'apprendre la disponibilité de la Beta de la future Fedora 24.

Malgré les risques concernant la stabilité d’une version Beta, il est important de la tester ! En rapportant les bogues maintenant, vous découvrirez les nouveautés avant tout le monde, tout en améliorant la qualité de Fedora 24 et réduisez du même coup le risque de retard. Les versions en développements manquent de testeurs et de retours pour mener à bien leurs buts.

f24beta.png

La sortie finale est prévue à ce jour pour la mi-juin.

Voici les nouveautés annoncées pour cette version :

Bureautique
  • Mise à jour de Gnome en version 3.20 : amélioration de la session Wayland, édition de cartes et affichage des itinéraires en lien avec OpenStreetMap via le programme Cartes, affichage graphique de l'ensemble des raccourcis claviers, nouvel agencement de la liste des impressions, éditions des images dans Photos, nouvelle interface de recherche dans Fichiers, intégration de LibreOffice dans Documents, refonte de l'utilitaire dconf, etc. ;
  • Fedora peut être mis à niveau entièrement via Gnome Logiciels ;
  • Refonte graphique de LiveUSBTools pour créer les images installables par clés USB de Fedora sur Linux afin de simplifier l'installation de Fedora en utilisant un médium plus populaire que le CD (les versions pour Windows et Mac OS X ont été repoussées) ;
  • NetworkManager progresse à la version 1.2 : nouvelle API pour les VPN, gestion de plusieurs VPN, gestion des connexions des conteneurs Docker ou LXC, interface textuelle plus lisible avec plus de couleurs et utilisation d'une nouvelle bibliothèque graphique ;
  • L'environnement de bureau de l'ordinateur OLPC profite de la version 0.108 de Sugar ;
  • Mise en place de QGnomePlatform : un utilitaire pour intégrer visuellement le thème des applications écrites avec Qt dans l'environnement Gnome, et ce sans les modifier ;
  • Création d'un nouveau Spin de Fedora, dédié à l'astronomie, comprenant entre autre un environnement KDE avec KStar, Stellarium et Celestia ;
  • L'outil de manipulation de photos brutes Darktable évolue en version 2.0, qui s'intègre mieux dans Gnome via GTK+ 3, ajoute la gestion des écrans à très haute résolution, possède une meilleure gestion des couleurs et des impressions, prend en charge de nouveaux modèles d'appareils photos, et arrête la distribution de la version 32 bits.
Administration système
  • Séparation dans le paquet systemd, la gestion des conteneurs via systemd se faisant au travers de systems-containers, et la gestion du matériel via le paquet systemd-udev ;
  • systemd ne relance les services qu'une fois ou deux lors d'une transaction RPM complète sur l'ensemble des paquets concernés et non pour chaque paquet concerné en cours de traitement ;
  • Ajout dans anaconda d'une API DBus autour des volumes logiques LVM ;
  • Distribution du logiciel sen, un utilitaire textuel pour gérer et surveiller les images Docker ;
  • livemedia-creator remplace livecd-creator qui sera plus générique (images pour périphériques ARM, LiveUSB, démarrage par PXE) et plus moderne avec une base en Python 3 au lieu de la version 2 ;
  • Kerberos prend en compte les règles génériques du système pour la conception des mots de passe ;
  • Pour le calcul des adresses IP, ipcalctool sera bientôt supprimé au profit d'ipcalc à cause de la redondance et du manque de support d'IPv6 ;
  • Fusion des utilitaires ping et ping6 autour d'un même utilitaire (ping) gérant les deux types d'adresses IP ;
Cloud
  • Ajout du très attendu OpenShift Origin dans Fedora pour le développement et le déploiement des services cloud ;
  • Les images Atomic peuvent bénéficier des espaces de stockages via glusterfs ou Ceph ;
  • Ajout d'une entrée pour développeurs dans l'image de démarrage d'Atomic pour permettre de démarrer sans instancier un cloud ;
  • Les utilisateurs peuvent recevoir, pour plus de visibilité, la liste des mises à jour disponibles après leur connexion via les "messages du jour" ;
  • Refonte des paquets autour du langage Python, tout ce qui est requis du langage par les programmes system-* importants ont été mis dans des paquets system-python afin d'éviter d'utiliser le paquet python en entier ;
Développement
  • L'agrégat de compilateurs GCC passe à la version 6 ;
  • Le langage Python se mue à la version 3.5 ;
  • Remplacement du projet Subs, un client pour services web SOAP en Python, par le fork initié par Jurko Gospodnetić pour faute de maintenance et le non support de Python 3 ;
  • Le langage de Google, Go, évolue à la version 1.6 ;
  • Le langage Ruby quant à lui fonce en version 2.3 ;
  • Le langage Erlang bénéficie de sa dernière version 18 ;
  • Un coup de fouet a été donné pour la distribution LaTeX TeXLive vers la version 2015 ;
  • La célèbre bibliothèque C++ Boost, a été boostée vers la version 1.60 ;
  • La bibliothèque standard du langage C GLibc se contente de la version 2.23 ;
  • Suppression dans GLibc de librtkaio qui ajoutait l'API POSIX concernant le temps réel notamment pour les entrées/sorties asynchrones, qui était trop peu utilisée ;
  • Abandon de la dépendance des modules PHP PECL avec le paquet php-pear, projet qui devient obsolète ;
  • Les amateurs de la bibliothèque de Qt profiteront du remplacement de QtWebKit par QtWebEngine, qui est enfin disponible dans les dépôts ;
  • La plateforme de serveurs JavaScript, Node.js, découvre la véritable réponse 4.2 ;
  • Mise à jour de la plateforme de développement .NET Mono 4.2 ;
  • Ajout et activation du ramasse miette Shenandoah 1.0 à OpenJDK qui met en pause moins longtemps le programme pour nettoyer la mémoire de ce dernier ;
  • Fedora ajoute la prise en charge des environnements de développement pour le composant BBC Micro Bit, dédié à l'apprentissage de l'informatique au Royaume-Uni ;
Internationalisation
  • Ajout de méta paquets RPM et utilisation d'un nouveau champ du format RPM pour installer automatiquement les paquets de traduction des logiciels sur votre machine. Il doit remplacer à terme le greffon dnf-langpack qui effectuait cette tâche imparfaitement ;
  • Séparation des paquets de Glibc contenant les langues : un paquet par langue, pour un système plus léger (particulièrement utile pour les versions Server et Cloud);
  • Mise à jour du composant ibus-fbterm de la suite IBus à la version 1.5 afin de profiter d'IBus dans les environnements purement textuels ;

Si l'aventure vous intéresse, les images sont disponibles par Torrent et sur le site officiel.

En cas de bogue, n'oubliez pas de relire la documentation pour signaler les anomalies sur le BugZilla ou de contribuer à la traduction sur Zanata.

Bons tests à tous !

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Participez à la journée de test de Fedora 24 sur l'image Cloud !

Aujourd'hui, ce mardi 10 mai, est une journée dédiée à un test précis : l’image cloud de Fedora 24. En effet, durant le cycle de développement, l'équipe d'assurance qualité dédie quelques journées autours de certains composants afin de remonter un maximum de problèmes sur le sujet.

Elle fournit en plus une liste de tests précis à effectuer. Il vous suffit de les suivre, comparer votre résultat au résultat attendu et le notifier.

cloud-logo.png

Qu'est-ce que l’image Cloud ?

L'image Cloud est l'un des trois produits officiels de Fedora avec Workstation et Server. C'est une image pour un usage plutôt pointu à savoir dédiée à lancer des services sur un serveur. Cloud oblige, les images se veulent plutôt minimalistes et légères pour être déployées très facilement en machine virtuelle ou sur un petit serveur par exemple. L'objectif étant de pouvoir répondre à des montées de charge sur une infrastructure par exemple.

Au cœur de cette image il y a aussi ce qui est nommé Fedora Atomic. C'est un système qui permet de concevoir des machines virtuelles dans lequel il y a des applications sous forme de conteneurs. Il y a donc une partie du côté host et une partie qui est dans la partie virtualisée.

Les tests du jour couvrent :

  • Le fonctionnement de base : démarrage, lancement de services, logs et SELinux qui n'entravent pas le bon déroulement du processus;
  • Le fonctionnement de Fedora Atomic : lancement, mise à jour et retour en arrière ;
  • Le fonctionnement avancé de Fedora Atomic : le montage des partitions, le fonctionnement des commandes ;
  • Le fonctionnement de Docker : installer une image et la lancer ;
  • Le nommage de l'interface réseau principale ;
  • Quelques autres...
Comment y participer ?

Vous pouvez vous rendre sur la page des tests pour lister les tests disponibles et rapporter vos résultats. La page wiki récapitule les modalités de la journée.

En cas de bogue, il est nécessaire de le rapporter sur le BugZilla. Si vous ne savez pas faire, n'hésitez pas à consulter la documentation correspondante.

De plus, si une journée est dédiée à ces tests, il reste possible de les effectuer quelques jours plus tard sans problème ! Les résultats seront globalement d'actualité.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Écrire efficacement, c'est possible avec txt2tags

Je suis actuellement en train d'écrire un ouvrage assez long. C'est l'occasion pour moi de redécouvrir txt2tags. Et bon sang, que c'est génial!

Il s'agit d'un langage markup. En gros, ce que vous écrivez n'est pas ce que vous obtenez à la fin, dans le même principe que markdown ou LaTeX qui produisent respectivement des pages web html ou des pdf de qualité. Par exemple, si vous écrivez ceci :

Il ne **faut pas** respirer de la compote : ça fait //tousser//

On obtient après conversion par le logiciel txt2tags ceci :

Il ne faut pas respirer de la compote : ça fait tousser.

Alors que je trouve markdown excellent, txt2tags le dépasse très largement à mon avis, et je pense avoir du mal à m'en passer désormais, et ce pour plusieurs raisons.

1. Tout d'abord, c'est un langage markup lisible. La preuve :

markdown LaTeX txt2tags **gras** \\textbf{gras} **gras** *italique* \\textit{italique} //italique//

Ça facilite l'écriture et la correction. Imaginez retrouver une coquille dans un langage comme le LaTeX!

2. Il supporte des balises comme le souligné, le barré, les tableaux par défaut. On peut même faire des ancres dans le texte pour relier rapidement un mot à un paragraphe

Pour plus d'informations, lire [le paragraphe correspondant #superparagraphe]. [...] ===Le super paragraphe===[superparagraphe]

3. Il permet d'exporter son texte dans de multiples langages, comme le LaTex, le html, mais aussi dokuwiki et bien d'autres. Ça peut paraître idiot, mais un document que j'écris un jour pour une page html pourrait très bien prendre place plus tard dans un wiki, voire faire l'objet d'un document à imprimer (donc LaTeX). Je vous jure que alors qu'on pense ne pas avoir besoin de ce genre de choses, c'est lorsque ça s'impose qu'on regrette de ne pas l'avoir utilisé.

4. On peut inclure d'autres fichiers avec %!include: fichier.t2t/. Et ÇA, c'est vraiment pratique pour organiser son ouvrage!

5. C'est très simple de rajouter des balises personnelles. Pour, par exemple, supporter les exposants et indices dans un document html, on met ceci au début du fichier txt2tags :

%!postproc(html): \\^\\^(.*?)\\^\\^ \\1 %!postproc(html): ,,(.*?),, \\1

Ici, txt2tags va remplacer les "^^" et les ",," par les balises html appropriées après la conversion. Et on en arrive au truc le plus génial de txt2tags : les instructions pré-conversion.


6.
Imaginons que dans mon document, je fasse plusieurs fois référence à un ouvrage ou un site internet. À chaque fois que j'en parle, je devrais ajouter les balises qui vont bien :

Exemple en markdown voici un nouveau site à lire absolument qui s'appelle [volted](http://volted.net/). On y trouve des informations sur OpenBSD, rédigées avec amour par sogal. [..] [..] On remarque d'ailleurs que [volted](http://volted.net/) est propulsé par blogotext.

Eh bien avec txt2tags, ça ressemblerait à ça :

%! preproc: volted "[volted http://volted.net/]" Exemple en txt2tags voici un nouveau site à lire absolument qui s'appelle volted. On y trouve des informations sur OpenBSD, rédigées avec amour par sogal. [..] [..] On remarque d'ailleurs que volted est propulsé par blogotext.

C'est vraiment génial. Si par exemple on veut faire un renvoi dans son texte plusieurs fois à un autre paragraphe, le preproc est parfait. On peut aussi l'utiliser pour remplacer rapidement plusieurs parties du texte identiques en ne modifiant qu'une seule ligne.

Si vous n'avez pas d'éditeur de texte sous la main, vous pouvez l'essayer ici.. Il y a même une bibliothèque php pour vos sites si vous voulez!
Un CMS ou un blog qui utiliserait ce langage serait vraiment une perle!

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Yannig : Prototypage d'infra à l'aide de Docker et Ansible

J'utilise depuis quelques temps l'outil Ansible pour gérer mes environnements. Il y a peu, j'ai eu besoin de mettre en place des tests automatiques. Comme toujours, c'est posé la question de savoir où lancer ces fameux tests.

La réponse classique aurait de se baser sur des VM mais comme d'habitude, j'avais des difficultés à avoir ces machines :

  • Il faut demander une entrée DNS ;
  • Il me faut une adresse IP ;
  • Il faut l'installer ;
  • Attention, l'hyperviseur est bientôt saturé ;
  • Mais qui va payer ?
  • Mais qui va sauvegarder ?

Bref, comme toujours, la VM de test est presque aussi compliquée à installer qu'une VM de production et je n'arrive pas à expliquer aux gens qu'il s'agit d'un besoin jetable.

Dans ce cadre, j'ai repensé aux quelques tests que j'avais réalisé sur Docker il y a quelques temps et je me suis dit que ce produit pourrait très bien répondre à mon besoin.

Disclaimer : Ce qui va suivre n'est absolument pas conseillé dans le cadre d'une production. Ce besoin s'inscrit dans un besoin de prototypage d'infra. Ce mode de fonctionnement n'est pas assez stable - du moins pour l'instant - dans des besoins sérieux.

Bref, je demande une VM avec Docker dessus et partant de là, je peux commencer à travailler.

Le principe

Mon besoin est de pouvoir me connecter à un container en faisant mes opérations comme si j'étais dans une vraie machine. Pour se faire, je suis quand même obligé de lancer un process pour faire croire à Docker et Ansible que quelque chose tourne. Dans un premier temps, j'ai fait quelques tests en lançant avec des commandes sleep ou tail -f /dev/null. Le problème est que lorsque j'ai voulu démarrer mes services à l'aide de systemd, j'ai eu quelques plantages.

Problème systemd dans Docker

L'un des premiers problèmes que j'ai abordé a été la gestion des spécificités de systemd. En effet, dans le cas des distributions modernes (centos 7, ubuntu 15.10 ou 16.04), le démarrage est entièrement géré par systemd. Le seul petit hic étant que ce dernier change entièrement la façon de gérer les services. C'est assez marrant d'ailleurs, ce changement m'a fait pensé à la refonte des services dans Solaris 10 (attention, un troll c'est glissé dans ce paragraphe).

Il faut donc embarquer systemd dans votre container Docker. Mais d'un autre côté, ça me permet de virer la commande tail -f.

Ce qu'il y a de rigolo dans tout ça, c'est qu'il est plus simple de gérer un centos 6 dans Docker qu'une version 7.

Problème systemd dans Docker (suite)

Vous allez me dire, dépose un fichier /etc/init.d lance le avec un shell et ça fonctionnera pareil. Et bien non puisque même si vous passez par le script directement, systemd l'intercepte et vous vous retrouvez avec le magnifique message d'erreur suivant :

Failed to get D-Bus connection: Operation not permitted

Le problème vient du fait que systemd a besoin d'accéder à tout un tas de chose pour gérer le contexte de lancement des process. La solution est donc de lancer le container en mode privileged avec les problèmes de sécurité que ça peut entraîner. Encore une fois, il ne s'agit pas d'un problème dans mon contexte mais je vous le déconseille vivement dans un autre contexte (en production par exemple).

Problème systemd dans Docker (suite)

Le lancement du premier container se passe très bien mais rapidement, je constate que certains process getty se lancent en se goinfrant 100% de CPU. En creusant un peu, je me rends compte que systemd (sous centos 7) lance automatiquement le service getty@tty1. Le premier lancement n'a pas de conséquence mais le problème apparaît au lancement des containers suivants. Ici, la solution est relativement simple : désactivation du service à la construction de l'image Docker. Ci-dessous l'instruction dans Dockerfile permettant de le réaliser :


RUN systemctl disable getty@tty1
Redémarrage des containers

Ayant fini par faire fonctionner mes playbooks, je me suis dit qu'il était temps de tester un arrêt/relance du container pour voir comment ça se comporte. Là encore, ça ne fonctionne pas vraiment bien. Ne comptez donc pas (pour l'instant) utiliser systemd pour gérer le démarrage des services de vos containers.

Connexion au container

J'en ai parlé il y a peu mais là, pas de problème : Ansible dispose d'un connecteur docker natif. Il faut donc se débrouiller pour affecter la valeur docker à la variable ansible_connection et le tour est joué.

Modélisation du réseau

Un autre truc qui a bien fonctionné est la capacité de Docker à manipuler des réseaux virtuels. Par le passé, sous Linux, cette partie pouvait être vraiment une gageure. J'avais écrit un article sur le sujet à l'époque. Il vous fallait gérer l'ajout de bridge, gérer la création des interfaces virtuelles de vos VM. Ici, rien de ce genre, vous créez votre réseau et Docker se charge du reste :

  • Création du bridge ;
  • Visibilité des containers dans le même réseau.

Ci-dessous un exemple de lancement de la création d'un réseau Docker :

docker network create demo

Tous les containers que nous rajouteront dans ce réseau par la suite auront automatiquement une résolution DNS disponible.

Pour conclure

Vous l'aurez compris, systemd et Docker ne sont pas les meilleurs amis du monde. Je trouve ça d'autant plus dommage que je pense qu'il y aurait clairement quelque chose d'intéressant à avoir si le support de ces deux produits avaient été meilleurs. Si comme moi vous avez utilisé des solutions à base de zone Solaris, vous pouvez passer votre chemin, il ne s'agit pas du même niveau de stabilité.

Une autre leçon à retenir de tout ceci est que Docker n'est clairement pas un remplacement d'une virtualisation classique. Ne partez surtout dans l'idée de réutiliser les mêmes outils sans passer du temps sur les adaptations préalables. Cette bascule doit absolument se faire dans le cadre d'une refonte de votre application et de sa gestion.

Pour le reste, l'outil Docker est très pratique à utiliser et vous permettra de prototyper très rapidement votre infra sans trop d'effort.

Un autre outil intéressant que je suis en train de creuser semble être Packer. En effet, cet outil permet de réutiliser vos playbooks pour la création de vos images Docker. Le gros avantage est que vous n'avez donc qu'un travail minimum pour créer indifféremment des machines classiques ou des containers et en vous garantissant d'avoir la même chose partout.

Attention toutefois, il s'agit pour moi d'une situation transitoire si vous avez décidé de partir sous Docker. Il reste très important de mon point de vue de simplifier vos installations et de passer par du Dockerfile. Idéalement, Ansible ne devrait vous servir que pour l'enchaînement de vos différentes tâches ou dans la gestion des machines qui ne sont pas dans le cloud (base de données par exemple) ou pour la gestion de l'infra Docker.

Concernant le code Ansible/Docker, vous pourrez retrouver des exemples dans le repository sur github du repository Meetup Ansible Paris #9. Bonne lecture !

Gravatar de Yannig
Original post of Yannig.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Yunohost - Autohébergement - Le Spare

Pour mes sauvegardes, j'applique la règle des 3-2-1. Je laisse sur mon lieu de travail un disque chiffré avec une copie de sauvegarde réactualisé toutes les semaines (ainsi j'externalise). Les billets de blogs en cours de rédaction (du contenu public) sont synchronisés pour sauvegarde sur un Owncloud.

Je me pose régulièrement la question : je perds des données sur telle machine ou tel disque. Qu'est ce que je perds comme données. Ce que je perds, c'est ce que je ne sauvegarde pas. Je mets donc en place, je complète ma politique de sauvegarde en conséquence. Je trouve un équilibre entre la contrainte de la sauvegarde, sa fréquence et l'importance des données. Désormais c'est bien en place, ça marche bien et je pense que c'est bon. Jusqu'au jour où l'erreur à laquelle je n'avais pas pensé viendra me montrer que j'ai encore des choses à apprendre niveau sauvegarde.

En pensant perte de données, je fais des sauvegardes. Mais qu'en est-il de la perte d'une machine ? Par perte je ne pense pas vol (pour ça il y a le chiffrement qui empêchera l'accès aux données sauvegardées et les sauvegardes externalisées pour avoir une copie des données perdues/volées). Mais un disque dur qui lâche, une barrette mémoire qui est défaillante, une alimentation qui brûle.... Combien de temps j'ai pour rétablir le service par exemple (dans le cadre de mon auto-hébergement) ? Est-ce que j'ai une solution alternative, un mode dégradé ?

Pour les disques durs de sauvegarde, j'en ai plusieurs. Donc si il y en a qui lâche, je dois le remplacer mais j'ai normalement les données sur une autre copie de sauvegarde (on en revient au questionnement abordé plus haut)

Pour chaque machine que j'ai, j'ai identifié quel machine de remplacement je pourrais utiliser en attendant. J'ai un smartphone de secours (retour sur mon ZTE Open C pour le coup). Les données importantes sont les contacts (et ça ne change pas tous les jours donc c'est à jour).

Pour les PC, je peux utiliser provisoirement mon PC professionnel avec une distribution en live-usb.

Pour mon PC et pour mon système d'auto-hébergement, j'ai des barrettes de mémoire d'avance. Un disque dur. C'est du matériel d'occasion/de récupération. J'ai mon Raspberry (j'ai migré mon auto-hébergement sur une machine un peu plus véloce, ce serait donc passage à un mode dégradé).

Il reste la box ADSL. Dans ce cas je passe dans un Free Center sur Paris après le boulot. La ligne téléphonique en elle même, je peux passer par la 3G du téléphone (mais cela bloque l'auto-hébergement le temps de résoudre le problème).

Reste le spare de moi-même. Ce sera là le sujet d'un projet billet à venir.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Journal du hacker : Liens intéressants Journal du hacker semaine #18

Pour la 18ème semaine de 2016, voici 5 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Planet Libre : Brèves du Planet Libre - lundi 09, mai 2016

Quels sont les 9 projets open source financés par DuckDuckGo ? - Numerama DuckDuckGo financement libre chiffrement Tor

antistress: "Le site DuckDuckGo dévoile le nom des neuf lauréats qui ont droit à une enveloppe de 25 000 dollars chacun pour poursuivre le développement de leur projet open source."
Les bénéficiaires sont Secure Drop, GPGTools, Freenet, Fondation OpenBSD, CrypTech, Tor, Save Security, VeraCrypt et LEAP.

Torsploit - Un malware anti-Tor développé pour le FBI pour détruire l'anonymat | UnderNews pistage logiciel_malveillant institution Tor Flash sécurité

antistress : "Pour démasquer les utilisateurs de Tor, Edman a travaillé en étroite collaboration avec le FBI et l’agent spécial Steven A. Smith pour développer et déployer un logiciel malveillant spécifique surnommé « Cornhusker » ou « Torsploit, » qui collecte des informations d’identification sur les utilisateurs de Tor.
Ce logiciel exploite des vulnérabilités présentes au sein d’Adobe Flash Player pour révéler l’adresse IP réelle des utilisateurs de Tor à un des serveurs du FBI situé en dehors du réseau Tor. Adobe Flash Player a longtemps été considéré comme dangereux par de nombreux experts en cyber-sécurité, et le projet Tor a plusieurs fois mis en garde contre son utilisation. Cependant, beaucoup de gens continuent de faire usage de Flash, y compris dans leur navigateur Tor."
(via le Journal du Hacker)

G'MIC 1.7.1 : quand les fleurs bourgeonnent, les filtres d'images foisonnent - dépêche sur LinuxFr.org GIMP logiciel création multimédia

antistress : "La version 1.7.1 « Spring 2016 » de G'MIC (GREYC's Magic for Image Computing), infrastructure libre pour le traitement d'images, a été publiée récemment, le 26 avril 2016. [...] La deuxième partie de la dépêche détaille quelques uns des nouveaux filtres et effets disponibles dans le greffon G'MIC pour GIMP, qui reste l'interface de G'MIC la plus utilisée à ce jour. Nous abordons aussi les autres évolutions diverses du projet comme l'amélioration et la création d'autres interfaces d'utilisation ainsi que les avancées « techniques » réalisées au cœur du framework."

WebKit supporte 99 % d'ECMAScript 2015 et abandonne les préfixes CSS - Next INpact WebKit Apple Safari Google Chrome Mozilla Firefox Web standard CSS

antistress : "L’équipe WebKit a également annoncé une autre nouvelle d’importance : la fin des préfixes CSS. Un changement majeur pour le développement web."
Ça c'est cool :)

Gravatar de Planet Libre
Original post of Planet Libre.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Ce site est désormais hébergé avec openBSD

Suite à des problèmes avec mon routeur, des resets, des reconfigurations, d'autres reset, des tests ici et là, j'ai pris la décision de tout reprendre à zero. Alors que le routeur va mieux, le site yeuxdelibad est maintenant hébergé sur un système openBSD.
Et là je me dis : "Mais pourquoi je ne l'ai pas fait avant?".

Car qu'on se le dise, openBSD, c'est simple!!!

Par exmeple, pour le courrier électronique. Alors que la configuration d'un serveur de mail devient vitre une véritable prise de tête avec postfix, c'est d'une simplicité étonnante avec opensmtpd.

Et là, incroyable!
La configuration de postfix tient en 2 fichiers contenant, sans les commentaires, 130 lignes :

cat /etc/postfix/main.cf /etc/postfix/master.cf |egrep -v "^#" |wc -l 130

Celle d'opensmtpd tient en 1 seul fichier de 24 lignes :

cat /etc/mail/smtpd.conf |egrep -v "^#" |wc -l 24

Sachant que avec ça, j'ai le dkim, l'antispam et tout le tintouin... Fou non?

Pour http, comment dire? Quand je vois que j'arrive à avoir un A+ sur ssllab avec 1 seul fichier et très peu de lignes de conf, ben...

Bon, il me reste encore des petites choses à régler bien sûr, mais c'est nettement plus agréable de gérer son serveur avec openBSD!

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Yannic Arnoux : Mon informatique personnelle

C'est une période de réflexion et de mise en ordre de mon informatique personnelle. Après un hiver rigolo à changer de distribution toutes les deux semaines sur mon fidèle portable, l'occasion de découvrir quelques distributions peu connues et sympathiques comme la NuTyX, de faire mon test annuel de BSD et en conclure que ce n'est pas (encore) pour moi ou que je n'aime toujours pas KDE, avant de revenir à ma distribution de départ : une Debian Jessie avec Mate Desktop, l'environnement de bureau qui progressivement uniformise l'ensemble de mes machines. J'ai longtemps utilisé XFCE, que j'apprécie toujours, mais je trouve un charme old school inimitable à Mate Desktop qui me rappelle ma jeunesse ;-) Fini donc le yoyo des distributions pour quelques temps, il est temps de se servir de sa bécane au lieu de la réinstaller.

Le sujet de réflexion du moment, c'est la sécurité des données. C'est loin d'être une obsession pour moi mais il y a un minimum à faire pour ne pas se trouver démuni quand le pépin arrivera (et il arrivera forcément). J'ai donc recensé mes données sensibles et importantes. Je me rends compte que je trimballe pas mal de données sensibles sur mon portable, notamment ma base de données KeepassX qui conserve mes identifiants de la quantité de sites Web que je fréquente. Mon portable fait des sauvegardes vers la seule machine fixe de la maison, un iMac de 2007 (pas de troll merci) et je fais régulièrement un clone de cette machine sur un disque dur externe. L'iMac conserve aussi les photos familiales, on arrive à 60 Go de photos. Ce sont les données importantes à ne surtout pas perdre. J'ai donc une sauvegarde de tout ça en local mais pas de sauvegarde sur un autre site. En cas de gros pépin (cambriolage, incendie), j'ai tout faux :-(

Pour protéger mes données sensibles en déplacement, j'ai opté pour le chiffrement du disque dur à la réinstallation de ma Debian et j'ai mis en place des certificats Let's Encrypt pour mon installation d'Owncloud et mon WebMail Roundcube.

Pour sauvegarder mes données à l'extérieur, j'ai d'abord envisagé un serveur plus gros que celui qui héberge mon blog et mon cloud actuellement et une solution simple basée sur Rsync. Le prix de l'espace disque m'a un peu refroidi et je me suis intéressé aux solutions de stockage pur pour retenir Hubic qui, sur le papier, a beaucoup d'atouts (oui ça va se gâter si vous êtes des fans OVH qui ne supportent pas la critique de leurs idôles, sautez les paragraphes qui suivent) :

  • la réputation de l'hébergeur OVH
  • un stockage sur des serveurs localisés en France
  • un stockage triplé sur trois serveurs différents
  • un coût qui écrase toute concurrence : 1 euros les 100 Go par mois

J'avais testé Hubic lors de sa sortie avec l'offre de 25 Go offerts, c'était en bêta test, il y avait beaucoup de soucis et tout a été refait techniquement depuis, je me suis dit banco et j'ai souscrit pour une année. Dommage !

J'ai d'abord sorti mes photos du silo iPhoto de MacOS pour les stocker de manière standard : un répertoire par année, puis un répertoire combinant la date et le nom de l'évènement. Pour cela, je remercie Brian et sa moulinette magique. J'ai posé les photos dans mon répertoire synchronisé avec Hubic et j'ai regardé tourner la machine une semaine. Ca n'est pas choquant, j'ai une ligne ADSL avec un upload moyen et j'ai limité Hubic pour ne pas utiliser toute la bande passante. En parallèle je me suis intéressé à sortir de iPhoto en installant la gallerie Web Piwigo sur ma vieille version de MacOs (Snow Leopard). Je passerais rapidement sur mes galères avec le monde de la pomme : installer MacPorts pour pouvoir juste installer Git, installer HomeBrew et virer MacPort pour éviter les conflits, trouver une version de Xcode d'époque et finalement installer une stack MNMP (MacOS / NginX, MySQL, PHP) opérationnelle, puis finalement Piwigo.

Ah Piwigo c'est pas mal ! De belles galeries en mode Web, une gestion des droits utilisateurs, une gestion de l'unicode parfaite (???) Enfin parfaite... sans bug en tout cas, car inexistante ce qui gomme tout problème d'intéropérabilité, les accents ne sont pas supportés dans les noms de fichiers, ni les espaces juste le classique A-Za-z0-9_-. C'est probablement un choix rationnel pour une galerie destinée à héberger des photos sur le Web mais sur le coup ça ne m'a pas arrangé. J'ai regardé mes photos juste synchronisées sur Hubic et j'ai commencé une moulinette pour détecter les caractères interdits. Rien de trop méchant au final, 98% des fichiers sont déjà corrects, par contre 95% des répertoires ont des accents ou des espaces. Dans la lancée j'ai fait une moulinette crade pour renommer mes répertoires. C'est là que j'ai vu la 1ère faille d'Hubic qui a commencer à supprimer les fichiers pour repousser les mêmes fichiers dans un répertoire avec un nom différent. En gros, chez Hubic, il n'y a pas de somme de contrôle pour détecter qu'un fichier a juste changé de nom ou que le répertoire a changé de nom. Pire que cela, la suppression est désespérement longue : c'est le désavantage de la fameuse triple redondance, on attend la confirmation de suppression des données sur les trois data centers. A ce stade, j'ai trouvé malin de stopper le client de synchronisation, de virer mes photos localement et de passer par l'interface Web Hubic pour supprimer les données, pensant que ça serait plus rapide. Erreur, cela a pris environ 8 heures.

Ne me laissant pas décourager, j'ai regénéré un répertoire propre avec mes photos bien formatées en forkant la moulinette de Brian pour rajouter une option et je suis reparti pour une petite semaine de synchronisation avec Hubic. Ca s'est bien passé, j'ai un serveur Piwigo local accessible par Wifi dans la maison. Mais deux choses m'ont gratté :

  • parfois le client Hubic télécharge à nouveau des photos (alors qu'il possède la version de référence des données)
  • la taille occupée par mes données sur l'interface d'administration Hubic ne correspond pas à ce que je compte sur mon disque.

Du coup, je me suis mis à douter de l'intégrité de mes données. J'ai souscrit un mois d'hébergement pour un serveur avec 100 Go de disque et j'ai installé une Debian et le client Hubic pour Linux. J'ai commencé à rapatrier mes données sur ce serveur. A mon grand étonnement, le téléchargement n'est guère plus plus rapide que l'envoi, des débits entre 50 et 250 Ko/s. Le rapatriement des données a pris 4 jours. En grand parano, j'ai fait un checksum MD5 de l'ensemble des fichiers et j'ai comparé avec ma référence sur l'iMac. Et bien ça correspond, Hubic fonctionne (les fans OVH, vous pouvez revenir).

Au final, je vais changer de solution de sauvegarde à cause du manque de confiance que j'ai acquis en deux semaines de test et des faibles performance en téléchargement. Je m'oriente donc vers une solution classique avec un serveur hébergé et du probablement du rsync et je cherche la perle rare dans les tarifs que je m'impose, mais c'est une autre histoire.

Gravatar de Yannic Arnoux
Original post of Yannic Arnoux.Votez pour ce billet sur Planet Libre.

Articles similaires

Tuxicoman : La Mairie de Fontaine migre 600 ordinateurs sous GNU/Linux

Témoignage d’une migration en douceur par le DSI de la maire de Fontaine en Isère.

Ca me semble la bonne approche : Migrer vers du logiciel libre en premier lieu les serveurs, puis les logiciels clients, enfin les systèmes d’exploitation clients.
Les volontaires migrent en premier. Ce qui donne une bonne image et assure une certaine diffusion du prosélytisme.
Une formation pour assurer la continuité de service : « Comment faire sur OpenOffice ce que je sais faire sur MS Office ?»

Ça demande une continuité de la volonté politique quand même. Et on sait comment un petite promo de M$ peut casser un tel mouvement.

Related Posts: J'aime !(6)Je n'aime pas !(0)

Gravatar de Tuxicoman
Original post of Tuxicoman.Votez pour ce billet sur Planet Libre.

Thuban : Blogotext sort en version 3.3.7

Blogotext, le moteur de ce blog a été publié en version 3.3.7 par Timo aujourd'hui.
La mise à jour s'est faite sans encombres, il m'a suffit de remplacer les anciens fichiers par les nouveaux et de relancer l'installation. Bref, rien de bien méchant, et il est de toutes façons très facile de sauvegarder le blog auparavant, via l'interface d'administration ou par simple copie des fichiers.

Plusieurs nouveautés sont disponibles. Voici celles que j'ai pu retenir au premier coup d'oeil, car il y en a certainement que je n'ai pas encore repérées :

- Le thème par défaut intègre une liste de tags
- Les commentaires sont plus lisibles
- On peut recharger la liste des nouveaux éléments dans le lecteur rss via une simple ligne de commande. Cela peut se faire en ajoutant une ligne dans votre crontab. Pour cela, tapez "crontab -e", puis entrez la ligne suivante :

@hourly wget --spider -qO- https://votreblog.net/admin/_rss.ajax.php?guid=BLOG_UID&refresh_all

- Les éléments de l'interface d'administration ont été retravaillés, c'est plus esthétique.

Il me reste quand même un petit souci : certains gravatars sont absents, et il ne veut pas aller les recharger. Ça donne lieu à des images cassées, qui rend l'interface d'administration des commentaires désagréable. Mais ça, vous ne le voyez pas :P

edit : C'est réglé pour les avatars. Dans ma configuration de php, le fichier /etc/php-5.6.ini, il fallait mettre :

allow_url_fopen = On;

Tout ceci afin d'autoriser la mise en cache des gravatar (car c'est bon pour votre vie privée).

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Configuration de webalizer sous OpenBSD

J'aime bien avoir un minimum d'information sur les visites que reçoit mon serveur. J'ai pu tester awstats ou encore le très complet (mais bien plus lourd) piwik. Cependant, j'en reviens toujours à webalizer pour les raisons suivantes :
- Il génère des pages statiques périodiquement à partir des logs.
- Il est écrit en C et reste très léger pour la charge du serveur
- Il est facile à configurer pour cacher le contenu qui ne m'intéresserait pas.

Webalizer est disponible sous OpenBSD dans une version améliorée : Webalizer XTended qui remet un peu à jour certaines fonctionnalités.

Voici la marche à suivre pour l'installer sur openbsd. D'abord, on installe le paquet :

pkg_add webalizer

Ensuite, on créer un fichier de configuration à partir du modèle donné :

cp /etc/webalizer.conf /etc/webalizer.yeuxdelibad.conf

Vous éditez ce fichier à votre goût. Quelques options utiles :

- OutputDir /var/www/htdocs/yeuxdelibad.net/stats : vous choisissez où seront enregistrées les pages html générées
- HideSite *yeuxdelibad.net, HideReferrer yeuxdelibad.net/ : on cache les liens provenant de ses propres clics.
- HideURL *.css , HideURL *.woff : on cache les extensions non souhaitées
- IgnoreURL /favicon.ico : on ignore certaines URL
- Color* : pour changer les couleurs, car le thème par défaut, beurk!

Je vous met ma configuration ici si ça vous tente.

Ensuite, on lance une première fois la génération des statistiques :

webalizer -c /etc/webalizer.yeuxdelibad.conf

Pour que les statistiques soient générées tous les jours avant de faire tourner les logs, rajoutez la ligne ci-dessus dans le fichier /etc/daily.local (oui, c'est beau openBSD).

Et voilà, vos statistiques sont disponibles

alt

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Okki : Liste des projets acceptés pour le Google Summer of Code 2016

Google Summer of Code 2016
Tous les ans, plutôt que de passer l’été à vendre des beignets sur la plage, Google permet à des étudiants de travailler sur des projets libres. Le fameux Google Summer of Code.

Cette année, 21 projets GNOME ont été acceptés :

  • Agenda : implémentation de la vue par semaine.
  • Builder : implémentation d’un système de recherche et de remplacement, ainsi qu’un greffon pour la correction orthographique.
  • Fichiers : gestion des archives compressées directement au sein du gestionnaire de fichiers sans avoir à passer par une application externe, ainsi que l’implémentation d’un système pour le renommage en masse.
  • Games : prise en charge des manettes de jeu, ainsi que l’ajout de nouvelles consoles ou formats de jeux.
  • GNOME Keysign : application devant rendre plus accessible la signature des clés OpenPGP.
  • Journaux : meilleur système de recherche, avec l’ajout de filtres et de paramètres. L’application devrait également être capable de fournir des résultats au shell de GNOME.
  • Machines : prise en charge des machines virtuelles distantes au travers de SPICE et implémentation de fonctionnalités telles que les dossiers partagés ou le partage de la géolocalisation par Wi-Fi permettant à des connexions SPICE d’être découvrables sur le réseau…
  • Musique : permettre l’édition des métadonnées contenues dans les fichiers musicaux, ainsi que la prise en charge d’ownCloud pour pouvoir parcourir et lire de la musique stockée dans votre propre nuage.
  • Photos : permettre l’envoi d’une ou plusieurs photos, voir d’un album complet, vers Google Photos.
  • Pitivi : permettre la personnalisation des raccourcis clavier et utilisation de la nouvelle fenêtre de raccourcis clavier apparue dans GNOME 3.20.
  • Polari : amélioration de l’expérience utilisateur lors de la première utilisation, auto-complétion des pseudonymes améliorée, liste d’amis, système de recherche dans les conversations passées…
  • Web : nouveau système de marque-pages et utilisation du système de synchronisation proposé par Firefox pour pouvoir synchroniser les marque-pages entre les deux navigateurs (et sans doute les mots de passe et l’historique dans un futur proche), tout en permettant également à Web de pouvoir tirer profit de la synchronisation sur différents périphériques.

Notez qu’il ne s’agit que de la liste des projets qui ont été acceptés. Il n’y a aucune garantie sur le fait que les étudiants pourront mener leur projet à terme, et que la qualité du travail soit suffisamment bonne pour qu’il soit un inclus dans les différentes applications.

Rien ne dit que nous retrouverons donc toutes ces fonctionnalités dans la prochaine version de GNOME.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Yunohost, Clonezilla et Virtualbox

Afin d'avoir un serveur de recette assez facilement sur lequel je pourrais faire des modifications avant de les mettre en production, j'ai cloné mon instance Yunohost avec Clonezilla dans une image, sur une clef USB.

Puis j'ai créé une machine virtuelle dans Virtualbox avec une configuration assez proche de la machine que j'utilise pour mon hébergement (même taille et type de disque dur, quantité de mémoire, processeur). Dans la configuration de la machine virtuelle, j'ai associé ma clef USB en tant que périphérique. J'ai démarré la machine virtuelle sur l'iso de Clonezilla. J'ai restauré l'image depuis la clef USB sur le disque dur de la machine virtuelle (procédure classique avec Clonezilla).

Ainsi j'ai une machine virtuelle sur laquelle je peux faire des tests, pour laquelle je peux faire des snapshots etc. (J'ai tous les avantages que présente une machine virtuelle). Une fois mes modifications et évolutions validées, je documente tout ça dans mon wiki personnel (et j'en profite pour faire un billet de blog) et je peux refaire la modification sur ma machine d'auto-hébergement (puis sauvegarder tout ça proprement).

Cette machine virtuelle pourra aussi me servir pour faire des démonstrations en mode réseau local/réseau déconnecté si je veux présenter l'auto-hébergement (par exemple).

De plus j'ai conservé l'image de Clonezilla car cela me permet d'avoir une autre forme de sauvegarde de ma machine de production à un instant t (la différence étant quelques fichiers qui sont sauvegardées de façon régulière). Je pense faire ce type de snapshot - via Clonezilla- régulièrement (la machine a un tout petit disque dur de quelques gigas). Il faudra voir si je ne peux pas automatiser ça.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Articles similaires

Tuxicoman : Faille critique dans ImageMagick

logo-mediumUne faille critique dans ImageMagick permet de lancer facilement des commandes sur votre serveur par un simple upload d’image.

C’est à la portée de toute personne sachant lancer une commande dans un terminal.

En attendant le patch, pour s’en prémunir il faut modifier le fichier policy.xml (/etc/Imagemagick/policy.xml et /etc/Imagemagick-6/policy.xml sur Debian) afin d’y contenir ces règles :

Related Posts: J'aime !(2)Je n'aime pas !(0)

Gravatar de Tuxicoman
Original post of Tuxicoman.Votez pour ce billet sur Planet Libre.

Articles similaires

Pages