Planet Libre

blog-libre : Un point sur l’encodage des caractères

Aaaaaahhh l’encodage des caractères ! C’est la tour de Babel de l’informatique. Je vais essayer de vous donner quelques bases pour vous en sortir.

Il y a trois utilitaires à connaitre quand on a des problèmes d’encodage des caractères : iconv (l’indispensable), uchardet (le méconnu mais très utile), recode (parfois utile).

iconv permet de convertir un fichier d’un encodage vers un autre. Le problème c’est qu’il n’est pas intelligent, il faut lui spécifier l’encodage des caractères du fichier en entrée… mais encore faut-il connaitre cet encodage. uchardet permet justement de détecter l’encodage d’un fichier. recode fait grosso-modo le même travail que iconv mais écrase le fichier d’entrée, il faut donc faire très attention. Il peut être utile dans le cas où vous avez de nombreux fichiers à convertir par exemple.

apt-get install libtext-iconv-perl # Installation de iconv apt-get install uchardet # Installation de uchardet apt-get install recode # Installation de recode

Quelques exemples avec iconv.

iconv --from-code windows-1252 --to-code UTF-8 encodagequejaimepas.txt --output encodagequejaime.txt # Version longue iconv -f ISO-8859-1 -t UTF-8 /var/www/encodagequejaimepas.html -o /var/www/encodagequejaime.html # Version courte, -f est équivalent à --from-code, -t est équivalent à --to-code, --output est équivalent à -o iconv --list ou iconv -l # Afficher la liste des jeux de caractères reconnus par iconv

Quelques remarques : 1/ Si -t n’est pas spécifié, l’encodage (en sortie) choisi est celui de la locale du système 2/ Pour connaitre la locale du système : locale 3/ L’encodage Windows-1252 ou CP1252 c’est la même chose (voir ici pour l’explication).

uchardet s’utilise ainsi uchardet encodagequejaimepas.txt et indique l’encodage du fichier (par exemple Windows-1252). A noter que le mainteneur est Jehan développeur sur ZeMarmot, qu’on peut récupérer une version plus récente de ucharted sur le repository GitHub et qu’il y a une page Bountysource (Cet intermède publicitaire vous est offert par Cascador).

Dans le prochain article on ira plus loin en rentrant dans un problème concret.

A lire (notamment les commentaires) : linuxfr.org

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Articles similaires

Okki : xdg-app change de nom et devient Flatpak

flatpak

xdg-app est une technologie permettant d’installer facilement des applications sans avoir à se préoccuper de la distribution GNU/Linux utilisée ou de sa version, tout en isolant l’application du reste du système, proposant ainsi une bien meilleure sécurité. Sous GNOME, sa prise en charge est assurée par Logiciels depuis la version 3.20.

Le 9 mai, Alexander Larsson, principal développeur du projet, décide de changer le nom pour Flatpak. Une discussion sur la liste de diffusion laisse entendre qu’il s’agirait d’une référence aux cartons plats d’Ikea qui rendent les meubles faciles à distribuer, déballer et installer, tout en ayant un côté nordique / scandinave plutôt sympa ;)

Jakub Steiner a ensuite profité de l’occasion pour créer une nouvelle icône et commencé à travailler sur un nouveau site web.

On peut donc espérer que la technologie se démocratise enfin et que de plus en plus d’éditeurs se mettent à proposer leurs applications sous ce format. Et ce, même si on ne peut s’empêcher de penser qu’entre le serveur d’affichage Mir et son nouveau système de paquets Snappy censé proposer les mêmes avantages, Canonical risque de diviser une fois de plus les distributions, tout en faisant encore perdre du temps à la démocratisation du poste de travail sous GNU/Linux.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Vincent Gay : Bloquer le lancement automatique des vidéos vec Firefox

C'est une plaie ! Vous écoutez tranquillement votre musique favorite tout en lisant quelques nouvelles sur le web quand une vidéo que vous n'avez pas demandée se permet une intrusion sonore pour le moins inopportune. À l’époque du tout flash c'était relativement facile : il suffisait de régler la valeur du gestionnaire de plugin à "demander pour activer" (menu -> modules -> plugins) et le tour était joué. Mais depuis la généralisation des vidéos au sein des balises html5 c'est plus compliqué. Il existe malgré tout des solutions :

  • avec une extension, tel Flash Control (https://addons.mozilla.org/fr/firefox/addon/flash-control/)
  • en utilisant un paramètre de Firefox
    • tapez about:config dans la zone d'adresse et promettez de faire attention
    • dans la zone de recherche saisissez (ou collez) media.autoplay.enabled
    • par un double clic passez la valeur à false

Gravatar de Vincent Gay
Original post of Vincent Gay.Votez pour ce billet sur Planet Libre.

Articles similaires

alterlibriste : Podcasting : Alpinux

Aujourd’hui, je vais vous parler d’un podcast qui n’est pas tout nouveau puisqu’il a démarré en janvier et qu’il a publié 5 épisodes mais dont j’attendais qu’il parvienne à plus de maturité pour pouvoir en parler.

En effet, c’est un jeune podcast qui se cherche encore au niveau du format et de la qualité audio. Il y a déjà eu de grandes améliorations depuis le début mais il y a encore une marge de progression au niveau du réglage des micros des différents intervenants et/ou d’une normalisation en post-production pour rendre le tout plus agréable à l’écoute.

Par contre, au niveau des sujets abordés, c’est toujours très intéressant, l’épisode 0, notamment expliquait le déroulement concret et les problématique d’une install party. Alpinux est en effet une association et un GUL qui promeut l’utilisation des logiciels libres et les intervenants sont des fervents acteurs au niveau local (la Savoie).

Le podcast Alpinux a commencé ici et continue dont voici le flux rss.

La dernière émission est celle qui m’a décidé à enfin parler de ce podcast car ils ont invité Pouhiou pour venir parler de Dégooglisation au nom de Framasoft dont il est salarié. Ce qui est intéressant, c’est que l’on a quelqu’un qui vient par le côté artistique du libre pour discuter de l’intérêt et de la philosophie du libre avec des techniciens qui ont un peu le nez dans le guidon, ou plutôt sur leur clavier devrais-je dire, et la fin de l’interview est vraiment magnifique car tout le monde est sur le cul (et son cul c’est du Pouhiou).

Pouhiou que j’admire beaucoup pour son discours ouvert et tolérant fait une magnifique démonstration de la façon dont il faut ou ne faut pas parler du libre à ceux qui n’y connaissent rien, et je pense avoir à peu près le même discours au travers de mes billets.
Il parle ici notamment de l’importance de l’écoute des besoins et de ne pas vouloir convaincre à tout prix ou entrer dans les considérations techniques ou idéologique sur un logiciel ou une distro plutôt qu’un(e) autre : partir de la personne, de ses capacités et de ses besoins pour lui proposer les outils qui lui amèneront plus de liberté, c’est ça le libre.

Gravatar de alterlibriste
Original post of alterlibriste.Votez pour ce billet sur Planet Libre.

Littlewing : Quoi de neuf du coté du front-end

Depuis le début de l’année je suis en train de faire une spécialisation Coursera : Full Stack Developer.

Pourquoi me direz-vous ? Tout d’abord, j’ai principalement travaillé sur du back-office ou de l’outillage. Ça m’a servi de rattrapage sur ces technologies :

  • HTML/CSS ( ne rigolez pas j’ai appris des choses…)
  • Bootstrap
  • Angular
  • Applications mobiles hybrides
  • NodeJS

Sachant que j’ai principalement travaillé sur JAVA, ça m’a fait un peu bizarre

Qu’est-ce que j’en ai retenu:

Javascript et les langages interprétés, ce n’est pas fait pour moi. Un compilateur c’est quand même bien pour découvrir des erreurs de syntaxes (je suis trop vieux pour ces co%%%£$$) …. Les puristes du javascript me diront qu’il y a les tests unitaires. Pour moi ça ne remplace pas un compilateur. Pas étonnant que des initiatives comme typescript ou babeljs arrivent massivement sur le marché.

Je comprends pourquoi AngularJS a inondé le marché ces dernières années. C’est assez bien foutu.

Le combo NodeJS/express/mongoose permet de réaliser des APIS et des requêtes facilement .

Un exemple de route pour une requête GET

myRouter.route('/')     .get(function (req, res, next) {         model.find({})                  .exec(function (err, entity) {                 if (err) throw err;                 res.json(entity);             });     })

Un exemple de requête qui m’a bluffé

 Model.remove({             'att1': value         }, function (err, resp) {             if (err) throw err;             res.json(resp);         });

Pour conclure, je ne  pense pas que je ferai des sites web de sitôt, mais ça m’a donné une bonne vision d’ensemble des technologies.

Gravatar de Littlewing
Original post of Littlewing.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Service caché tor et OpenBSD

Je ré-ouvre l'accès à ce site via un service caché tor. C'est tellement simple à mettre en place, pourquoi s'en priver?

Dans le fichier /etc/tor/torrc, on a juste à décommenter ceci :

HiddenServiceDir /var/tor/hidden/ HiddenServicePort 80 127.0.0.1:80

On recharge tor avec "rcctl restart tor", et on trouve dans le fichier /var/tor/hidden/hostname l'adresse en .onion :

# cat /var/tor/hidden/hostname 5rud2tr7sm3oskw5.onion

Ne reste plus qu'à configurer http dans le fichier "/etc/httpd.conf" pour lui dire d'écouter l'adresse en .onion et servir le site qui va bien :

server "5rud2tr7sm3oskw5.onion" { listen on 127.0.0.1 port 80 root "/htdocs/racine" # emplacement du site directory index index.html [...] }

On recharge httpd avec "rcctl reload httpd", et ça y est! ☺

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

elementary OS : Ubuntu mais pas que….

Il y a peu de temps nous vous annoncions que Pantheon était en cours de portage vers Debian et c’est maintenant au tour de Fedora de se voir accueillir Pantheon, voici la première capture d’écran en guise de preuve

Pantheon

 

Pour en savoir plus, direction le Google+ de Fabio Valentini

Le billet Ubuntu mais pas que…. a été publié sur le site de la elementary OS -

Gravatar de elementary OS
Original post of elementary OS.Votez pour ce billet sur Planet Libre.

genma : Autohébergement du blog

Une version beta du blog autohébergée existe. Elle est accessible via un nom de domaine standard et via tor, sous une adresse en .onion. Quelques personnes ont eu l'adresse et ont commencés le beta-testing.

Cette version autohébergée est un miroir de ce blog hébergé chez Free. Une tâche cron tourne toutes les nuits sur ma machine d'auto-hébergement pour faire une synchronisation/un miroir du blog.

Ce qui marche : il y a une certificat Let's Encrypt pour le blog sous son adresse publique, un certificat autosigné pour son adresse en .onion.

Cette version auto-hébergée étant derrière une ligne ADSL (je n'ai donc que 800 ko en upload), j'ai encore quelques optimisations à faire avant de rendre l'adresse publique. Parmi les optimisations il y a la taille de chaque page (image), du code HTML. Ce travail sera utile est aussi répercutée sur la version chez Free. Car oui la version chez Free restera, je ne vais pas migrer définitivement chez moi. Si je dois migrer, ce sera sur un serveur que je louerai. Pour l'instant, je me fais la main sur une machine chez moi, ça me permet de progresser et d'apprendre plein de choses.

J'ai également du travail d'administration régulière et de supervision (journaux/logs), valider la partie administration, de veille en sécurité (va falloir que je me penteste moi-même et fasse ça avec des personnes de confiance).

Bref, ça avance, ce n'est pas encore finalisé mais c'est en cours :-)

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

François Boulogne : La brique internet : contourner son FAI par un VPN ou tor

Je viens de lire le billet de aeris concernant la fabrication d'une torbox. Il me semble que la brique internet conçue par des contributeurs de FFDN et yunohost est trop méconnue. Courte présentation.

La brique internet consiste en un ordinateur à faible consommation possédant une carte ethernet et une antenne wifi. Le principe est de connecter cette brique au modem-routeur et d'émettre un wifi qui redirige la communication sur un VPN. Ainsi, le FAI ne voit que des communications chiffrées avec un VPN.

Quelques cas d'utilisations :

  • Chez soi, on a un réseau wifi propre sans configuration VPN des clients.
  • Cette brique peut être intéressante pour l'autohébergement car elle permet de disposer d'une IP fixe du VPN et de ne pas avoir à se préoccuper d'un FAI ne fournissant pas d'IP fixe ou bloquant des ports.
  • En déplacement chez des amis, on a son propre accès internet.
  • Avoir un accès tor en plus de l'accès VPN sur un réseau wifi séparé
  • Mettre en place un espace de partage (piratebox)
  • Faire tourner quelques services (mais pas trop gourmand en ressources) comme du RSS, filtrage email, petit site web.

Le coût total est de 80€, mais on peut l'obtenir pour env. 60€ si on passe par FFDN. Pour l'installation, il suffit de suivi cette documentation Yunohost très didactique. Pour une présentation plus exhaustive (au moment où la réalisation était encore en cours), voici une conférence à PSES2015.

Gravatar de François Boulogne
Original post of François Boulogne.Votez pour ce billet sur Planet Libre.

Articles similaires

Monitoring-FR : Meetup Paris Zabbix #1 avec Alexei Vladishev le 23 juin 2016 chez Blablacar

Le groupe Meetup Paris Monitoring s’étend et propose un Meetup Paris Zabbix UG (User Group) le 23 juin 2016. Fait marquant de ce meetup, la participation d’Alexei Vladishev, créateur de Zabbix, logiciel libre de supervision et de monitoring, fondateur et CEO de Zabbix LLC, la société éditrice de Zabbix. Meetup à ne pas manquer si vous êtes fan de Zabbix!

Le meetup aura lieu le jeudi 23 juin 2016, dans les locaux de la société Blablacar, sponsor de l’événement mais aussi utilisateur de Zabbix. Pour rappel, un cas d’utilisation de Zabbix avait déjà été réalisé par Blablacar lors du premier meetup Paris Monitoring en juin 2015 :

« 23k métriques & 6,5k alertes, 300 tests par seconde avec Zabbix: comment fait-on chez BlaBlaCar ? »
Par Jean Baptiste Favre / @jbfavre / http://www.jbfavre.org

À noter que vous pouvez proposer des sujets si vous souhaitez faire un retour utilisateur de Zabbix.

Pensez à vous inscrire sur le site pour participer à l’événement.

Correctif : le meetup aura bien lieu le jeudi 23 juin (et non le 26 comme mentionné précédemment).

Gravatar de Monitoring-FR
Original post of Monitoring-FR.Votez pour ce billet sur Planet Libre.

Articles similaires

Marthym : Github release avec Travis CI

Introduction

Vous développez un projet Open Source que vous hébergez chez Github et vous utilisez Travis CI pour le builder automatiquement. C’est sympa ça fait le job mais reste une étape un peu fastidieuse, la release de votre projet. Travis peut faire ça pour vous.

Plusieurs sites en parlent mais beaucoup sont obsolètes et la plupart donnent un bout de configuration Travis sans plus d’informations.

Cas pratique

Dans l’exemple que l’on va voir j’ai traité mon CV comme un programme. Il est écrit en LaTeX et nécessite donc d’être compilé et buildé. Puis, au lieu d’un .jar ou d’un .tgz, c’est le PDF resultant qui est releasé. La partie compilation est particulière mais c’est la partie release qui nous intéresse ici et qui sera la même quel que soit le type d’application à produire.

Voilà donc le bout de configuration que j’ai rajouté dans le .travis.yml :

Question de sécurité

La première question à se poser est celle de la sécurité. En effet on va donner à Travis le droit de modifier des choses dans notre compte github. Sachant que tout est en open source et donc lisible par n’importe qui c’est un peu flippant.

Pour cela travis offre la possibilité de crypter des informations dans les fichiers .travis.yml. Seul ce bon vieux Travis sera alors capable de lire ces informations. Le cryptage est fait via un mécanisme de clés privée/publique. Pour crypter les informations il faudra installer travis-client, c’est lui qui a la clé publique et qui permettra d’encoder l’accès à github. Mais ce système permet d’encoder tout ce que vous voulez faire passer à vos scripts de build. Les informations encryptées sont alors accessibles en tant que variables d’environnement dans vos scripts.

Ensuite si Travis se fait voler sa clé privée ou que quelqu’un y a accès, c’est un risque à considérer. Pour limiter les dégâts, il est fortement recommandé de créer un compte github dédié à Travis ET au projet à déployer. Ce compte aura des accès limités au minimun nécessaire pour releaser dans le repos voulu. Ca évitera qu’un éventuel attaquand est le plein accès à tout vos repos.

Pré-requis Installation

Le client travis s’installe facilement (sous Debian) :

apt-get install ca-certificates apt-get install ruby ruby-dev build-essential gem install travis --no-rdoc --no-ri La version rapide

En effet, une commande va permettre de configurer le processus de release rapidement. Pour cela il faut se mettre dans le répertoire de son projet, où se trouve le .travis.yml et taper :

travis setup releases

Documentation Travis

Configurer le projet à la main

La commande se contente d’ajouter dans votre projet le fichier travis.yml

deploy: - provider: releases api_key: secure: file: mon-cv.pdf skip_cleanup: true on: repo: Création de l’API Key Secure

Le plus compliqué c’est la partie api_key.secure. Pour la renseigner, le client travis crée dans votre compte GitHub (celui créé pour l’occasion) un “Personnal access token” avec le scope “public_repo”. Puis il prend le token généré (qui ressemble à ça 442a8535d2071f98c83bb3bef862312d58a72ee8) et l’encrypte.

travis encrypt "442a8535d2071f98c83bb3bef862312d58a72ee8" -r

Il est possible d’omettre le si vous êtes dans le répertoire du repo en question. Le résultat donne la ligne secure :

secure: "KZFkBvpo+K6d0UfYa5Xpgmn4MfrNpFCOzjNbXpX682eRurJrbL+OxfwDmR0dyBFkcEKMgBoUX3YCnXQnzLHIb4fFWUx2K+sfdvvMZwse2rbDnQeM2P8peyYSXer52fuORPzMin0vnCem12t7sNIbi/0oSOUsVOTEUZSsNJoPZYo=" Options intéressantes

Comme expliqué plus haut, j’ai traité mon CV comme un programme développé en LaTeX. Mais LaTeX à installer c’est un peu l’usine. Si je ne suis pas sur mon PC et que je veux faire une retouche rapide c’est compliqué.

Par chance Travis vient à mon secours, c’est lui qui va compiler le CV et me retourner le PDF sous forme d’une release draft. Voilà mon travis.yml visible sur mon github

deploy: - provider: releases api_key: secure: DgG2D29uPVbTLAfD3cte6hGT35CppoaNv56PENgvrHpfAIFWhxsjLy9x/qvEGXSPYA6bHpOIIrjT4cwBHZN7HxPsrtL+xuXCZYCP1G6XT8RteHAtCterOvvtLtihe2iW6PLxCgCR8etDpxKnE4s0/Jwt+s0eNm73Q7FsolN3aSk= file: mon-cv.pdf skip_cleanup: true draft: true on: repo: Marthym/curriculum-vitae - provider: releases api_key: secure: DgG2D29uPVbTLAfD3cte6hGT35CppoaNv56PENgvrHpfAIFWhxsjLy9x/qvEGXSPYA6bHpOIIrjT4cwBHZN7HxPsrtL+xuXCZYCP1G6XT8RteHAtCterOvvtLtihe2iW6PLxCgCR8etDpxKnE4s0/Jwt+s0eNm73Q7FsolN3aSk= file: mon-cv.pdf skip_cleanup: true on: tags: true repo: Marthym/curriculum-vitae

La section on permet de mettre des conditions à la release. Et il est possible de préciser plusieurs configurations de release avec des conditions différentes. L’option draft permet de générer des drafts de release, c’est un peu moins lourd et ça ne génère pas de tag sur la branche.

Le premier bloc demande donc une draft release à chaque fois qu’un commit est posés sur la branche. Ca me permet par exemple de contrôler que les modifications que je fais sont bonnes. Puis quand tout est bon, il suffit de tagger la branche et de pousser. Grâce à la condition tags:true de la deuxième configuration, Travis va me faire une vrai release au lieu d’un draft.

Liens

Github release avec Travis CI écrit à l'origine par Marthym pour J'ai acheté un PC neuf cassé ... le May 11, 2016.

Gravatar de Marthym
Original post of Marthym.Votez pour ce billet sur Planet Libre.

Philippe Scoffoni : 4 suites bureautiques en ligne open source

Office365 conquiert tous les jours davantage de terrain dans les entreprises malgré la concurrence de Google. L’existence de solutions open source dont l’utilisateur peut avoir le contrôle est un réel enjeu. À ce jour, peu d’alternatives crédibles ont pointé le bout de leur nez.

La plus ancienne est la solution DotRiver. Basée sur des logiciels libres, c’est en fait un service en ligne uniquement. Elle met à disposition de l’utilisateur un bureau de travail complet sous GNU/Linux. La session de l’utilisateur s’exécute sur un serveur distant. Seuls l’image du bureau de l’utilisateur, le son et les interactions clavier/souris transitent sur le réseau.

Le passage obligé par un bureau « non Windows » bien que similaire peut représenter un frein dans l’acceptation par les utilisateurs et dans l’intégration d’un existant. Surtout si celui-ci impose de disposer de logiciels ne fonctionnant que sur Windows sur toutes les sessions utilisateurs. Ce problème peut-être contourné par la virtualisation d’un poste sous Windows. Cependant, cette solution offre un très haut niveau de sécurité et de disponibilité. Les documents peuvent être accessibles en parallèle via l’interface web du logiciel Pydio ou de son client de synchronisation.

Les trois autres candidates sont :

L’approche choisie par ces trois suites bureautiques en ligne est différente. La connexion aux applications passe d’abord par un portail web. Ensuite, l’édition des documents est confiée soit à un éditeur complet s’exécutant dans le navigateur (Collabora Online et OnlyOffice), soit à une application distante comme le fait DotRiver.

Pour Collabora le portail web est le logiciel Owncloud, pour OnlyOffice une interface spécifique et pour Open365 Seafile. Je vous laisse découvrir la suite dans cette vidéo.

En revoyant la vidéo, je me rends compte qu’il y a sur le tableur un rendu incorrect des couleurs pour Collabora.

Des trois suites, seule OnlyOffice est prête pour la production. J’ignore combien de temps Collabora et Open365 vont mettre avant d’être finalisée. Je parierais tout de même sur Open365 qui conserve l’indéniable avantage de reposer sur LibreOffice et toutes ses fonctionnalités. Par contre, il faudra prévoir de la RAM et de la CPU côté serveur pour absorber les instances LibreOffice des utilisateurs.

Je dirais que nous nous ne sommes donc plus très loin de disposer d’une suite bureautique en ligne open source. Cependant, Office365 gagne tant de parts de marché chaque jour dans les entreprises que cette concurrence arrive peut-être trop tard….

Réagir à cet article

Article original écrit par Philippe Scoffoni le 10/05/2016. | Lien direct vers cet article

Cette création est mise à disposition sous un contrat Creative Commons BY à l'exception des images qui l'illustrent (celles-ci demeurent placées sous leur mention légale d'origine).

.

Gravatar de Philippe Scoffoni
Original post of Philippe Scoffoni.Votez pour ce billet sur Planet Libre.

Articles similaires

elementary OS : Bluetooth, alimentation et centre de partage

Le passage de Luna vers Freya a apporté de nombreuses améliorations quant à l’accessibilité et l’intégration dans notre environnement de travail ou à la maison, toutefois force est de constater que certains manques sont toujours présents avec Freya mais sont sur le point d’être prochainement comblés soit lors d’une mise à jour de Freya ou lors du passage vers Loki.

Avant de commencer à faire le tour de ces nouveautés, il est important de préciser que nous n’avons pas d’information précise sur la mise à disposition de ces éléments sur Freya (ndlr : nous pensons toutefois que cela sera le cas)

Bluetooth Center

DanRabbit a posté, sur le Google+ de l’équipe, une première ébauche du centre de partage dédié au Bluetooth, comme à son habitude, l’interface est relativement dépouillée pour aller directement à l’essentiel.

Power settings

Autre point d’attention dédié aux utilisateurs mobiles, les paramètres d’alimentation se verront apporter plusieurs modifications relativement importantes, en effet, il vous sera maintenant possible de modifier le comportement de mise en veille en fonction de l’état du capot de votre ordinateur portable ou de l’état de votre batterie. L’OS vous permettra de configurer plus finement cela en fonction de l’alimentation de votre ordinateur portable : connecté au secteur ou sur batterie.

 

File sharing Center

La dernière capture va, j’en suis persuadé, en ravir plusieurs : bon nombre d’entre vous nous ont demandés comme faire du partage de documents depuis elementary OS, et….. jusqu’à très récemment cette opération ne s’avérait pas être abordable pour tout le monde (ndlr : Samba et sa configuration pour ceux qui savent de quoi je parle).

De nombreuses questions sont pour l’instant en suspend et devront trouver prochainement réponses prochainement :

  • Sera t-il possible de partager des fichiers via le protocole CIFS
  • Quid de la prise en charge du NFS

Et vous quelles sont vos prochaines attentes ?

Le billet Bluetooth, alimentation et centre de partage a été publié sur le site de la elementary OS -

Gravatar de elementary OS
Original post of elementary OS.Votez pour ce billet sur Planet Libre.

Renault : Fedora 24 Beta est là !

En ce mardi 10 mai, les utilisateurs du Projet Fedora seront ravis d'apprendre la disponibilité de la Beta de la future Fedora 24.

Malgré les risques concernant la stabilité d’une version Beta, il est important de la tester ! En rapportant les bogues maintenant, vous découvrirez les nouveautés avant tout le monde, tout en améliorant la qualité de Fedora 24 et réduisez du même coup le risque de retard. Les versions en développements manquent de testeurs et de retours pour mener à bien leurs buts.

f24beta.png

La sortie finale est prévue à ce jour pour la mi-juin.

Voici les nouveautés annoncées pour cette version :

Bureautique
  • Mise à jour de Gnome en version 3.20 : amélioration de la session Wayland, édition de cartes et affichage des itinéraires en lien avec OpenStreetMap via le programme Cartes, affichage graphique de l'ensemble des raccourcis claviers, nouvel agencement de la liste des impressions, éditions des images dans Photos, nouvelle interface de recherche dans Fichiers, intégration de LibreOffice dans Documents, refonte de l'utilitaire dconf, etc. ;
  • Fedora peut être mis à niveau entièrement via Gnome Logiciels ;
  • Refonte graphique de LiveUSBTools pour créer les images installables par clés USB de Fedora sur Linux afin de simplifier l'installation de Fedora en utilisant un médium plus populaire que le CD (les versions pour Windows et Mac OS X ont été repoussées) ;
  • NetworkManager progresse à la version 1.2 : nouvelle API pour les VPN, gestion de plusieurs VPN, gestion des connexions des conteneurs Docker ou LXC, interface textuelle plus lisible avec plus de couleurs et utilisation d'une nouvelle bibliothèque graphique ;
  • L'environnement de bureau de l'ordinateur OLPC profite de la version 0.108 de Sugar ;
  • Mise en place de QGnomePlatform : un utilitaire pour intégrer visuellement le thème des applications écrites avec Qt dans l'environnement Gnome, et ce sans les modifier ;
  • Création d'un nouveau Spin de Fedora, dédié à l'astronomie, comprenant entre autre un environnement KDE avec KStar, Stellarium et Celestia ;
  • L'outil de manipulation de photos brutes Darktable évolue en version 2.0, qui s'intègre mieux dans Gnome via GTK+ 3, ajoute la gestion des écrans à très haute résolution, possède une meilleure gestion des couleurs et des impressions, prend en charge de nouveaux modèles d'appareils photos, et arrête la distribution de la version 32 bits.
Administration système
  • Séparation dans le paquet systemd, la gestion des conteneurs via systemd se faisant au travers de systems-containers, et la gestion du matériel via le paquet systemd-udev ;
  • systemd ne relance les services qu'une fois ou deux lors d'une transaction RPM complète sur l'ensemble des paquets concernés et non pour chaque paquet concerné en cours de traitement ;
  • Ajout dans anaconda d'une API DBus autour des volumes logiques LVM ;
  • Distribution du logiciel sen, un utilitaire textuel pour gérer et surveiller les images Docker ;
  • livemedia-creator remplace livecd-creator qui sera plus générique (images pour périphériques ARM, LiveUSB, démarrage par PXE) et plus moderne avec une base en Python 3 au lieu de la version 2 ;
  • Kerberos prend en compte les règles génériques du système pour la conception des mots de passe ;
  • Pour le calcul des adresses IP, ipcalctool sera bientôt supprimé au profit d'ipcalc à cause de la redondance et du manque de support d'IPv6 ;
  • Fusion des utilitaires ping et ping6 autour d'un même utilitaire (ping) gérant les deux types d'adresses IP ;
Cloud
  • Ajout du très attendu OpenShift Origin dans Fedora pour le développement et le déploiement des services cloud ;
  • Les images Atomic peuvent bénéficier des espaces de stockages via glusterfs ou Ceph ;
  • Ajout d'une entrée pour développeurs dans l'image de démarrage d'Atomic pour permettre de démarrer sans instancier un cloud ;
  • Les utilisateurs peuvent recevoir, pour plus de visibilité, la liste des mises à jour disponibles après leur connexion via les "messages du jour" ;
  • Refonte des paquets autour du langage Python, tout ce qui est requis du langage par les programmes system-* importants ont été mis dans des paquets system-python afin d'éviter d'utiliser le paquet python en entier ;
Développement
  • L'agrégat de compilateurs GCC passe à la version 6 ;
  • Le langage Python se mue à la version 3.5 ;
  • Remplacement du projet Subs, un client pour services web SOAP en Python, par le fork initié par Jurko Gospodnetić pour faute de maintenance et le non support de Python 3 ;
  • Le langage de Google, Go, évolue à la version 1.6 ;
  • Le langage Ruby quant à lui fonce en version 2.3 ;
  • Le langage Erlang bénéficie de sa dernière version 18 ;
  • Un coup de fouet a été donné pour la distribution LaTeX TeXLive vers la version 2015 ;
  • La célèbre bibliothèque C++ Boost, a été boostée vers la version 1.60 ;
  • La bibliothèque standard du langage C GLibc se contente de la version 2.23 ;
  • Suppression dans GLibc de librtkaio qui ajoutait l'API POSIX concernant le temps réel notamment pour les entrées/sorties asynchrones, qui était trop peu utilisée ;
  • Abandon de la dépendance des modules PHP PECL avec le paquet php-pear, projet qui devient obsolète ;
  • Les amateurs de la bibliothèque de Qt profiteront du remplacement de QtWebKit par QtWebEngine, qui est enfin disponible dans les dépôts ;
  • La plateforme de serveurs JavaScript, Node.js, découvre la véritable réponse 4.2 ;
  • Mise à jour de la plateforme de développement .NET Mono 4.2 ;
  • Ajout et activation du ramasse miette Shenandoah 1.0 à OpenJDK qui met en pause moins longtemps le programme pour nettoyer la mémoire de ce dernier ;
  • Fedora ajoute la prise en charge des environnements de développement pour le composant BBC Micro Bit, dédié à l'apprentissage de l'informatique au Royaume-Uni ;
Internationalisation
  • Ajout de méta paquets RPM et utilisation d'un nouveau champ du format RPM pour installer automatiquement les paquets de traduction des logiciels sur votre machine. Il doit remplacer à terme le greffon dnf-langpack qui effectuait cette tâche imparfaitement ;
  • Séparation des paquets de Glibc contenant les langues : un paquet par langue, pour un système plus léger (particulièrement utile pour les versions Server et Cloud);
  • Mise à jour du composant ibus-fbterm de la suite IBus à la version 1.5 afin de profiter d'IBus dans les environnements purement textuels ;

Si l'aventure vous intéresse, les images sont disponibles par Torrent et sur le site officiel.

En cas de bogue, n'oubliez pas de relire la documentation pour signaler les anomalies sur le BugZilla ou de contribuer à la traduction sur Zanata.

Bons tests à tous !

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Participez à la journée de test de Fedora 24 sur l'image Cloud !

Aujourd'hui, ce mardi 10 mai, est une journée dédiée à un test précis : l’image cloud de Fedora 24. En effet, durant le cycle de développement, l'équipe d'assurance qualité dédie quelques journées autours de certains composants afin de remonter un maximum de problèmes sur le sujet.

Elle fournit en plus une liste de tests précis à effectuer. Il vous suffit de les suivre, comparer votre résultat au résultat attendu et le notifier.

cloud-logo.png

Qu'est-ce que l’image Cloud ?

L'image Cloud est l'un des trois produits officiels de Fedora avec Workstation et Server. C'est une image pour un usage plutôt pointu à savoir dédiée à lancer des services sur un serveur. Cloud oblige, les images se veulent plutôt minimalistes et légères pour être déployées très facilement en machine virtuelle ou sur un petit serveur par exemple. L'objectif étant de pouvoir répondre à des montées de charge sur une infrastructure par exemple.

Au cœur de cette image il y a aussi ce qui est nommé Fedora Atomic. C'est un système qui permet de concevoir des machines virtuelles dans lequel il y a des applications sous forme de conteneurs. Il y a donc une partie du côté host et une partie qui est dans la partie virtualisée.

Les tests du jour couvrent :

  • Le fonctionnement de base : démarrage, lancement de services, logs et SELinux qui n'entravent pas le bon déroulement du processus;
  • Le fonctionnement de Fedora Atomic : lancement, mise à jour et retour en arrière ;
  • Le fonctionnement avancé de Fedora Atomic : le montage des partitions, le fonctionnement des commandes ;
  • Le fonctionnement de Docker : installer une image et la lancer ;
  • Le nommage de l'interface réseau principale ;
  • Quelques autres...
Comment y participer ?

Vous pouvez vous rendre sur la page des tests pour lister les tests disponibles et rapporter vos résultats. La page wiki récapitule les modalités de la journée.

En cas de bogue, il est nécessaire de le rapporter sur le BugZilla. Si vous ne savez pas faire, n'hésitez pas à consulter la documentation correspondante.

De plus, si une journée est dédiée à ces tests, il reste possible de les effectuer quelques jours plus tard sans problème ! Les résultats seront globalement d'actualité.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Écrire efficacement, c'est possible avec txt2tags

Je suis actuellement en train d'écrire un ouvrage assez long. C'est l'occasion pour moi de redécouvrir txt2tags. Et bon sang, que c'est génial!

Il s'agit d'un langage markup. En gros, ce que vous écrivez n'est pas ce que vous obtenez à la fin, dans le même principe que markdown ou LaTeX qui produisent respectivement des pages web html ou des pdf de qualité. Par exemple, si vous écrivez ceci :

Il ne **faut pas** respirer de la compote : ça fait //tousser//

On obtient après conversion par le logiciel txt2tags ceci :

Il ne faut pas respirer de la compote : ça fait tousser.

Alors que je trouve markdown excellent, txt2tags le dépasse très largement à mon avis, et je pense avoir du mal à m'en passer désormais, et ce pour plusieurs raisons.

1. Tout d'abord, c'est un langage markup lisible. La preuve :

markdown LaTeX txt2tags **gras** \\textbf{gras} **gras** *italique* \\textit{italique} //italique//

Ça facilite l'écriture et la correction. Imaginez retrouver une coquille dans un langage comme le LaTeX!

2. Il supporte des balises comme le souligné, le barré, les tableaux par défaut. On peut même faire des ancres dans le texte pour relier rapidement un mot à un paragraphe

Pour plus d'informations, lire [le paragraphe correspondant #superparagraphe]. [...] ===Le super paragraphe===[superparagraphe]

3. Il permet d'exporter son texte dans de multiples langages, comme le LaTex, le html, mais aussi dokuwiki et bien d'autres. Ça peut paraître idiot, mais un document que j'écris un jour pour une page html pourrait très bien prendre place plus tard dans un wiki, voire faire l'objet d'un document à imprimer (donc LaTeX). Je vous jure que alors qu'on pense ne pas avoir besoin de ce genre de choses, c'est lorsque ça s'impose qu'on regrette de ne pas l'avoir utilisé.

4. On peut inclure d'autres fichiers avec %!include: fichier.t2t/. Et ÇA, c'est vraiment pratique pour organiser son ouvrage!

5. C'est très simple de rajouter des balises personnelles. Pour, par exemple, supporter les exposants et indices dans un document html, on met ceci au début du fichier txt2tags :

%!postproc(html): \\^\\^(.*?)\\^\\^ \\1 %!postproc(html): ,,(.*?),, \\1

Ici, txt2tags va remplacer les "^^" et les ",," par les balises html appropriées après la conversion. Et on en arrive au truc le plus génial de txt2tags : les instructions pré-conversion.


6.
Imaginons que dans mon document, je fasse plusieurs fois référence à un ouvrage ou un site internet. À chaque fois que j'en parle, je devrais ajouter les balises qui vont bien :

Exemple en markdown voici un nouveau site à lire absolument qui s'appelle [volted](http://volted.net/). On y trouve des informations sur OpenBSD, rédigées avec amour par sogal. [..] [..] On remarque d'ailleurs que [volted](http://volted.net/) est propulsé par blogotext.

Eh bien avec txt2tags, ça ressemblerait à ça :

%! preproc: volted "[volted http://volted.net/]" Exemple en txt2tags voici un nouveau site à lire absolument qui s'appelle volted. On y trouve des informations sur OpenBSD, rédigées avec amour par sogal. [..] [..] On remarque d'ailleurs que volted est propulsé par blogotext.

C'est vraiment génial. Si par exemple on veut faire un renvoi dans son texte plusieurs fois à un autre paragraphe, le preproc est parfait. On peut aussi l'utiliser pour remplacer rapidement plusieurs parties du texte identiques en ne modifiant qu'une seule ligne.

Si vous n'avez pas d'éditeur de texte sous la main, vous pouvez l'essayer ici.. Il y a même une bibliothèque php pour vos sites si vous voulez!
Un CMS ou un blog qui utiliserait ce langage serait vraiment une perle!

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Yannig : Prototypage d'infra à l'aide de Docker et Ansible

J'utilise depuis quelques temps l'outil Ansible pour gérer mes environnements. Il y a peu, j'ai eu besoin de mettre en place des tests automatiques. Comme toujours, c'est posé la question de savoir où lancer ces fameux tests.

La réponse classique aurait de se baser sur des VM mais comme d'habitude, j'avais des difficultés à avoir ces machines :

  • Il faut demander une entrée DNS ;
  • Il me faut une adresse IP ;
  • Il faut l'installer ;
  • Attention, l'hyperviseur est bientôt saturé ;
  • Mais qui va payer ?
  • Mais qui va sauvegarder ?

Bref, comme toujours, la VM de test est presque aussi compliquée à installer qu'une VM de production et je n'arrive pas à expliquer aux gens qu'il s'agit d'un besoin jetable.

Dans ce cadre, j'ai repensé aux quelques tests que j'avais réalisé sur Docker il y a quelques temps et je me suis dit que ce produit pourrait très bien répondre à mon besoin.

Disclaimer : Ce qui va suivre n'est absolument pas conseillé dans le cadre d'une production. Ce besoin s'inscrit dans un besoin de prototypage d'infra. Ce mode de fonctionnement n'est pas assez stable - du moins pour l'instant - dans des besoins sérieux.

Bref, je demande une VM avec Docker dessus et partant de là, je peux commencer à travailler.

Le principe

Mon besoin est de pouvoir me connecter à un container en faisant mes opérations comme si j'étais dans une vraie machine. Pour se faire, je suis quand même obligé de lancer un process pour faire croire à Docker et Ansible que quelque chose tourne. Dans un premier temps, j'ai fait quelques tests en lançant avec des commandes sleep ou tail -f /dev/null. Le problème est que lorsque j'ai voulu démarrer mes services à l'aide de systemd, j'ai eu quelques plantages.

Problème systemd dans Docker

L'un des premiers problèmes que j'ai abordé a été la gestion des spécificités de systemd. En effet, dans le cas des distributions modernes (centos 7, ubuntu 15.10 ou 16.04), le démarrage est entièrement géré par systemd. Le seul petit hic étant que ce dernier change entièrement la façon de gérer les services. C'est assez marrant d'ailleurs, ce changement m'a fait pensé à la refonte des services dans Solaris 10 (attention, un troll c'est glissé dans ce paragraphe).

Il faut donc embarquer systemd dans votre container Docker. Mais d'un autre côté, ça me permet de virer la commande tail -f.

Ce qu'il y a de rigolo dans tout ça, c'est qu'il est plus simple de gérer un centos 6 dans Docker qu'une version 7.

Problème systemd dans Docker (suite)

Vous allez me dire, dépose un fichier /etc/init.d lance le avec un shell et ça fonctionnera pareil. Et bien non puisque même si vous passez par le script directement, systemd l'intercepte et vous vous retrouvez avec le magnifique message d'erreur suivant :

Failed to get D-Bus connection: Operation not permitted

Le problème vient du fait que systemd a besoin d'accéder à tout un tas de chose pour gérer le contexte de lancement des process. La solution est donc de lancer le container en mode privileged avec les problèmes de sécurité que ça peut entraîner. Encore une fois, il ne s'agit pas d'un problème dans mon contexte mais je vous le déconseille vivement dans un autre contexte (en production par exemple).

Problème systemd dans Docker (suite)

Le lancement du premier container se passe très bien mais rapidement, je constate que certains process getty se lancent en se goinfrant 100% de CPU. En creusant un peu, je me rends compte que systemd (sous centos 7) lance automatiquement le service getty@tty1. Le premier lancement n'a pas de conséquence mais le problème apparaît au lancement des containers suivants. Ici, la solution est relativement simple : désactivation du service à la construction de l'image Docker. Ci-dessous l'instruction dans Dockerfile permettant de le réaliser :


RUN systemctl disable getty@tty1
Redémarrage des containers

Ayant fini par faire fonctionner mes playbooks, je me suis dit qu'il était temps de tester un arrêt/relance du container pour voir comment ça se comporte. Là encore, ça ne fonctionne pas vraiment bien. Ne comptez donc pas (pour l'instant) utiliser systemd pour gérer le démarrage des services de vos containers.

Connexion au container

J'en ai parlé il y a peu mais là, pas de problème : Ansible dispose d'un connecteur docker natif. Il faut donc se débrouiller pour affecter la valeur docker à la variable ansible_connection et le tour est joué.

Modélisation du réseau

Un autre truc qui a bien fonctionné est la capacité de Docker à manipuler des réseaux virtuels. Par le passé, sous Linux, cette partie pouvait être vraiment une gageure. J'avais écrit un article sur le sujet à l'époque. Il vous fallait gérer l'ajout de bridge, gérer la création des interfaces virtuelles de vos VM. Ici, rien de ce genre, vous créez votre réseau et Docker se charge du reste :

  • Création du bridge ;
  • Visibilité des containers dans le même réseau.

Ci-dessous un exemple de lancement de la création d'un réseau Docker :

docker network create demo

Tous les containers que nous rajouteront dans ce réseau par la suite auront automatiquement une résolution DNS disponible.

Pour conclure

Vous l'aurez compris, systemd et Docker ne sont pas les meilleurs amis du monde. Je trouve ça d'autant plus dommage que je pense qu'il y aurait clairement quelque chose d'intéressant à avoir si le support de ces deux produits avaient été meilleurs. Si comme moi vous avez utilisé des solutions à base de zone Solaris, vous pouvez passer votre chemin, il ne s'agit pas du même niveau de stabilité.

Une autre leçon à retenir de tout ceci est que Docker n'est clairement pas un remplacement d'une virtualisation classique. Ne partez surtout dans l'idée de réutiliser les mêmes outils sans passer du temps sur les adaptations préalables. Cette bascule doit absolument se faire dans le cadre d'une refonte de votre application et de sa gestion.

Pour le reste, l'outil Docker est très pratique à utiliser et vous permettra de prototyper très rapidement votre infra sans trop d'effort.

Un autre outil intéressant que je suis en train de creuser semble être Packer. En effet, cet outil permet de réutiliser vos playbooks pour la création de vos images Docker. Le gros avantage est que vous n'avez donc qu'un travail minimum pour créer indifféremment des machines classiques ou des containers et en vous garantissant d'avoir la même chose partout.

Attention toutefois, il s'agit pour moi d'une situation transitoire si vous avez décidé de partir sous Docker. Il reste très important de mon point de vue de simplifier vos installations et de passer par du Dockerfile. Idéalement, Ansible ne devrait vous servir que pour l'enchaînement de vos différentes tâches ou dans la gestion des machines qui ne sont pas dans le cloud (base de données par exemple) ou pour la gestion de l'infra Docker.

Concernant le code Ansible/Docker, vous pourrez retrouver des exemples dans le repository sur github du repository Meetup Ansible Paris #9. Bonne lecture !

Gravatar de Yannig
Original post of Yannig.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Yunohost - Autohébergement - Le Spare

Pour mes sauvegardes, j'applique la règle des 3-2-1. Je laisse sur mon lieu de travail un disque chiffré avec une copie de sauvegarde réactualisé toutes les semaines (ainsi j'externalise). Les billets de blogs en cours de rédaction (du contenu public) sont synchronisés pour sauvegarde sur un Owncloud.

Je me pose régulièrement la question : je perds des données sur telle machine ou tel disque. Qu'est ce que je perds comme données. Ce que je perds, c'est ce que je ne sauvegarde pas. Je mets donc en place, je complète ma politique de sauvegarde en conséquence. Je trouve un équilibre entre la contrainte de la sauvegarde, sa fréquence et l'importance des données. Désormais c'est bien en place, ça marche bien et je pense que c'est bon. Jusqu'au jour où l'erreur à laquelle je n'avais pas pensé viendra me montrer que j'ai encore des choses à apprendre niveau sauvegarde.

En pensant perte de données, je fais des sauvegardes. Mais qu'en est-il de la perte d'une machine ? Par perte je ne pense pas vol (pour ça il y a le chiffrement qui empêchera l'accès aux données sauvegardées et les sauvegardes externalisées pour avoir une copie des données perdues/volées). Mais un disque dur qui lâche, une barrette mémoire qui est défaillante, une alimentation qui brûle.... Combien de temps j'ai pour rétablir le service par exemple (dans le cadre de mon auto-hébergement) ? Est-ce que j'ai une solution alternative, un mode dégradé ?

Pour les disques durs de sauvegarde, j'en ai plusieurs. Donc si il y en a qui lâche, je dois le remplacer mais j'ai normalement les données sur une autre copie de sauvegarde (on en revient au questionnement abordé plus haut)

Pour chaque machine que j'ai, j'ai identifié quel machine de remplacement je pourrais utiliser en attendant. J'ai un smartphone de secours (retour sur mon ZTE Open C pour le coup). Les données importantes sont les contacts (et ça ne change pas tous les jours donc c'est à jour).

Pour les PC, je peux utiliser provisoirement mon PC professionnel avec une distribution en live-usb.

Pour mon PC et pour mon système d'auto-hébergement, j'ai des barrettes de mémoire d'avance. Un disque dur. C'est du matériel d'occasion/de récupération. J'ai mon Raspberry (j'ai migré mon auto-hébergement sur une machine un peu plus véloce, ce serait donc passage à un mode dégradé).

Il reste la box ADSL. Dans ce cas je passe dans un Free Center sur Paris après le boulot. La ligne téléphonique en elle même, je peux passer par la 3G du téléphone (mais cela bloque l'auto-hébergement le temps de résoudre le problème).

Reste le spare de moi-même. Ce sera là le sujet d'un projet billet à venir.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

Journal du hacker : Liens intéressants Journal du hacker semaine #18

Pour la 18ème semaine de 2016, voici 5 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Planet Libre : Brèves du Planet Libre - lundi 09, mai 2016

Quels sont les 9 projets open source financés par DuckDuckGo ? - Numerama DuckDuckGo financement libre chiffrement Tor

antistress: "Le site DuckDuckGo dévoile le nom des neuf lauréats qui ont droit à une enveloppe de 25 000 dollars chacun pour poursuivre le développement de leur projet open source."
Les bénéficiaires sont Secure Drop, GPGTools, Freenet, Fondation OpenBSD, CrypTech, Tor, Save Security, VeraCrypt et LEAP.

Torsploit - Un malware anti-Tor développé pour le FBI pour détruire l'anonymat | UnderNews pistage logiciel_malveillant institution Tor Flash sécurité

antistress : "Pour démasquer les utilisateurs de Tor, Edman a travaillé en étroite collaboration avec le FBI et l’agent spécial Steven A. Smith pour développer et déployer un logiciel malveillant spécifique surnommé « Cornhusker » ou « Torsploit, » qui collecte des informations d’identification sur les utilisateurs de Tor.
Ce logiciel exploite des vulnérabilités présentes au sein d’Adobe Flash Player pour révéler l’adresse IP réelle des utilisateurs de Tor à un des serveurs du FBI situé en dehors du réseau Tor. Adobe Flash Player a longtemps été considéré comme dangereux par de nombreux experts en cyber-sécurité, et le projet Tor a plusieurs fois mis en garde contre son utilisation. Cependant, beaucoup de gens continuent de faire usage de Flash, y compris dans leur navigateur Tor."
(via le Journal du Hacker)

G'MIC 1.7.1 : quand les fleurs bourgeonnent, les filtres d'images foisonnent - dépêche sur LinuxFr.org GIMP logiciel création multimédia

antistress : "La version 1.7.1 « Spring 2016 » de G'MIC (GREYC's Magic for Image Computing), infrastructure libre pour le traitement d'images, a été publiée récemment, le 26 avril 2016. [...] La deuxième partie de la dépêche détaille quelques uns des nouveaux filtres et effets disponibles dans le greffon G'MIC pour GIMP, qui reste l'interface de G'MIC la plus utilisée à ce jour. Nous abordons aussi les autres évolutions diverses du projet comme l'amélioration et la création d'autres interfaces d'utilisation ainsi que les avancées « techniques » réalisées au cœur du framework."

WebKit supporte 99 % d'ECMAScript 2015 et abandonne les préfixes CSS - Next INpact WebKit Apple Safari Google Chrome Mozilla Firefox Web standard CSS

antistress : "L’équipe WebKit a également annoncé une autre nouvelle d’importance : la fin des préfixes CSS. Un changement majeur pour le développement web."
Ça c'est cool :)

Gravatar de Planet Libre
Original post of Planet Libre.Votez pour ce billet sur Planet Libre.

Articles similaires

Pages