Planet Libre

Okki : Sortie de GNOME MPV 0.9

GNOME MPV 0.9

GNOME MPV, l’interface graphique en GTK+ au lecteur multimédia mpv, vient de sortir une nouvelle version. Malheureusement, il n’existe toujours pas de liste claire des différentes nouveautés, ce qui oblige à parcourir la longue liste des différents commits pour en avoir une vague idée. Et puisque ça faisait longtemps que je n’avais pas parlé de cette application, j’en ai profité pour remonter jusqu’à la version 0.6 sortie en octobre 2015.

Le gros des modifications concerne de nombreuses corrections de bugs, dont plusieurs causes de plantages, la compatibilité avec mpv ou la prise en compte des dernières possibilités offertes par GTK+. Au niveau des nouveautés directement visibles par l’utilisateur, nous retiendrons :

  • l’apparition d’un nouvel onglet dans les préférences pour pouvoir ajouter facilement des scripts Lua
  • l’ajout de nouvelles options telles que la possibilité de se souvenir du chemin du dernier fichier ouvert ou le fait de pouvoir lire la liste de lecture en boucle
  • la possibilité de pouvoir faire plus de glisser-déposer (chargement de sous-titres, ajout de fichiers à la liste de lecture…)
  • la possibilité de pouvoir sélectionner plus facilement les sous-titres ou les pistes audio et vidéo quand le média en propose plusieurs
  • l’ajout d’une fenêtre des raccourcis clavier
  • l’ajout d’un fichier AppData pour que l’application puisse apparaître dans les différentes logithèques
  • la désactivation du bouton de contrôle du volume quand le média ne comporte aucune piste audio
  • l’ajout d’une icône symbolique
  • la sauvegarde de l’état du volume sonore entre deux sessions
  • une meilleure prise en charge de Wayland et de MPRIS

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

François Boulogne : Construire notre communication : blogs, planets, journaux...

A l'heure actuelle, j'écris sur ce blog, relayé par ces deux planets et parfois par le journal du hacker (jdh) pour lequel j'ai un peu contribué. Deux article récents, un premier par un contributeur du jdh et un second par un contributeur du planet-libre. pose des analyses quant à l'avenir des planets, ces sites relayant par le biais de flux rss, des articles de blog.

L'un des constats serait une baisse du nombres des blogs et des articles publiés, et donc de l'intérêt des planets. J'ai bien vu ces deux articles, et j'y avais donc réfléchi sans prendre la peine de l'écrire. Je le fais donc maintenant suite à une invitation indirecte.

Les blogs ont-ils un avenir ?

Sur l'intérêt des blogs, ça me semble essentiel. C'est ce qui fait partie de la culture Hacker, avec les wikis pour documenter ce que l'on fait. En deux mots, le terme Hacker recouvre ici toute personne ayant une activité de détournement d'objet afin de résoudre des problèmes pour lesquels ils ne sont pas destinés ainsi que la construction de l'informatique avec l'esprit du logiciel libre. Sans prétention aucune, c'est pour cela que j'ai les deux formes (blog.sciunto.org et share.sciunto.org). Le blog est en français (pour l'instant), le wiki en anglais. Ces deux formes sont complémentaires, l'un formant un carnet de bord, l'autre une documentation plus pérenne.

 L'intérêt des planets

L'intérêt d'un planet est de mettre en valeur les activités des acteurs d'un domaine. Le fait qu'il y ait plusieurs planets n'est donc que la conséquence de l'existence de divers groupes qui se chevauchent. Il reste selon moi un formidable tremplin pour communiquer. La duplication des articles pour certains lecteurs n'est selon moi pas un problème majeur. Je peux très bien suivre le planet-python mais pas le planet-debian et pour autant être intéressé par un article python appliqué à debian.

 Le relais ou la communication par les réseaux sociaux

Je ne suis pas adepte des réseaux sociaux. Les modèles de type facebook enferment les données et espionnent les activités. Je n'ai aucune idée de ce qui peut se dire sur ces réseaux. Le modèle me semble contraire à mon éthique, je n'y vais donc pas. Les modèles de type twitter sont ouverts, mais ont un ratio signal/bruit très souvent faible. De plus, mon observation me pousse à conclure que cette outil donne une illusion de visibilité : un buzz chez les convaincus, mais invisible au delà..

Le journal du hacker

Le modèle du jdh a des intérêts mais aussi des défauts selon moi. Déjà, je tiens à saluer l'initiative parce que c'est une belle façon de partager de l'information avec un outil intéressant. Par contre, je déplore la ligne éditoriale.

Trop d'articles bas de gamme sont relayés, notamment avec des sites professionnels qui ont pignon sur le web, dont les articles sont en carton : du journalisme classique se contentant de relayer de l'information avec de l'enrobage, des titres accrocheurs et une réflexion au degré zéro de la pensée.

L'autre problème est qu'il n'y a que quelques contributeurs qui publient beaucoup. La diversité n'est pas au rendez-vous et en postant des liens à tour de bras, on n'a pas une sélection d'articles qui ont ce quelque chose qui les rendent uniques. En effet, à chaque lien posté, il n'y a que rarement une justification de l'intérêt du lien. Les discussions sont par ailleurs quasi inexistantes contrairement à hacker news dont le jdh est un clone francophone libre. Donc, le jdh devient un planet bis avec, en plus, des articles moins intéressants à mes yeux. J'en suis venu à filtrer les noms de domaines pour faire une pré-sélection drastique.

Enfin, dernier point, dans jdh (journal du hacker), il y a hacker, et je vois trop peu de choses sur la bidouille d'objets physiques (contrairement à Hackaday), ce qui est bien dommage.

Vers un idéal ?

Hackaday représente selon moi un modèle de ligne éditoriale et s'il y avait quelque chose à reprendre, ce serait bien cette forme là, mais avec une meilleure répartition entre "software" et "hardware". Ils sont d'avantage dans un modèle où ce sont des lecteurs ou des rédacteurs qui viennent proposer leurs articles en plus de la veille de leurs contributeurs. Si une page est intéressante, un petit laïus avec éventuellement une photo ou vidéo est rédigé, avec parfois des liens vers des articles antérieurs publiés sur hackaday. A ma connaissance, ceci n'existe pas en français et il est évident que ça demanderait de l'énergie à construire une solution similaire.

Gravatar de François Boulogne
Original post of François Boulogne.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Entretien avec Tarek Ziadé, engineering manager pour Mozilla Corporation et Pythoniste

Jdh : Bonjour Tarek et merci de participer à cet entretien pour le Journal du hacker. Pour nos lecteurs qui ne te connaissent pas, peux-tu te présenter rapidement ?

Tarek : Je suis développeur depuis une quinzaine d'années et je me suis spécialisé dans le langage Python il y a un peu plus de dix ans.

Je me suis passionné pour l'open source et pour Zope en particulier et j'ai lancé un site web autour de cette techno à l'époque. Avec quelques compères du forum de Zopeur, nous avons fondé l'Afpy (Association Python Francophone).

J'ai aussi écrit trois livres sur Python dont un en Anglais.

Je bosse depuis plus de 5 ans pour Mozilla où j'anime une petite équipe qui écrit des services webs.

Jdh : Tu viens d'évoquer Zope, que les anciens de la communauté Python connaissent bien. Quand et comment as-tu commencé à coder avec Python ?

Tarek : J'ai découvert Zope et Python à peu prêt en même temps. C'est en codant des petites fonctions dans l'admin Zope que je me suis mis à Python sérieusement, il y a plus de 10 ans.

Jdh : Et tu as apparemment pris goût à Python ! Je t'ai découvert grâce à ton excellent livre "Programmation Python - syntaxe, conception et optimisation" à l'époque. Peux-tu nous en dire un peu plus sur ce qui t'a amené à passer du statut de développeur à auteur ?

Tarek : C'est simple : je suis devenu fan de Python et j'ai eu envie de le maitriser au maximum.

Et écrire un livre est la meilleure des techniques : il faut bien maitriser chaque sujet pour pouvoir l'expliquer aux autres.

Ça a été un travail intense de 9 mois. J'y ai passé toutes mes soirées :)

Jdh : Lorsque nous nous sommes connus, tu étais très impliqué dans le développement de certains modules de la bibliothèque standard de Python, en particulier je me souviens de Distutils. Qu'en est-il aujourd'hui de ton implication dans le développement de Python ?

Tarek : J'ai beaucoup travaillé sur Disutils effectivement, car le packaging dans Python souffrait de gros problèmes et personne n'avait envie de s'y coller.

Le plus gros travail a été politique : écrire des PEP (Python Enhancement Proposals) pour faire avancer les standards en mettant tout le monde d'accord, puis un peu de code. Je me suis un peu trop impliqué pendant 2 ans sur le sujet et j'ai vécu un "burnout" le jour où mon travail sur un nouvel outil (Disutils2) qui devait être intégré à la bibliothèque standard a été retiré au dernier moment. Je l'ai mal vécu haha.

Tout ce travail a quand même porté ses fruits puisque le packaging s'améliore grandement et il y a pas mal de choses qui sont issues de mon travail. Certaines parties de Disutils2 ont été recyclés dans d'autres projets aussi.

Un conseil: ne tombez pas dans le piège de comparer le packaging de Python avec ceux très récents comme npm (node) ou cabal (haskell) ou même Debian, et de dire que "le packaging est un problème résolu depuis longtemps", Python est un papy de plus de 20 ans et tout le drame du packaging est pouvoir difficilement faire table rase de l'existant, surtout dans un éco-système où cohabitent des communautés très différentes. Si vous parlez de packaging avec la communauté scientifique ou avec la communauté web, ce sont deux monde tellement différents qu'il est très dur de trouver des solutions universelles et respectueuses de l'existant.

Aujourd'hui je ne suis plus du tout impliqué dans le développement de Python. Ça prend trop de temps et d’énergie, que je préfère garder pour aller courir ou jouer de la trompette. Mon combat dans le code est maintenant à Mozilla :)

Jdh : La fondation Mozilla et ses projets passionnent les membres de notre communauté. Peux-tu un peu nous décrire quels sont tes projets techniques pour la fondation et ta façon de travailler chez Mozilla ? Lors de notre dernière rencontre tu vivais dans un petit village assez isolé des grands centres urbains.

Tarek : Je bosse pour Mozilla Corporation, qui est financée et dirigée à 100% par Mozilla Foundation, et qui a des salariés dans de nombreux pays. La Foundation en a aussi, distinctement de la Corporation.

Quand je suis arrivé il y a plus de 5 ans chez Mozilla, ma mission était simple : j'étais le premier développeur Python de l'équipe "Services" et mon job a consisté à porter Firefox Sync (alors en PHP) sous Python et mettre en place tout l'éco-système Python.

J'étais le seul européen de l'équipe, et je devais faire des réunions parfois à 2 heures du mat'. À l'époque Mozilla Corp. comptait autour de 350 salariés.

Tout a évolué et s'est structuré, et en 2016 on dépasse les 1000 employés avec beaucoup plus de monde en France (environ 45), et je suis maintenant "engineering manager" d'une équipe de Français dispatchés entre Rennes, Barcelone et Montpellier. Moi-même je suis dans un tout petit bled en Bourgogne (175 habitants).

On travaille en ce moment sur Kinto un service de stockage de données avec une API HTTP Json, écrite en Python avec Pyramid, Cornice et Cliquet. Je ne développe plus trop, je passe plus de temps dans des réunions et dans la gestion des projets Mozilla basés sur Kinto, et sur les échanges techniques avec les gens de mon équipe.

Bosser chez Mozilla est assez confortable en termes de moyens à notre disposition : on peut se rencontrer plusieurs fois par an pour faire des "work weeks", disposer de toutes les ressources nécessaires en ligne (serveurs virtuels etc).

Le seul regret de vivre à la campagne finalement est que ma connexion ADSL est mauvaise, ce qui est pénible pour les vidéoconférences.

Jdh : Peux-tu nous détailler un peu plus les projets sur lesquels tu as travaillé et travaille actuellement pour Mozilla ?

Tarek : En 6 ans de temps j'ai eu le temps de bosser sur beaucoup de projets à Mozilla.

Les plus intéressants :

  • Firefox Sync : J'ai réecris le serveur PHP en Python, en utilisant Gevent
  • Circus : Un gestionnaire de processus
  • Cornice : une surcouche de Pyramid pour écrire des web services
  • Loads : Un outil de load testing distribué

Et plus récemment, Kinto, un service de stockage JSON. Je ne développe quasiment pas dedans vu que j'ai changé de casquette (manager) mais je m'occupe de son intégration au sein de Mozilla pour nos différents besoins.

Kinto est maintenant utilisé par Firefox pour la mise à jour de données régulières. L'idée est de réussir à mettre à jour des informations importantes comme les révocations de certificats, sans avoir à attendre que la prochaine version de Firefox sorte.

Jdh : Firefox Sync est utilisé par le grand public et est donc un projet très visible. On a du mal à imaginer l'ampleur de l'investissement derrière. Peux-tu nous parler un peu des gens et de l'infrastructure derrière une fonctionnalité comme celle-ci ?

Tarek : La partie service web en Python est assez anecdotique, au départ j'étais tout seul à coder dessus. C'est quelques milliers de lignes tout au plus.

Le service web en Python, c'est l'arbre qui cache la forêt, 5% du temps de la requête. La difficulté de ce système est surtout liée à la base de données :

  • la maintenance de plusieurs centaines de serveurs MySQL
  • le sharding des utilisateurs sur toutes ces bases
  • la gestion des migrations des utilisateurs etc

Il y a 6 ans nous étions déployés dans des datacenters et il fallait tout gérer nous-même, par exemple le remplacement des disques durs.

Aujourd'hui tout est déployé sur des services clouds comme AWS. Et c'est le cas pour Kinto : des web heads à la demande et Postgres RDS.

En terme de tests, mon équipe est fière d'avoir un coverage de 100% partout, et nous avons des batteries de tests d’intégration qui se lancent sur Travis-CI

Nous avons un environnement de staging sur lequel nous déployons les nouvelles versions, et une équipe de QA qui se charge de recetter le tout avant de nous donner le feu vert. L'équipe de Ops utilise Puppet pour tous nos déploiements.

Jdh : Kinto et Circus ont chacun plus de 1000 étoiles Github, avec un nombre de rapports de bugs importants, ce qui en fait des projets assez populaires. Comment se partage la journée type d'un développeur Mozilla ? Y'a-t-il une répartition du travail entre ce qui est fait pour la communauté directement et pour l'infrastructure Mozilla ? Les deux sont-ils confondus en permanence ?

Tarek : C'est une excellente question. Mon job principal justement, en tant que engineering manager, est de faire converger les besoins de Mozilla avec l'envie de développer des fonctionnalités qui sont utiles à une communauté plus large.

Le principe de base est que chaque grosse fonctionnalité que l'on ajoute dans les projets doit émaner d'un besoin réel dans l'un des projets internes - sans pour autant rendre le projet spécifique à Mozilla.

La signature des données dans Kinto est un bon exemple : nous devons signer toutes les données qui sont envoyées à Firefox pour éviter au cas où notre serveur Kinto serait piraté de servir des données corrompues. Ce serait par exemple la catastrophe pour les certificats SSL.

Cette fonctionnalité a été créée sous forme de plugin optionnel en se basant sur des standards ouverts et un système de configuration complet. En d'autres termes, on peut plugger cette option sur nos serveurs à Mozilla sans l'imposer aux autres utilisateurs de Kinto, mais si une autre organisation veut plugger le système de signature, elle pourra le faire !

L'équipe passe bien sûr un peu de temps sur des fonctionnalités 100% communautaires, qui ne sont pas utilisées à Mozilla - mais ce n'est pas la priorité - même si ce n'est jamais du temps perdu.

Le travail sur les bugfixes et push requests (PR) remontés par la communauté quant à lui, est en général fait rapidement : c'est un cadeau précieux qui nous est fait et il est important de ne pas laisser traîner ce travail - ne serait-ce que par respect pour la personne qui a passé du temps dessus.

Enfin, certains projets peuvent à un certain moment être moins utilisés chez nous, et peuvent continuer à vivre. Circus par exemple est moins utilisé qu'avant, et le projet est maintenu par des gens comme Yannick Péroux qui ne bosse pas à Mozilla, c'est génial ! C'est pour moi un exemple de réussite du modèle open source.

- Entretien réalisé par Carl Chenet pour le Journal du hacker.

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

ardechelibre[.org] : Article du Dauphiné Libéré le 14 mai 2016

L’article suivant est paru dans le Dauphiné Libéré du 14 mai 2016, suite à notre atelier « Libère ton ordi ! » du 12 mai 2016 au bistrot associatif de Saint-Julien-du-Serre :

Dernière séance sur les logiciels libres - Le Dauphiné Libéré - 14 mai 2016Merci au Dauphiné Libéré pour l’article, à Gilbert pour l’organisation, et au bistrot associatif St Ju pour l’accueil !

Cet article Article du Dauphiné Libéré le 14 mai 2016 est apparu en premier sur ardechelibre[.org].

Gravatar de ardechelibre[.org]
Original post of ardechelibre[.org].Votez pour ce billet sur Planet Libre.

Articles similaires

nIQnutn : Qu'est-ce qu'un moteur de recherche ?

Avant de trouver et d'utiliser le moteur de recherche qui vous correspond, il faut d'abord comprendre comment il fonctionne.
Quelles peuvent être les différences entre différents moteurs de recherche ?
Est-ce qu'un moteur de recherche proposera toujours les meilleurs résultats ?

Il suffit de prendre quelques chiffres pour comprendre qu'internet est constitué d'une quantité considérable de sites et qu'il est même impossible d'estimer le nombre total de pages qui le constitue. D'un autre coté, l'utilisation d'internet prend une place de plus en plus importante dans notre quotidien (pour les études, pour le travail, pour le loisir, pour les démarches administratives,...).
Compte tenu du nombre de sites existants et de notre utilisation, il est bien logique que l'on passe par ces intermédiaires pour trouver les pages les plus pertinentes et le plus rapidement possible parmi l'immensité de contenu disponible. Très logiquement, les moteurs de recherche sont les sites les plus consultés au monde.

Référencement, indexation, classement, contenus sponsorisés sont des termes qui permettent de décrire les moteurs de recherche. Cependant, cela ne permet pas d'expliquer tous les aspects d'un moteur de recherche et il est nécessaire d'approfondir pour comprendre en détail ce qui peut faire la différence d'un service à l'autre.

Quelques chiffres

En septembre 2014, internet dépasse le milliard de sites en ligne. Sachant que chaque site peut contenir entre une dizaine de pages jusqu'à plusieurs milliers de pages (comme Wikipedia) on comprend très vite le besoin d'utiliser un moteur de recherche.
Par ailleurs, on estime qu'il existe près de 3 milliards d'internautes donc autant d'utilisateurs potentiels aux moteurs de recherche.

Si on en croit les chiffres, en 2015, une personne passe en moyenne 4,8 heures/jour sur internet. En France, on passe seulement 4,1 heures/jour mais on risque de voir ce temps augmenter avec l'utilisation de plus en plus importante des smartphones (seulement 1 heure/jour) pendant les déplacements. Ce temps tient également compte du temps de travail et pour une utilisation moyenne mais reste néanmoins très important.
Si on compare le temps passé sur internet et le temps consacré à la cuisine on voit bien que nos comportements ont complètement changés avec nos besoins et notre mode de vie.

Internet n'est pas un objet figé, c'est un objet vivant qui ne cesse de se transformer. 822 240 nouveaux sites Internet sont mis en ligne chaque jour. Son expansion est pourtant bien plus importante puisque 90% des données numériques ont été créées durant ces deux dernières années. Le contenu créé chaque jour est difficilement quantifiable quand tout le monde peut publier un commentaire, publier une page de blog ou contribuer sur wikipedia.
Il ne faut surtout pas oublier que certains sites/pages disparaissent avec le temps (auteur de blog lassé, entreprises qui disparaissent, contenu obsolète, censure, ...).
Aucun site internet n'est éternel, la seule question qui se pose, c'est quand va-t-il disparaître.

Il est évident qu'il est plus rapide de passer par un moteur de recherche que de naviguer sur des milliards de pages web.
Du coup, on comprend facilement pourquoi parmi les 5 sites les plus consultés dans le monde, on retrouve 3 moteurs de recherche.

  • Google
  • Facebook
  • YouTube
  • Yahoo!
  • Baidu

Google, Yahoo! et Baidu sont donc des sites incontournables pour les internautes. Il est surprenant de voir des sites aussi futiles parmi les sites les plus consultés alors qu'on a pas de trace de Wikipédia. Il semble que cela ne soit pas facile de se passer de Facebook / YouTube et doivent être fréquentés par des utilisateurs compulsifs.

Pour prendre l'exemple de l'incontournable Google, on dénombre 4 millions de recherches Google effectuées chaque minute.
Cela représente 25% du trafic Internet aux États-Unis.

Les moteurs de recherche connus

Tout le monde associe le terme moteur de recherche à Google. La plupart des utilisateurs ne connaissent généralement qu'un seul moteur de recherche, c'est souvent celui qui est mis par défaut dans le navigateur internet. Du coup, les gens connaissent soit Google, soit Yahoo ou Bing qui ont la possibilité de faire des partenariats (comme Google et Yahoo avec Firefox) ou s'imposer dans un éco-système fermé (Bing avec Internet explorer chez Microsoft).

Pourtant, il existe un nombre important de moteur de recherche. Pour ne citer que les plus connus:

Évidemment, tous ces moteurs ne se valent pas mais ils ont tous des particularités et méritent au moins de les essayer pour se faire un avis personnel. On ne trouvera pas toujours les mêmes résultats et contrairement aux préjugés Google n'est pas toujours très pertinent. Il est même conseillé d'en utiliser plusieurs pour passer de l'un à l'autre en fonction des situations..

Définition d'un moteur de recherche

On utilise des moteurs de recherche mais comment fonctionnent-ils ?

Ce qui importe à l'utilisateur, c'est d'obtenir des résultats à partir des mots clé utilisés. C'est pourtant une vision très réductrice des moteurs de recherche qui se le limite au résultat attendu par l'utilisateur.

Le moteur de recherche s'appuie sur des robots (appelé crawler) qui vont parcourir internet de site en site et indexer toutes les pages visitées. Un algorithme permet ensuite de classer les sites en fonction du contenu présent sur les pages. En fonction des mots clé utilisés, l'algorithme va mettre en avant certaines pages selon son algorithme et le contenu indexé (on parle de référencement).

L'indexation du web est une tache extrêmement difficile et qui nécessite beaucoup de temps et de ressources. C'est pourquoi les nouveaux moteurs de recherche sont généralement moins efficaces. L'algorithme est un autre élément essentiel et qui ne cesse d'évoluer pour satisfaire nos besoins et nos attentes. Chaque moteur de recherche tente de se démarquer et d'apporter les meilleurs résultats aux utilisateurs.

En plus des moteurs de recherche, il existe également des méta-moteurs. Ils s'appuient sur les résultats d'autres moteurs de recherche pour fournir ses propres résultats, ils sont généralement plus exhaustifs.

De nos jours, les moteurs de recherche deviennent de plus en plus intelligents et proposent des réponses toujours plus précises. On devient également plus exigent et, plutôt que d'obtenir une liste de liens, on souhaite obtenir directement les réponses à nos questions. C'est déjà le cas pour obtenir la météo, la carte d'une ville ou son adresse IP. Cette tendance devrait s'accélérer dans les prochaines années grâce à DuckDuckGo et ses fonctions Instant Answers qui propose des réponses en s'appuyant sur les mots clés utilisés.

Moteur de recherche: Ils sont basés sur des « robots », encore appelés bots, spiders, crawlers ou agents qui parcourent les sites à intervalles réguliers et de façon automatique pour découvrir de nouvelles adresses (URL). Ils suivent les liens hypertextes qui relient les pages les unes aux autres, les uns après les autres. Chaque page identifiée est alors indexée dans une base de données, accessible ensuite par les internautes à partir de mots-clés. wikipédia Méta-moteur: le métamoteur envoie ses requêtes à plusieurs moteurs de recherche et retourne les résultats de chacun d'eux. Un métamoteur élimine les résultats similaires ; par exemple, si Google et Yahoo! renvoient sur les deux mêmes liens, le métamoteur ne va l'afficher qu'une seule fois dans la liste des résultats. wikipedia Les différences entre les moteurs de recherche

Une fois que l'on connaît le fonctionnement des moteurs de recherche, on pourra plus facilement comprendre et expliquer les différences qui peuvent exister entre eux.

On peut établir différents critères qui pourront déterminer l'efficacité d'un moteur de recherche:

  • La pertinence des résultats
  • L'ergonomie du site
  • Les outils de recherches
  • La confidentialité et les CGU
  • La neutralité et la censure des résultats
  • La bulle filtrante
  • Les services annexes

L'élément essentiel reste avant tout la pertinence des résultats obtenus.
En fonction des mots clé utilisés, on obtiendra certains résultats, plus ou moins pertinents en adéquation avec la requête effectuée. La pertinence, repose sur le contenu indexé et principalement sur l'algorithme capable de mettre en avant les meilleurs résultats possibles.

Un autre élément important reste l'ergonomie du moteur de recherche.
La présentation et l'organisation des résultats n'est pas un élément accessoire et constitue bien un point important pour le confort et aussi l'efficacité des recherches. Il est tellement plus facile de trouver du contenu multimédia, des actualités, une carte quand ces résultats sont clairement identifiés et organisés par catégorie. L'ergonomie ne diffère généralement pas beaucoup d'un moteur de recherche à l'autre mais se remarque par de nombreux détails. Cet élément évolue doucement avec le temps pour s'adapter aux attentes des utilisateurs .

Les outils de recherche avancée permettant de filtrer les résultats sont souvent méconnus, pourtant ils peuvent s'avérer très utiles.
En règle générale, on utilise quelques filtres rapides qui sont proposés, comme le filtre par date, par langue,... Pourtant, chaque moteur de recherche dispose de sa propre syntaxe (plus ou moins évoluée) pour filtrer les résultats et trouver le contenu le plus pertinent.
Les opérateurs de recherche les plus connus sont les opérateurs booléens ET,OU,SAUF (en anglais AND, OR, NOT), la recherche d'une expression exacte (avec l'utilisation des "guillemets"), n'afficher que certains types de fichier ou n'afficher les résultats que pour un nom de domaine. Certains moteurs de recherche proposent des formulaires pour faciliter l'utilisation des filtres et des opérateurs. Ces outils deviennent indispensables pour être efficace et pour un gain de temps (et éviter de parcourir des centaines de résultats).
C'est le cas lorsque certains mots clés ont plusieurs significations.

exemple:
jaguar est à la fois un animal mais également une marque de voiture, on saisira les mots-clés: jaguar+vitesse-animal

La confidentialité et les conditions générales d'utilisation sont généralement occultés mais cache pourtant bien des choses.
La collecte des données est une réalité à l'heure actuelle et les entreprises n'hésitent pas à revendre ces données et collecter toujours plus d'informations à l'insu des utilisateurs. Les conséquences de cette collecte sont souvent méconnues ou largement sous-estimées car imperceptibles ou différées dans le temps. On considère à tort que tout cela est principalement destiné au ciblage publicitaire mais les utilisations possibles sont très variées et pourraient s'avérer extrêmement préjudiciable pour l'internaute. On peut très facilement utiliser ces données collectées pour le ciblage publicitaire mais aussi au sein des assurances, banques, entreprises de recrutement, etc.

Il existe un aspect relativement difficile à vérifier, la neutralité et la censure des résultats.
Derrière la grande majorité des moteurs de recherche, on retrouve des entreprises qui ont besoin de générer du profit. Rien n’interdit un moteur de recherche de favoriser certains liens au détriment d'autres en échange de publicités ou services payants qui seront plus ou moins bien identifiés dans les résultats.
Les résultats peuvent également être censurés sous la contrainte / en accord avec les autorités d'un pays. On peut même imaginer que certains résultats seront mis en avant pour des raisons idéologiques ou pour freiner la concurrence (cf. Google et wikileaks et Droit à l’oubli : Google invité à plus de transparence)

On retrouve pour une partie des moteurs de recherche, une pratique qui est assez mal connu des internautes la bulle filtrante.
Cette pratique peut être évoquée dans les CGU dans l'objectif de fournir à l'utilisateur de meilleurs services et lui offrir les résultats qu'on pense lui être le plus utiles en oubliant d'évoquer un possible effet de bulle filtrante. Pour simplifier le phénomène de bulle filtrante, c'est une sélection de résultats se basant sur le profil de l'utilisateur. En conséquence, deux individus n'auront donc pas nécessairement les mêmes résultats.
Le gros risque est de renforcer certaines idées/opinions (cf. Google peut-il influencer l'élection présidentielle américaine ?) et de passer à côté de certains sites intéressants parce qu'un algorithme considère que cela ne vous correspond pas.

Certains moteurs de recherche proposent bien plus qu'un simple moteur de recherche et proposent parfois des services annexes.
Google propose de très nombreux services: carte géographique, service de messagerie, traduction automatique, gestion de documents, ... et pour certains, nécessiteront évidemment un compte avec vos informations personnelles. Tous ces services peuvent vous être utiles mais ils sont également préjudiciables dès lors qu'ils faciliteront la collecte de données.

Ces différents critères permettront d'établir une base pour un classement/hiérarchie entre les différents moteurs de recherche.

Les enjeux

Parmi les différents critères listés précédemment, on en identifie certains qui sont sans conséquences pour l'utilisateur alors que les derniers interpellent. Il faut donc faire un compromis entre la qualité des résultats face aux contreparties demandées.

L'élément essentiel dans le choix et l'utilisation d'un moteur de recherche reste avant tout son efficacité.
Il faut choisir l'outil le plus adapté à notre propre utilisation, en fonction de: la langue, le pays, l'ergonomie, le domaine de recherche, etc. La plupart des utilisateurs se contentent d'utiliser un seul et unique moteur de recherche alors que l'on peut très facilement en utiliser plusieurs afin de compléter certains résultats. Il se peut également que l'on utilise mal certains outils de recherche ou que d'autres outils plus performants soient disponibles.

Il faut également prendre conscience qu'un moteur de recherche n'a pas la capacité d'indexer tous les sites présents sur internet.
Internet n'est pas quelque chose de figé mais en perpétuel changement. La création, la modification et la suppression de contenu est omniprésente. Certains sites ne souhaitent pas que leur contenu soit indexé par les moteurs de recherche et vous ne trouverez donc pas ces pages. Il existe encore une partie privée de l'internet comme les sites d'entreprises qui nécessite une identification ou de nombreux services en ligne qui ne sont disponibles que pour les membres enregistrés. Sans oublier le deepweb qui est utilisé que par un nombre limité d'utilisateur mais qui n'est pas indexé par les moteurs de recherche.

Ce n'est pas exclusif aux moteurs de recherche mais la collecte de données personnelles est une pratique courante et presque admise par les utilisateurs. Cette collecte devient une préoccupation puisque on est capable de collecter des informations sur la durée (plusieurs années) et parfois très personnelles. Ces informations personnelles peuvent contenir : vos intérêts, votre situation de famille, vos orientations politiques, votre état de santé, votre sexualité, etc. Elles constituent aujourd'hui une mine d'or pour les sociétés de marketing, les autorités gouvernementales, les hackers et criminels. L'enregistrement de ces données ne coûte presque rien et, sur le court terme, rapporte suffisamment avec la publicité ciblée et d'avantage dans quelques années avec des utilisations supplémentaires dans des domaines comme les banques, assurances, recrutement, police, ...

Un élément important et pourtant méconnu: la présence d'une bulle filtrante. Sous prétexte d'améliorer l'expérience utilisateur on devient de véritable cobaye dépourvu de capacité de réflexion. C'est un peu comme lire un seul et unique journal comme le Figaro. Il est toujours intéressant de voir ce qui se dit ailleurs.
Sur des thématiques "sensibles", il est peut être difficile de confronter les différentes opinions et on peut craindre un renforcement dans certaines croyances. Le contenu concernant les groupes terroristes et les différentes théories du complot semblent être surreprésenté parmi les résultats. Cela semble être déjà le cas sur les réseaux sociaux et déjà dénoncé par certains.

La censure peut également être présente sans pour autant être visible. On sait que la censure est présente en Chine et que les moteurs s'y conforment dès lors que leurs intérêts économiques sont en danger. Difficile de savoir si des mesures similaires sont appliquées dans d'autres pays.
Dans le même temps, la France souhaite mettre en place des outils de contre-propagande pour lutter contre le terrorisme et fait appel à des entreprises comme Google. Tous les gouvernements souhaitent bien évidemment prendre le contrôle des moteurs de recherche comme n'importe quel autre organe de presse.

Sachant que derrière ces moteurs de recherche on retrouve des entreprises, et qu'elles ont besoin de générer des bénéfices, on peut se poser la question sur le service rendu et les contreparties qui vont avec.

Quelques précisions concernant les données personnelles

Il existe différentes techniques pour collecter les données personnelles de l'utilisateur, chacune permettant d'obtenir des éléments plus ou moins intéressants et pertinents sur la personne qui est suivie.

Cookies de suivi

Un cookie est un fichier texte stocké par votre navigateur sur votre ordinateur dans le but de conserver des informations spécifiques. Ce cookie peut très facilement définir et stocker un identifiant unique pour chaque utilisateur. Le moteur de recherche (comme n'importe quel autre site) pourra donc associer à chaque requête cet identifiant unique et savoir qui recherche quoi. C'est encore plus facile si vous utilisez un compte (Google par exemple).

Adresse IP

Pour naviguer sur internet, votre FAI vous fournit une adresse IP. A chaque fois que vous vous connectez sur un site, celui-ci vous reconnaîtra par votre adresse IP. Elle peut donner des informations intéressantes à un moteur de recherche bien que pas toujours très précises.
On peut obtenir grâce à cette adresse IP une géolocalisation de votre point de connexion (votre ville ou une ville voisine). Une adresse IP permet donc de définir un utilisateur ou un groupe d'utilisateur (vous partagerez une adresse IP avec les autres utilisateurs de votre entreprise, logement, réseau public,...). Cette adresse IP fournit par votre FAI peut changer régulièrement mais pas pendant votre utilisation.

HTTP referer

Le HTTP referer est quelque chose qui n'est pas visible pour un utilisateur. Dès lors que vous cliquez sur un lien présent sur la page A, votre navigateur transmet l'adresse de cette page A au site B que vous allez visiter. C'est le cas quand vous lancez une recherche sur Google pour une paire de charentaise et que vous suivez le lien pour consulter le site Amazon. Dans ce cas, Amazon sait que vous venez du site Google et plus précisément de http://google.com/q=charentaise+taille+40.
Avec cet exemple, on arrive même à deviner quel est la recherche (charentaise et la pointure en 40) qui a été effectué avant d'arriver sur Amazon. C'est là qu'intervient la notion de GET request.

GET request

C'est un autre élément qui n'est pas visible pour un utilisateur mais cette méthode est bien connue des développeurs web. Il existe deux méthodes (GET et POST) permettant d'envoyer les informations depuis un formulaire vers le site que l'on consulte. La méthode GET transmet les informations du formulaire en clair grâce à l'URL. Pour une recherche de charentaises, l'URL de la page aura généralement cette forme: http://google.com/q=charentaise&w=pigeon.

  • q=charentaise fait référence au terme recherché
  • w=pigeon peut être une autre info (données d'identification personnelle ?)
A partir de là, on sait ce que vous avez saisi dans le formulaire de recherche. Fingerprinting

Le fingerprinting est une technique avancée contre laquelle il n'existe que très peu de solutions. Cette technique très efficace devient extrêmement contraignante pour l'utilisateur qui souhaiterait rester anonyme.
Le fingerprinting s'appuie sur un ensemble d'informations communiquées par votre navigateur. Malheureusement, elles sont très nombreuses et permettent d'identifier un utilisateur de manière unique (ou presque) malgré le nombre d'internautes.

Pour exemple, les informations qui peuvent être fournies:

  • User Agent: c'est le nom de code de votre navigateur internet et son numéro de version
  • Langue: c'est la langue utilisée par votre navigateur (ce qui permet à des sites comme wikipedia de vous renvoyer automatiquement vers la page en français)
  • Résolution de l'écran: permet d'adapter le rendu d'un site selon la taille de votre écran
  • OS : système d'exploitation qui est utilisé
  • Fuseau horaire
  • Polices de caractères utilisées

Chaque information peut être utile pour faciliter la navigation d'un internaute mais prises ensemble, ces informations deviennent dangereuses et permettent d'avoir une identification quasi unique pour chaque internaute. Pour plus d'infos, je vous invite à tester votre navigateur et lire le rapport de l'EFF sur ce sujet.

À partir de l'ensemble de ses données collectées on en déduit alors très facilement les différents liens suivis et on peut reconstruire l'historique de navigation de l'utilisateur. Ces données peuvent être utilisées pour afficher de la publicité ciblée mais d'autres utilisations sont possibles qui auront un impact plus important sur notre quotidien dans le futur comme l'attribution d'un crédit bancaire, évolution du tarif des assurances, recrutement dans les entreprises,...

Les données utilisées maintenant pourront être réutilisées demain avec la possibilité de les enrichir et les recouper avec d'autres sources d'informations, leur donnant une très grande valeur. Ces données pourront être utilisées directement par le moteur de recherche ou simplement revendu à d'autres entreprises.

Il existe également des risques de la collecte d’information (diffusion publique / demande des forces de l'ordre) quand bien même le moteur de recherche souhaite protéger votre vie privée:

  • Données qui ont été mal anonymisées
  • Problèmes techniques qui permettent d’accéder à ces données
  • Piratage
  • Demande des autorités
  • Surveillance
  • ...
Quelques anecdotes

Voici quelques anecdotes pour montrer comment peut agir un moteur de recherche et les dérives que cela peut produire.

  • TPB AFK: déréférencement du documentaire The Pirate Bay - Away From Keyboard sous la demande de certaines grandes majors nord-américaines alors que le film est sous licence Creative Commons.
  • SAMARCO: Google ne semble pas avoir entendu parlé de la catastrophe de Samarco (Miniver* VS réalité).
  • Wikileaks: Quand Wikileaks est localisé à Guantanamo Bay :-o
  • Prévision de la grippe: Google détecte les épidémies de grippe plus vite que les réseaux médicaux.
Ressources

* Miniver: dans le roman 1984 de George Orwell, le Miniver est le ministère de la vérité.


2016 nIQnutn CC-BY

Gravatar de nIQnutn
Original post of nIQnutn.Votez pour ce billet sur Planet Libre.

nIQnutn : Quelle réalité se cache derrière les moteurs de recherche ?

Quel(s) choix pour les libristes ?

L'utilisation des moteurs de recherche est une pratique courante pour toutes les personnes qui naviguent sur internet.
Il est d'ailleurs inconcevable pour la très grande majorité d'utilisateurs de ne pas utiliser un moteur de recherche au quotidien pour parcourir internet.
Pourtant, il ne s'agit pas d'une utilisation sans conséquences, elle détermine les résultats des recherches et donc de l'information que l'on va trouver et peut comporter certains risques/dangers souvent méconnus des internautes.

Cet article a pour but d'expliquer comment fonctionne un moteur de recherche et prendre conscience des enjeux pour avoir une utilisation plus efficace et pertinente de ce type d'outil.

Derrière la plupart des moteurs de recherche, on retrouve des multi-nationales qui ont des objectifs et sont motivées par un besoin de faire du profit.
Comment les objectifs d'une entreprise peuvent s'accorder avec les besoins/intérêts de l'utilisateur ? Existe-t-il des incompatibilités entre les deux ?

Comme n'importe quel outil, il faut commencer par trouver un outil adapté à ses besoins et apprendre à l'utiliser.
Il existe une diversité de moteurs de recherche, qui peuvent être tout aussi efficace que Google (souvent cité comme référence) avec des fonctionnalités supplémentaires très intéressantes.
Dans ce cas, quel(s) moteur(s) de recherche utiliser ?

L'utilisation de navigateur internet comme Firefox permet d'être plus efficace et d'utiliser au mieux les divers moteurs de recherche.
Il est possible d'ajouter autant de moteurs de recherche que l'on a besoin et d'utiliser l'un ou l'autre en fonction de la situation.
Firefox dispose de nombreuses fonctionnalités parfois méconnus ou sous-utilisées et pourtant très utiles.
On découvrira quelles sont ces fonctionnalités / astuces et comment les utiliser.
Dans certains cas précis, il est même possible de ne plus utiliser les moteurs de recherche tout en étant plus efficace.

Pour éviter de faire trop long, il a été nécessaire de découper ce sujet en plusieurs articles.
La première partie traitera principalement du fonctionnement des moteurs de recherches et des enjeux sous-jacents.
La seconde partie évoquera quelques alternatives disponibles à Google comme DuckDuckGo, StartPage, Qwant, ... en découvrant les points forts et les points faibles de chacun.
Pour finir, la dernière partie expliquera comment utiliser Firefox pour gérer différents moteurs de recherche et les utiliser ainsi que de nombreuses astuces utiles.

  1. Moteur de recherche: Les principes
  2. Moteur de recherche: Les alternatives à venir
  3. Moteur de recherche: Utilisation à venir

2016 nIQnutn CC-BY

Gravatar de nIQnutn
Original post of nIQnutn.Votez pour ce billet sur Planet Libre.

Frédéric Micout : Histoire d'une migration ratée vers Xubuntu

Ceci peut ressembler à un billet d'humeur.

A quoi bon se casser la tête à mettre en avant les solutions libres quand de toute manière, l'utilisateur final n'en a que faire. Ceci n'est pas un reproche vis à vis de l'utilisateur final mais bien un constat.

Il y a un plus d'un an, la machine de l'un de mes proches, sous Windows Vista, présentait tout un tas de problèmes, de lenteurs récurrentes, etc... On m'a donc demandé ce qu'il serait possible de faire pour remédier à ces désagréments et le plus simple était une réinstallation complète. L'utilisateur semblait presque prêt à changer de machine s'il le fallait (machine toute jeune, à peine 5 ans ; ce qui peut faire sourire les plus technophiles ;-) ).

Je ne suis pas un franc partisan de la migration forcée sous GNU/Linux mais bon en même temps, la machine n'était à ce que je voyais, que utilisée pour aller sur internet et visualiser/stocker des photos. Comme équipements externes, rien mis à part une imprimante multifonctions et des appareils photo numériques.

S'il y avait eu la moindre application particulière, le moindre appareil ésotérique ou autre chose du même type, je me serait contenté d'une réinstallation du système d'origine. Comme ce n'était pas le cas, j'ai tout de même pris le temps d'expliquer, ce que je proposais, quels étaient les changement attendus et ce qui ne changerait pas.

A ce stade, si vous vous trouvez dans le même cas, qu'après explications la réponse est "On te fait confiance" et que votre interlocuteur ne souhaite de toute façon pas prendre la peine de comprendre ce que vous lui expliquez, arrêtez tout. En effet, vous allez droit dans le mur. Cela est vrai pour plusieurs raisons.

Les besoins ont-ils été bien identifiés ?

L'utilisateur ne sait pas dire ni exprimer ce dont il se sert au quotidien sur sa machine. Consulte-il ses mails via un client lourd ou un webmail ? Il n'en a pas la moindre idée. A-t-il vraiment identifié toutes les petites applications qu'il a l'habitude d'utiliser ? Non, probablement pas, et c'est problématique.

On te fait confiance, mais surtout pour que ce soit comme avant...

L'utilisateur ne souhaite pas changer ses habitudes. C'est ça qu'il a veut dire quand il dit qu'il me fait confiance. Il veut le moins de changements perceptibles, ce qui transforme chaque détail spécifique à l'OS de départ en montagne à abattre dès lors que l'on se trouve dans le nouvel environnement. Essayez d'installer "Freecell", version Vista, sur Xubuntu. Via wine, seule la version XP est disponible. Une petite fenêtre s'ouvrait que vous branchiez votre appareil photo, et vous aviez directement le choix de copier ou déplacer son contenu dans le répertoire de votre choix. Naviguer dans les répertoire et refaire un bon vieux copier/coller vous semble alors être une aberration sans nom.

Maintenant, il y a un SAV.

Voilà ce qui m'a semblé le plus dur : la machine était depuis longtemps hors garantie et n'était suivie par personne. Elle a donc vivoté comme ça bon gré, mal gré, et ce durant plusieurs années. Elle ne fonctionnait pas bien mais puisque c'était avec le système préinstallé, il n'y avait pas grand chose à faire. Le système préinstallé donne l'impression d'avoir été choisi en connaissance de cause donc quand ça plante, on se trouve un peu face à nos propres choix et on assume plus facilement de faire avec.

A compter du jour où j'ai mis les mains dedans et où j'ai changé d'OS, je suis devenu le technicien qui doit veiller au bon fonctionnement de la machine et à qui on commence à demander de faire rentrer un rond dans un carré. Puisque j'ai proposé une solution autre, je suis devenu celui qui doit défendre la dite solution et qui doit trouver une solution quand un truc ne fait pas ce que l'on s'attend à ce qu'il fasse. J'ai réintroduit sans le vouloir une espèce de relation client/prestataire avec un contrat de maintenant GOLD.

Et maintenant ?

J'ai compris trop tard mon erreur et on ne m'y reprendra pas. Pour autant, la machine fonctionne parfaitement, est stable et ne présente plus les défauts qui lui étaient reprochés. Les gros problèmes sont soldés mais les différences perceptibles à l'usage sont elles même perçues comme de nouveaux problèmes et ce qui me semblait être de l'ordre du détail s'est en fait avéré capital à l'usage. Cela est hautement subjectif mais c'est ce qui compte en définitive.

Je vais donc repasser la machine sous Windows Vista, déçu, forcement, mais aussi en me disant que c'est encore la solution la plus appropriée. Je considère que j'ai même trop attendu car la solution que j'avais proposé était mal vécue par mes proches.

Certains pourraient me dire que Vista, c'est bugué et qu'il faudrait au moins passer la machine sous Seven. C'est ce que j'aurais fait si la machine avait une licence adéquate mais dans le cas présent, elle n'a qu'une licence pour Vista et rien d'autre. Le système des licences est ce qu'il est, on adhère ou pas, mais hors de question de le contourner. Quand on joue à un jeu, on ne choisit pas uniquement les règles qui nous arrangent.

Gravatar de Frédéric Micout
Original post of Frédéric Micout.Votez pour ce billet sur Planet Libre.

RaspbianFrance : Besoin d’aide avec votre Raspberry Pi ? Le forum Raspbian France est enfin arrivé !

Comme nous vous l’annoncions le 28 mars à l’occasion de l’anniversaire de Raspbian France, nous essayons de faire évoluer le site.

Cette évolution a commencé par l’arrivée d’un nouveau design bien plus sobre et lisible et se poursuit aujourd’hui avec la mise en place d’une toute nouvelle partie du site.

Nous sommes donc ravis de vous présenter le forum officiel de Raspbian France. Un forum français totalement dédié à la Raspberry Pi !

Pourquoi lancer un forum sur la Raspberry Pi ? Une communauté grandissante

La communauté francophone autour de la Raspberry Pi croît de jour en jour et par conséquent, le nombre de visiteurs de Raspbian France grandit aussi. Cela s’accompagne logiquement d’une forte augmentation du nombre de mails que nous recevons et il devient difficile de répondre à tout le monde rapidement.

Des questions (trop) techniques sur la framboise

Aujourd’hui, en plus du fait que répondre aux mails et commentaires nous prends énormément de temps, nous ne sommes pas toujours en mesure de vous apporter des réponses efficaces.

Même si nous connaissons bien la Raspberry Pi, nous n’avons pas toujours les réponses aux problèmes qui nous sont envoyés. Nous sommes donc obligés de faire énormément de recherches pour pouvoir aider nos lecteurs.

Cela n’est pas un problème en soi, nous sommes passionnés et avons soif de connaissances sur la Raspberry Pi. Cependant, là encore de telles recherches nous prennent énormément de temps, ce qui nous empêche de travailler sur d’autres éléments de Raspbian France, notamment la rédaction d’articles.

L’objectif du forum Raspbian France Impliquer les utilisateurs et faire grandir la communauté

Un des plus gros objectif du forum est d’impliquer plus fortement les utilisateurs du site, et de leurs permettre de discuter entre eux.

Aujourd’hui, seule la partie commentaire permet aux utilisateurs d’interagir et ce système rencontre rapidement ses limites.

Le forum sera donc l’occasion pour vous de proposer vos propres tutoriels, de trouver de l’aide sur la Raspberry Pi auprès de la communauté, de proposer et participer à des projets sur la Raspberry Pi, etc. Un véritable espace pour permettre à la communauté de s’organiser et de grandir.

Nous souhaitons que le forum soit un lieu de rencontre, permettant notamment aux personnes désireuses de monter des projets autours de la Raspberry Pi de trouver de l’aide et des partenaires !

Répondre plus vite aux problèmes des utilisateurs de la Raspberry Pi

Un autre objectif de ce forum est de permettre à nos utilisateurs bloqués de trouver plus rapidement des réponses à leurs problèmes.

Grâce à l’implication de nombreuses personnes et grâce au fait que les questions déjà résolues sont consultables (contrairement aux réponses par mail), nous pensons qu’il sera beaucoup plus facile pour les personnes bloquées de trouver rapidement des réponses à leurs questions !

Offrir des réponses plus pertinentes

Comme nous l’avons dis précédemment, nous recevons régulièrement des questions sur des points très cibléss, et nous n’avons pas toujours les réponses.

Grâce à la possibilité pour toute la communauté de répondre aux questions posées, nous espérons que ce type de questions trouvent des réponses plus précises de personnes déjà confrontées aux mêmes difficultés !

Nous sommes persuadés que nombre d’entre vous ont des connaissances sur de nombreux sujets autour de la Raspberry Pi bien supérieures aux nôtres !

Le fonctionnement du forum

Le forum fonctionne comme tous les forums classiques, avec différentes catégories, des systèmes de recommandations, etc.

Nous avons porté une attention toute particulière au choix d’un système de forum clair, pratique et visuellement agréable.

Un post d’accueil vous présentera les règles de vie du forum.

Les utilisateurs irrespectueux, injurieux ou grossiers seront évidemment bannis. En revanche les utilisateurs les plus actifs, de confiance et intéressés par cette possibilité pourront se voire promus modérateurs du forum.

N’hésitez pas à nous faire des retours sur le forum, à en parler autour de vous, etc.

Nous espérons que vous serez très nombreux à venir participer sur ce forum dédié à la Raspberry Pi !

Cet article Besoin d’aide avec votre Raspberry Pi ? Le forum Raspbian France est enfin arrivé ! est apparu en premier sur Raspbian-France.

Gravatar de RaspbianFrance
Original post of RaspbianFrance.Votez pour ce billet sur Planet Libre.

Articles similaires

mozillaZine-fr : Le correcteur grammatical Grammalecte pour Firefox est publié

grammalecteNous avions relayé l’information concernant l’appel à financement de cette extension pour Firefox, qui avait rencontré un beau succès. Nous avons maintenant le plaisir de vous annoncer que le correcteur grammatical Grammalecte pour Firefox est disponible dans le catalogue d’extensions de Mozilla. Comme le précise son auteur sur le site Ulule :

La route a été plus longue que prévu, mais voici enfin Grammalecte pour Firefox. Pour l’instant, attendu que Mozilla n’a toujours pas implémenté l’interface de programmation qui permettra de souligner en bleu les erreurs directement dans les zones de texte, la correction se fait dans un panneau annexe. Mais dès que cette interface sera disponible, c’est bien sûr ainsi que les corrections se feront. A priori, Grammalecte pour Firefox peut et doit signaler les mêmes erreurs que la version pour LibreOffice.

Gravatar de mozillaZine-fr
Original post of mozillaZine-fr.Votez pour ce billet sur Planet Libre.

Articles similaires

Raphaël Hertzog : Mes activités libres en avril 2016

Mon rapport mensuel couvre une grande partie de mes contributions au logiciel libre. Je l’écris pour mes donateurs (merci à eux !) mais aussi pour la communauté Debian au sens large parce que cela peut donner des idées aux nouveaux venus et que c’est également un des moyens les plus effectifs de trouver des volontaires pour travailler sur les projets qui me tiennent à cœur.

Debian LTS

J’ai pris en charge une nouvelle proposition de sponsoring, de la part d’une société souhaitant voir Wheezy continuer à supporter les architectures armel et armhf. Cela ne faisait pas partie de nos plans initiaux (arrêtés lors de la dernière DebConf) et, en conséquence, j’ai envoyé un message à toutes les équipes impactées de sorte à ce que ce changement, s’il devait survenir, soit approuvé collectivement. Alors que je m’attendais à recevoir une réponse claire assez rapidement, il s’est avéré que nous ne sommes jamais parvenus à obtenir un retour de la part de toutes les parties impliquées. La discussion a dérivé, à la place, sur la question plus générale de savoir comment nous devions traiter le sponsoring/donation au sein du projet LTS.

Fort heureusement, les mainteneurs de buildd ont confirmé être d’accord avec ce changemement, tandis que les ftpmasters n’y voyaient pas d’objections, ce qui a implicitement acté cette décision. Ansgar Burchardt a conservé les architectures armel/armhf dans le dépôt wheezy/updates lorsque le support a basculé du côté de l’équipe LTS, et Aurélien Jarno a configuré wanna-build de sorte à ce qu’il continue de compiler armel/armhf pour la suite. L’équipe DSA n’a pas confirmé que ce changement n’entrait pas en conflit avec l’un de leurs projets de mise hors service de matériels. Quoi qu’il en soit, les démons de compilation constituent des ressources partagées, et un seul serveur gère généralement la compilation des paquets pour plusieurs versions de Debian.

DebConf 16

Je me suis inscrit ce mois-ci pour la DebConf 16, et soumis plusieurs propositions de sujets pour des présentations/tables rondes :

  • Retour d’expérience de Kali Linux en tant que distribution dérivée de Debian, basée sur Testing (présentation);
  • Deux années de travail, réalisées par des contributeurs rémunérés, au sein du projet Debian LTS (présentation);
  • Utiliser l’argent de Debian pour financer les projets Debian (table ronde).

Je souhaite partager la configuration que nous utilisons dans Kali, dans la mesure où elle pourrait être utile à d’autres distributions dérivées, mais aussi à Debian elle-même, afin de faciliter les échanges avec les distributions dérivées.

Je souhaite également rouvrir le débat concernant l’utilisation de l’argent au sein de Debian. C’est un sujet difficile que nous devrions vraiment aborder, afin d’arrêter officiellement une position sur ce qu’il est possible de faire, ou de ne pas faire, avec cet argent. Debian LTS a permis de démontrer que l’argent pouvait être utilisé dans une certaine mesure, sans que cela n’affecte le projet Debian en tant que tel. Est-ce que cela peut être transposé à d’autres équipes ou projets ? Quelles sont les limites ? Pouvons-nous définir un cadre d’utilisation et clarifier les règles ? je m’attends à une table ronde très intéressante. Mehdi Dogguy a accepté d’animer cette table ronde avec moi.

Empaquetage

Django J’ai poussé la version 1.8.12 vers jessie-backports, ainsi que la version 1.9.5 vers unstable. J’ai créé deux rapports de bogue auprès de l’amont (n°26473 et n°26474) pour des problèmes repérés grâce à lintian.

Malheureusement, lorsque j’ai voulu faire de même vers unstable, la suite de tests n’a pas fonctionné. Après analyse, j’ai attribué cela à une régression dans SQLite. Chris Lamb a créé le rapport de bogue n°820225, et j’ai contacté les développeurs amont Django et SQLite par email, pour leur indiquer le souci. J’ai aidé l’auteur amont SQLite (Richard Hipp) à reproduire le problème, après quoi il a soumis très rapidement un patch, qui a atterri dans la version 3.12.1.

J’ai réalisé plus tard dans le mois un autre envoi, pour corriger un bogue de mise à jour (cf. le n°821789).

GNOME 3.20 Comme pour chaque nouvelle version, j’ai mis à jour gnome-shell-timer, de sorte à ce qu’il fonctionne avec le nouveau GNOME. J’y ai passé cette fois-ci un peu plus de temps qu’à l’habitude, afin de corriger une régression (cf. le n°805347) datant d’il y a bien longtemps déjà, et qui n’aurait jamais été corrigée autrement, l’auteur amont ayant déclaré orpheline cette extension (n’utilisant lui-même plus GNOME).

J’ai également rencontré des problèmes d’affichage, à savoir que les caractères accentués étaient affichés sous les caractères suivants. Avec l’aide de membres de l’équipe GNOME, nous avons découvert qu’il s’agissait d’un problème spécifique à la police cantarell, et n’était déclenché qu’avec Harfbuzz 1.2. C’est consigné dans Debian via le bogue n°822682 en ce qui concerne harfbuzz, et n°822762 pour ce qui est de fonts-cantarell. Une nouvelle version amont (incluant le correctif) est prête à être empaquetée, mais reste malheureusement bloquée par l’absence d’une version récente de fontforge dans Debian. J’ai donc contacté debian-mentors dans l’espoir de trouver des volontaires qui pourraient aider l’équipe pkg-fonts à en empaqueter une version plus récente…

Travaux divers Debian/Kali

Distro Tracker J’ai commencé à parrainer Vladimir Likic, qui m’a contacté dans le but de contribuer au Distro Tracker. Je l’ai aidé à mettre en place son environnement de développement, et nous avons corrigé quelques problèmes ce faisant.

Rapports de bogues J’ai créé de nombreux rapports de bogue, la plupart du fait de mon travail pour Kali :

  • n°820288: requête demandant le maintien d’un paquet WordPress installable sur les versions anciennes (du fait du renommage de nombreux paquets php);
  • n°820660: requête demandant le support des index by-hash dans reprepro;
  • n°820867: possibilité de surcharger la priorité de paquets déjà installés dans reprepro;
  • n°821070: problème de samba-vfs-modules lors de la mise à jour de jessie vers stretch;
  • n°822157: python-future masque et casse python-configparser;
  • n°822669: dh_installinit ajoute des autoscript inutiles pour les scripts System V, lorsque le paquet n’en contient aucun;
  • n°822670: dh-systemd devrait être fusionné avec debhelper, car nous disposons de systemd par défaut, et debhelper devrait le supporter correctement par défaut.

J’ai également étudié le n°819958 qui affecte testing, dans la mesure où il a été remonté dans Kali également. J’ai réalisé un envoi de dh-make-golang en tant que non-mainteneur, afin de corriger le problème du n°819472, que j’avais rapporté auparavant.

Merci

Rendez-vous au mois prochain pour un nouveau résumé de mes activités !

Ceci est une traduction de mon article My Free Software Activities in April 2016 contribuée par Weierstrass01.

Aucun commentaire pour le moment | Vous avez aimé ? Cliquez ici. | Ce blog utilise Flattr.

Gravatar de Raphaël Hertzog
Original post of Raphaël Hertzog.Votez pour ce billet sur Planet Libre.

Articles similaires

Okki : Sortie de Geary 0.11.0

Geary 0.11.0

Quelle surprise, que de voir sortir une nouvelle version de ce client de messagerie. Après la disparition de la fondation Yorba qui s’occupait du développement de l’application, puis l’annonce du fork par les développeurs d’elementary OS, j’étais persuadé que le projet allait rapidement mourir après la fuite de ses utilisateurs vers d’autres clients. Mais c’est sans compter sur Michael Gratton, qui annonçait début mars souhaiter reprendre la maintenance du projet.

Plus d’un an après la sortie de la précédente version, nous avons donc droit à une nouvelle version qui apporte les nouveautés suivantes :

  • Ajout de la prise en charge du dossier spécial Archive, permettant ainsi de pouvoir archiver les conversations sur tous les serveurs IMAP, et non plus uniquement sur Gmail
  • Ajout des opérateurs de recherche is:read, is:unread: et is:starred (est:lu, est:non lu, est:marqués d’une étoile)
  • Il est désormais possible d’utiliser plusieurs opérateurs de recherche simultanément (à:, de:, objet:, etc.)
  • De nombreux bugs qui faisaient planter l’application ont été corrigés
  • Correction du bug des images qui ne s’affichaient pas dans certains messages HTML
  • Correction du bug de la fenêtre principale vide lors de l’ouverture depuis une notification
  • Correction du bug qui faisait geler l’interface quand les connexions réseau étaient perdues
  • Meilleur fonctionnement avec Cyrus et d’autres serveurs quand le réseau n’est pas fiable
  • Meilleur positionnement du bouton pour détacher la fenêtre de composition
  • Amélioration de la documentation
  • Sans oublier les inévitables mises à jour de traductions (dont le français, merci à Cédric Bellegarde et Julien Hardelin) ;)

Il n’y a plus qu’à espérer que le projet soit de nouveau attractif aux yeux des contributeurs, et que les développeurs de Geary et de Pantheon-Mail puissent collaborer sur certains points (passage à WebKit2GTK+, meilleure prise en charge des différents services de messagerie autres que Gmail, interface pour la gestion des comptes, amélioration de la recherche…)

En attendant, nous pouvons apprécier les bienfaits du logiciel libre, qui permet à n’importe quelle personne motivée de pouvoir reprendre un projet à l’abandon, là où, dans l’industrie du logiciel propriétaire, les utilisateurs n’auraient pu que subir la décision d’une entreprise…

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

RaspbianFrance : Sortie d’une nouvelle version de la Raspberry Pi Zéro

Il y a quelques temps, la fondation Raspberry Pi avait annoncé en grandes pompes l’arrivée d’une nouvelle version simplifié de la Raspberry Pi, la Raspberry Pi Zéro, disponible à moins de 5€.

Ce nouveau modèle avait suscité un véritable engouement, à tel point que la fondation ne parvenait plus à répondre à la demande, et depuis quelques mois la Raspberry Pi Zéro était tout simplement introuvable !

Pour répondre à ce problème, la fondation lance donc une nouvelle version de la Raspberry Pi Zéro, la Raspberry Pi Zéro 1.3 !

Les caractéristiques de la Raspberry Pi Zéro

Pour ceux d’entre vous qui ne connaissent pas la Raspberry Pi Zéro, voici un rapide résumé de ses caractéristiques par rapport à la Raspberry Pi 3.

#go-pricing-table-1730 .gw-go-col-wrap { min-width:130px; } #go-pricing-table-1730 .gw-go-col-inner { border-radius:0 0 0 0; } #go-pricing-table-1730 ul.gw-go-body, #go-pricing-table-1730 ul.gw-go-body li { border:none !important; padding-top:1px; } #go-pricing-table-1730 ul.gw-go-body li .gw-go-body-cell { padding-top:1px; } #go-pricing-table-1730 ul.gw-go-body { padding-bottom:1px; } #go-pricing-table-1730 .gw-go-tooltip-content { background-color:#9D9D9D;color:#333333;max-width:130px; } #go-pricing-table-1730 .gw-go-tooltip:before { border-top-color:#9D9D9D; } #go-pricing-table-1730 .gw-go-col-wrap-0.gw-go-hover .gw-go-header-top { background-color:#3498db; } #go-pricing-table-1730 .gw-go-col-wrap-0 .gw-go-price-wrap span, #go-pricing-table-1730 .gw-go-col-wrap-0 .gw-go-coinf div, #go-pricing-table-1730 .gw-go-col-wrap-0 .gw-go-coinb div { color:#3498db; } #go-pricing-table-1730 .gw-go-col-wrap-1.gw-go-hover .gw-go-header-top { background-color:#3498db; } #go-pricing-table-1730 .gw-go-col-wrap-1 .gw-go-price-wrap span, #go-pricing-table-1730 .gw-go-col-wrap-1 .gw-go-coinf div, #go-pricing-table-1730 .gw-go-col-wrap-1 .gw-go-coinb div { color:#3498db; } #go-pricing-table-1730 .gw-go { visibility:visible; }Raspberry Pi 345€45€
  • Processeur : 64-bit quad-core ARM Cortex-A53
  • Processeur : 4 Coeurs
  • Cadence : 1200MHz
  • RAM : 1024Mo
  • Stockage : Carte MicroSD
  • Carte réseau : Ethernet + WiFi
  • Ports USB : 4
  • Sorties vidéos : HDMI et Jack audio/video
  • GPIO : 40 Pics
  • Port CSI Caméra : Oui
Acheter le modèle 3Raspberry Pi Zero5€5€
  • Processeur : BCM2835 ARM(v6)
  • Processeur : 1 Coeur
  • Cadence : 1000MHz
  • RAM : 512Mo
  • Stockage : Carte MicroSD
  • Carte réseau : Pas de carte réseau
  • Ports USB : 1 (microUSB On The Go)
  • Sorties vidéos : Mini HDMI + composite possible
  • GPIO : 40 Pics (non inclus)
  • Port CSI Caméra : Oui
Non disponible La Raspberry Pi Zéro gagne une caméra

Avec cette nouvelle version, la fondation améliore l’existant et ajoute le support de la caméra à la Raspberry Pi Zéro.

Si la Raspberry Pi Zéro reste globalement la même, elle se dote néanmoins d’un nouveau port qui lui faisait jusqu’ici cruellement défaut, un port dédié à la caméra officielle.

L’absence de connecteur caméra était vraiment le plus gros (et presque unique) défaut de la Raspberry Pi Zéro, et nous sommes réellement ravis de le voir corrigé. Par ailleurs, cet ajout permettra à la Raspberry Pi Zéro de tirer pleinement parti de l’arrivé de la version 2 de la caméra officielle.

Petit point à noter, le connecteur caméra de la Raspberry Pi Zéro 1.3 est différent du connecteur standard de la caméra. Cette nouvelle version de la Raspberry Pi Zéro sera donc directement livrée avec un câble spécifique faisant la conversion entre les deux connecteurs.

La Raspberry Pi Zéro bientôt disponible

Niveau disponibilité, la fondation a annoncé avoir déjà imprimé 30 000 Raspberry Pi Zéro, et précise qu’elle en imprimera encore plusieurs centaines par jour, jusqu’à répondre à toute la demande du marché.

À l’heure actuelle, la nouvelle Pi Zéro n’est pas encore disponible en France (jour férié oblige), mais elle devrait arriver dans les jours qui viennent. Nous ne manquerons pas de mettre l’article à jour à ce moment.

 

Pour rappel, vous pouvez trouvez notre article sur la Raspberry Pi Zéro, ainsi que notre article dédié au choix des accessoires de la Raspberry Pi !

Cet article Sortie d’une nouvelle version de la Raspberry Pi Zéro est apparu en premier sur Raspbian-France.

Gravatar de RaspbianFrance
Original post of RaspbianFrance.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Logiciel privateur de liberté… jusqu’à la prison ?

Dans le mode du logiciel libre, et contrairement à ce que le nom laisse suggérer, ce n’est pas le logiciel qui est libre, mais bien l’utilisateur du logiciel.

Le logiciel propriétaire, c’est-à-dire l’opposé du logiciel libre, est alors parfois appelé « logiciel privateur », car il prive l’utilisateur de certaines libertés fondamentales (étudier, exécuter, etc. le code source du programme).

Rebecca Wexler, étudiante dans l’école de droit de Yale (Yale Law School) nous montre ici qu’en plus ne nous priver de ces libertés qui peuvent parfois sembler bien futiles pour tout un chacun, ces logiciels peuvent compromettre le système judiciaire et nous priver ainsi de nos libertés fondamentales.

Condamnés par le code par Rebecca Wexler

Source : Convicted by code (Slate)

Traduction :Vincent,  McGregor, roptat, oS,Diane, CLC, touriste, teromene, Piup, Obny et anonymes.

Obny CC BY-NC-SA Dérivé de Su morais et CyberHades.

Obny CC BY-NC-SA Dérivé de Su morais et CyberHades.

Le code « secret » est partout : dans les ascenseurs, les avions, les appareils médicaux.

En refusant de publier le code source de leurs logiciels, les entreprises rendent impossible son inspection par des tiers, et ce même si le code a un impact énorme sur la société et la politique. Verrouiller l’accès au code empêche de connaître les failles de sécurité qui peuvent nous rendre vulnérables au piratage et à la fuite de données. Cela peut menacer notre vie privée en accumulant de l’information sur nous à notre insu. Cela peut interférer avec le principe d’égalité devant la loi si le gouvernement s’en sert pour vérifier notre éligibilité à une allocation, ou nous inscrire sur une liste d’interdiction de vol. De plus, le code gardé secret permet le trucage des données et occulte les erreurs, comme dans l’affaire Volkswagen : l’entreprise a récemment avoué avoir utilisé un logiciel caché pour truquer les tests d’émission menés sur 11 millions de voitures, qui rejetaient l’équivalent de 40 fois la limite légale.

Mais aussi choquante que la fraude de Volkswagen puisse être, elle ne fait qu’en annoncer bien d’autres du même genre. Il est temps de s’occuper de l’un des problèmes de transparence technologique les plus urgents et les plus négligés : les programmes secrets dans le système judiciaire. Aujourd’hui, des logiciels fermés, propriétaires, peuvent vous envoyer en prison et même dans le couloir de la mort. Et dans la plupart des juridictions des États-Unis, vous n’avez pourtant pas le droit de les inspecter. Pour faire court, les procureurs ont le même problème que Volkswagen.

Prenons la Californie. Martell Chubbs est actuellement accusé de meurtre pour des faits remontant à 1977, dans lesquels la seule preuve contre lui est une analyse ADN effectuée par un logiciel propriétaire. Chubbs, qui dirigeait une petite entreprise de dépannage à domicile à l’époque de son arrestation, a demandé à inspecter le code source du logiciel afin de pouvoir contester la précision de ses résultats. Il cherchait à déterminer si le code implémente correctement les procédures scientifiques établies pour l’analyse ADN et s’il fonctionne comme son fabriquant le prétend. Mais ce dernier a affirmé que l’avocat de la défense pourrait voler ou dupliquer le code et causer des pertes financières à l’entreprise. Le tribunal a rejeté la requête de Chubbs, lui autorisant l’examen du rapport de l’expert de l’état, mais pas l’outil qu’il a utilisé. Des tribunaux de Pennsylvanie, Caroline du Nord, Floride et d’autres ont rendu des décisions similaires.

Nous devons faire confiance aux nouvelles technologies pour nous aider à trouver et condamner les criminels, mais aussi pour disculper les innocents. Les logiciels propriétaires interfèrent avec cette confiance dans de plus en plus d’outils d’investigation, des tests ADN aux logiciels de reconnaissance faciale et aux algorithmes qui indiquent à la police où chercher les futurs crimes. Inspecter les logiciels n’est cependant pas seulement bon pour les accusés : divulguer le code à des experts de la défense a permis à la Cour suprême du New Jersey de confirmer la fiabilité scientifique d’un éthylotest.

Non seulement il est injuste de court-circuiter la possibilité pour la défense de contre-expertiser les preuves médico-légales, mais cela ouvre la voie à de mauvaises pratiques scientifiques. Les experts décrivent la contre-expertise comme « le meilleur instrument légal jamais inventé pour la recherche de la vérité ». Mais des révélations récentes ont révélé une épidémie de mauvaises pratiques scientifiques qui sapent la justice criminelle. Des études ont contesté la validité scientifique des recherche de similitudes sur les marques de morsure, les cheveux et les fibres, des diagnostics du syndrome du bébé secoué, de techniques balistiques, des séances d’identifications olfactives par des chiens, des preuves issues de l’interprétation de taches de sang, et des correspondances d’empreintes digitales. Le Massachusetts se démène pour gérer les retombées des falsifications de résultats par un technicien d’un laboratoire criminel qui a contaminé les preuves de dizaines de milliers d’affaires criminelles. Et le Projet Innocence rapporte que de mauvaises analyses légales ont contribué à l’incrimination injustifiée de 47 % des prévenus. L’Académie Nationale des Sciences (National Academy of Sciences) accuse entre autres le manque de processus d’évaluation par les pairs dans les disciplines liées à l’analyse légale d’être responsable de cette crise.

Les logiciels ne sont pas non plus infaillibles. On a découvert des erreurs de programmation qui changent les ratios de probabilité des tests ADN d’un facteur 10, amenant des procureurs australiens à remplacer 24 avis d’experts dans des affaires criminelles. Quand les experts de la défense ont identifié une erreur dans le logiciel de l’éthylotest, la Cour suprême du Minnesota a invalidé le test en tant que preuve pour tous les futurs jugements. Trois des plus hautes cours de l’état (américain, NdT) ont encouragé à accepter davantage de preuves de failles dans des programmes, de manière à ce que les accusés puissent mettre en cause la crédibilité de futurs tests.

La contre-expertise peut aider à protéger contre les erreurs – et même les fraudes – dans la science et la technique de l’analyse légale. Mais pour que cet appareil judiciaire puisse fonctionner, l’accusé doit connaître les fondements des accusations de l’état. En effet, lorsque le juge fédéral de Manhattan, Jed S. Rakoff, a démissionné en signe de protestation contre la commission sur les sciences légales du président Obama, il a prévenu que si l’accusé n’a pas accès à toutes les informations pour effectuer une contre-expertise, alors le témoignage d’un expert judiciaire n’est « rien d’autre qu’un procès par embuscade » (c.-à-d. sans accès préalable aux éléments  de preuve, NdT).

La mise en garde de Rakoff est particulièrement pertinente pour les logiciels des outils d’analyse légale. Puisque éliminer les erreurs d’un code est très difficile, les experts ont adopté l’ouverture à l’analyse publique comme le moyen le plus sûr de garder un logiciel sécurisé. De manière identique, demander au gouvernement d’utiliser exclusivement des outils d’analyse légale ouverts permettrait leur contre-expertise participative. Les fabricants d’outils d’analyse légale, qui vendent exclusivement aux laboratoires d’expertise criminelle du gouvernement, peuvent manquer de motivations pour conduire les tests de qualité minutieux requis.

Pour en être certains, les régulateurs du gouvernement conduisent actuellement des tests de validation pour au moins quelques outils d’analyse légale numériques. Mais même les régulateurs peuvent être incapables d’auditer le code des appareils qu’ils testent, se contentant à la place d’évaluer comment ces technologies se comportent dans un environnement contrôlé en laboratoire. De tels tests « en boite noire » n’ont pas été suffisants à l’Agence de Protection de l’Environnement (Environmental Protection Agency) pour repérer la fraude de Volkswagen et ce ne sera pas non plus assez pour garantir la qualité des technologies numériques d’analyse légale.

La Cour suprême a depuis longtemps reconnu que rendre les procès transparents aide à s’assurer de la confiance du public dans leur équité et leur légitimité. Le secret de ce qu’il y a sous le capot des appareils d’informatique légale jette un doute sur ce processus. Les accusés qui risquent l’incarcération ou la peine de mort devraient avoir le droit d’inspecter les codes secrets des appareils utilisés pour les condamner.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #19

Pour la 19ème semaine de 2016, voici 5 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Renault : Participez à la journée de test de Fedora 24 sur la mise à niveau graphique

Aujourd'hui, ce lundi 16 mai, est une journée dédiée à un test précis : sur la mise à niveau par voie graphique de Fedora. En effet, durant le cycle de développement, l'équipe d'assurance qualité dédie quelques journées autours de certains composants afin de remonter un maximum de problèmes sur le sujet.

Elle fournit en plus une liste de tests précis à effectuer. Il vous suffit de les suivre, comparer votre résultat au résultat attendu et le notifier.

Capture_du_2016-05-11_09-30-06.png

Qu'est-ce que la mise à niveau graphique ?

C'est une nouvelle fonctionnalité pour Fedora 24. Elle permet via le logiciel Gnome Logiciels de détecter si une nouvelle version de Fedora est disponible. Et si vous le souhaitez, vous pourrez lui confier la mission de télécharger et d'installer cette version de Fedora.

Cela est complémentaire de la possibilité offerte avec Fedora 23 de réaliser la mise à niveau via DNF. Mais là, même les non initiés pourront en profiter.

Notons que Fedora 23 disposera d'une mise à jour de Gnome Logiciels pour permettre de passer à Fedora 24 par ce biais. Mais il est important de s'assurer de son fonctionnement dès maintenant.

Les tests du jour couvrent :

  • La notification d'une mise à niveau ;
  • Le téléchargement et l'installation de la mise à niveau ;
  • La notification en cas de paquets cassés, comme ceux provenant d'un dépôt tiers, qui seront supprimés dans le processus ;
  • Le fonctionnement des boutons pour arrêter le téléchargement ou lire les notes de version.

Le test est un peu inhabituel car il est nécessaire d'utiliser une Fedora 23 à jour avec un dépôt Copr dédié pour lancer la procédure. Le test est un succès si au redémarrage de votre machine vous avez une Fedora 24 pleinement fonctionnelle.

J'ai par ailleurs déjà fait un essai et cela fonctionne plutôt bien. Étant donné la nature du test, il est recommandé de sauvegarder ses données personnelles et d'avoir un autre média d'installation de Fedora au cas où.

Comment y participer ?

Vous pouvez vous rendre sur la page des tests pour lister les tests disponibles et rapporter vos résultats. La page wiki récapitule les modalités de la journée.

En cas de bogue, il est nécessaire de le rapporter sur le BugZilla. Si vous ne savez pas faire, n'hésitez pas à consulter la documentation correspondante.

De plus, si une journée est dédiée à ces tests, il reste possible de les effectuer quelques jours plus tard sans problème ! Les résultats seront globalement d'actualité.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Planet Libre : Brèves du Planet Libre - lundi 16, mai 2016

La prise en charge de sécurité de Wheezy transmise à l'équipe de suivi à long terme (LTS) - debian.org Debian

antistress : "À compter du 25 avril, [...] près de trois ans après la parution de Debian 7 « Wheezy », la prise en charge de sécurité normale de Wheezy prend fin. L'équipe de suivi à long terme (LTS) de Debian va prendre le relais du suivi de sécurité. Wheezy LTS sera prise en charge du 26 avril 2016 au 31 mai 2018. [...] Quelques paquets ne sont pas couverts par la prise en charge de Wheezy LTS"

Liste des bons et mauvais vendeurs d'ordinateur personnel et matériel informatique - AFUL vente_liée AFUL

antistress : "Liste des bons et mauvais vendeurs d'ordinateur personnel (ordinateur fixe, portable, ultra-portable, netbook, PC, Mac, etc.) en ce qui concerne l'optionnalité du système d'exploitation et des autres logiciels pré-installés, ou à défaut, pour les conditions de leur remboursement. "
(via la liste de diffusion de l'April)

Pourquoi pas un SGBD open source ? - InformatiqueNews.fr Oracle IBM Microsoft SGBD

antistress : "Alors que le marché des bases de données s’est stabilisé autour du trio Oracle/IBM/Microsoft et plus récemment SAP, les bases de données open source ont gagné en maturité et deviennent un choix réaliste."
(via la revue de presse de l'April)

Gravatar de Planet Libre
Original post of Planet Libre.Votez pour ce billet sur Planet Libre.

Articles similaires

François Boulogne : Grammalecte : sortie du greffon pour firefox

Au printemps dernier avait été lancé une campagne de financement pour grammalecte, un correcteur grammatical et typographique dont la teneur est expliquée notamment sur linuxfr. Il y a quelques mois, je rapportais des nouvelles de l'avancement du logiciel dans cet article afin d'utiliser le correcteur grammatical en ligne de commande.

Désormais, le greffon pour firefox est disponible et voici l'annonce. Plus aucune excuse pour faire des fautes sur le web !

Gravatar de François Boulogne
Original post of François Boulogne.Votez pour ce billet sur Planet Libre.

Articles similaires

Pierre-Alain Bandinelli : Scripts Munin pour Jirafeau

Si vous utilisez Jirafeau sur votre serveur pour partager des documents, vous serez peut-être contents d'avoir un suivi rapide du nombre de fichiers partagés et du volume total qu'occupent les fichiers de Jirafeau sur votre serveur.

jirafeau_nb-day.png

Rien de plus simple avec Munin !

Créons un premier plugin pour mesurer le nombre de fichiers

Sur la machine porteuse du client (node) Munin, nous allons créer un nouveau script dans le fichier /etc/munin/plugins/jirafeau-nb :

#!/bin/sh case $1 in config) cat <<'EOM' graph_title Jirafeau, number of files graph_vlabel Nb of files nbfiles.label Nb of files EOM exit 0;; esac printf "nbfiles.value " echo $(($(find /path/to/jirafeau/var-abcdefghiklmnop/files -type f |wc -l)*1/2))

Il faudra rendre le script exécutable par

chmod a+x /etc/munin/plugins/jirafeau-nb

puis le tester avec munin par

munin-run jirafeau-nb

et enfin redémarrer le client Munin

service munin-node restart Créons un second plugin pour mesurer l'espace total occupé par les fichiers

On pratique comme au-dessus pour le script dont le contenu est :

#!/bin/sh case $1 in config) cat <<'EOM' graph_title Jirafeau, size of files in Kb graph_vlabel Size of files in Kb sizefiles.label Size EOM exit 0;; esac printf "sizefiles.value " du -hsk /path/to/jirafeau/var-abcdefghiklmnop/files |cut -f1

Et hop le tour est joué !

Gravatar de Pierre-Alain Bandinelli
Original post of Pierre-Alain Bandinelli.Votez pour ce billet sur Planet Libre.

Thuban : swx générateur de site/blog statique mis à jour

Je me suis replongé dans le code de swx suite à mon passage en "tout txt2tags". Et là, quelle horreur! je me demande si on ressent la même chose à chaque fois qu'on retrouve un vieux code. Il y avait (et reste sûrement) un tas de choses très moches et inutiles.
J'ai donc redressé mes manches (façon de parler, avec le soleil j'ai un t-shirt) et repris la suite de petits scripts qui font swx. Au menu des changements :

- Plus besoin de rsync
- Ajout de swx_blog qui permet de mettre dans une page la liste des articles récents;
- Ajout d'une barre de progression sommaire;
- Le flux rss généré avec swx_rss est plus propre et lisible par les lecteurs de flux;
- Possibilité de davantage configurer le site produit;
- Amélioration du Makefile plus facile à lire, et donc à modifier.

Il reste certainement à faire, mais c'est déjà plus facile à personnaliser et à hacker.

ps : en parlant de txt2tags, son export en plain text m'a permis de créer un clone de ce site sous gopher. Hi hi ☺. Mais si, vous savez, ce monde parallèle au web désuet qui permet certainement aux terroristes (enfin ceux qui ont un peu de jugeote, pour peu que ça existe) d'échanger des informations plus discrètement qu'avec le réseau tor. (malgré ce qu'on veut nous faire croire afin de retirer nos libertés "pour notre bien")...

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Pierre-Alain Bandinelli : RIP demo.ovh.eu, alternatives open source

Pour partager des fichiers temporairement avec des amis/collaborateurs/proches, j'utilisais fréquemment l'outil demo.ovh.eu. Cet outil avait pour avantage d'être "share & forget" ce qui est idéal pour un document partagé que l'on ne veut pas conserver soi-même.

Malheureusement OVH a décidé d'éteindre demo.ovh.eu et d'inciter les gens à utiliser la plateforme Hubic (qui est très bien mais il est pénible de se connecter et de partager une photo que l'on ne veut pas conserver et qui peut être supprimée quelques jours après le partage).

J'ai donc cherché un outil équivalent Open Source et suis tombé sur Uguu qui répondait à mon cahier des charges mais qui était compliqué à déployer car il contenait tous ses paramètres "en dur" dans le code.

J'ai donc 'forké' Uguu et livre la communauté une version d'Uguu plus facile à déployer et paramétrer : https://github.com/pierre-alain-b/Uguu/

Screenshot_2016-05-14_12-16-35.png

Et d'ailleurs, le mainteneur de la version initiale a accepté le 'Pull request' et a fusionné toutes mes modifications dans l'arbre principal de développement, il est peut-être donc même préférable de se rendre ici : https://github.com/nokonoko/Uguu.

En espérant qu'il puisse rendre service à d'autres !

Et si Uguu ne vous convient pas, il y a aussi :

Merci à François B. pour ces suggestions !

Gravatar de Pierre-Alain Bandinelli
Original post of Pierre-Alain Bandinelli.Votez pour ce billet sur Planet Libre.

Articles similaires

Pages