Planet Libre

Journal du hacker : Liens intéressants Journal du hacker semaine #14

Pour la 14ème semaine de 2017, ce sera 15 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Oui 15 liens parce que cette semaine a été très chargée entre le buzz Mastodon et l'annonce de Mark Shuttleworth et puis parce qu'on est sur le Journal du hacker alors on hacke ce qu'on veut quand-même hé hé. Plusieurs liens reviennent sur Mastodon et Ubuntu mais chacun apporte des informations intéressantes, j'ai tenu à tout garder.

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Serveur mis à jour

Le serveur est passé en 6.1

Merci de signaler tout dysfonctionnement :)

C'est l'occasion de jeter un œil à ce que nous réserve OpenBSD 6.1 . Un mini-résumé de ce que j'ai retenu pour aujourd'hui :

  • Une architecture arm64 pour les derniers raspberry pi par exemple.
  • Un tas de nouveau matériels supportés.
  • La virtualisation est améliorée.
  • Le choix du miroir pour les paquets est plus simple et se passe dans un seul fichier : /etc/installurl
  • Les mises à jours pour appliquer les patches du système sont simplifiées, il faudra juste lancer la commande syspatch.
  • Il y a un client letsencrypt par défaut conçu par les devs OpenBSD.

On en parlera davantage lors de la sortie officielle, rendez-vous en mai :)

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

G3L : G3L ouvre son instance Mastodon

Dans le cadre du collectif CHATONS, G3L propose à tous ceux qui le souhaitent une instance Mastodon. Si vous n'avez pas encore lu l'un des nombreux articles présentant Mastodon, sachez qu'il s'agit d'un logiciel libre de micro-blogging qui fonctionne de manière fédérée, c'est-à-dire que chaque installation de Mastodon peut communiquer avec les autres instances du logiciels présentes sur internet. Il suffit donc de se créer un compte sur l'une de ses instances pour pouvoir échanger avec les autres utilisateurs de Mastodon, quelque soit le serveur qu'ils utilisent.

Mastodon

De ce fait, Mastodon est une alternative très intéressante à Twitter : fonctionnalités assez proches, design ressemblant à Tweetdeck (une interface alternative au site principal) et surtout une décentralisation permettant de ne pas dépendre d'un seul et unique géant du web, d'être beaucoup moins sujet aux publicités qui commencent à prendre possession de Twitter et surtout de ne pas donner en pâture ses données personnelles à une entreprise commerciale.

G3L a voulu saisir l'opportunité du succès de ce nouveau réseau social. Proposer une instance de plus aide à la décentralisation de Mastodon et à l'essor de ce logiciel libre.

Vous êtes prêt à découvrir ce nouvel outil de communication ?

Inscrivez vous sur l'instance de G3L ou sur une autre du réseau CHATONS. Les membres du collectif CHATONS vous garantissent le respect de vos données et de votre vie privée.

Il vous restera alors à choisir les comptes que vous souhaitez suivre pour constituer votre réseau social.

Astuce : les instances des chatons étant assez récentes, n'hésitez pas à cliquer sur les profils que vous voyez passer dans les Pouets (les articles courts de Mastodon) puis sur leur photo de profil pour accéder à la liste de leurs abonnés et abonnements afin de piocher dans ces listes de nouveaux contacts intéressants ;-)

Bienvenue sur Mastodon et bonne découverte !

Gravatar de G3L
Original post of G3L.Votez pour ce billet sur Planet Libre.

Articles similaires

Okki : Ubuntu proposera bien un GNOME à la vanille :)

Après la récente décision de Mark Shuttleworth d’abandonner leur environnement Unity au profit de GNOME, on pouvait se poser la question de savoir s’ils proposeraient un GNOME vanille, à savoir une version de GNOME non modifiée, telle que proposée et voulue par le projet GNOME, ou si Ubuntu comptait le modifier en y ajoutant par exemple des extensions dans le but de proposer leur propre vision, comme de tenter de transposer l’expérience Unity sous GNOME.

Mais lors d’un récent échange avec les utilisateurs sur son compte Google+, Mark Shuttleworth se veut rassurant :

« Nous investirons dans Ubuntu GNOME dans le but de fournir un bureau fantastique entièrement-GNOME. Nous aiderons l’équipe Ubuntu GNOME sans chercher à créer quelque chose de différent ou de concurrentiel. Bien que je sois passionné par les idées de conception derrière Unity, et j’espère que GNOME y sera plus ouvert maintenant, je pense que nous devons respecter la vision du projet GNOME en proposant un bureau GNOME tel que voulu par le projet. »

Par contre, à la question de savoir si Ubuntu comptait contribuer activement au projet GNOME, nous avons droit à une réponse plutôt évasive :

« Il existe toujours une équipe dédiée à l’environnement de bureau, concentrée sur la fourniture d’un bureau de grande qualité, utilisable par tout un chacun. »

Ce qui ne nous renseigne guère sur le type de contributions. Participeront-ils au développement de nouvelles fonctionnalités, de nouvelles applications, ou est-ce que leur travail se limitera à de l’intégration, corrigeant seulement quelques bugs par-ci par-là. Même si, on est d’accord, c’est toujours bon à prendre ;-)

Mais c’est sans compter sur l’intervention de Carlos Soriano, le mainteneur de Fichiers, qui revient à la charge en lui demandant d’être un peu plus précis. Carlos souhaitant savoir si les contributions d’Ubuntu se feront upstream, comme le font déjà SUSE, Endless ou Fedora (pour ne citer qu’eux), en interagissant sur Bugzilla, en soumettant des patchs… ou s’il s’agira surtout d’une simple intégration.

Ce à quoi Mark répond qu’il « laissera Sebastien Bacher et les autres [NDLR: de l’équipe environnement de bureau d’Ubuntu ] décider de la meilleure façon d’aider Ubuntu GNOME. Nous faisons beaucoup de travail en amont, mais notre véritable objectif est l’expérience utilisateur final, ce qui implique de bien faire les choses au niveau de la distribution, puisque c’est ce que les utilisateurs utilisent. »

Je vous laisse en tirer vos propres conclusions, mais à mon avis, il y a peu de chance de voir des contributions conséquentes en provenance d’Ubuntu.

Néanmoins, ça reste une bonne nouvelle. Qu’on le veuille ou non, Ubuntu est de loin la distribution la plus utilisée, la plus populaire auprès du grand public. GNOME redeviendra donc de facto l’environnement le plus utilisé et aura sans doute droit à de nombreux nouveaux contributeurs parmi tous ces utilisateurs. Autre point important, toutes les grandes distributions (Debian, Red Hat, Fedora, SUSE et maintenant Ubuntu) proposent GNOME par défaut. Pour les éditeurs tiers, aussi bien d’applications que de jeux vidéos, ça sera désormais GNOME qui sera testé en priorité, ce qui signifie une bien meilleure intégration et un meilleur suivi.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

Tuxicoman : Ubuntu abandonne Unity et Mir

Dans un article de blog, Mark Shuttleworth annonce qu’Ubuntu utilisera Gnome comme bureau par défaut pour sa version 18.04 (qui sort en avril 2018).

C’est la fin de son épopée solitaire avec le bureau Unity et le serveur d’affichage Mir.

Ubuntu avait voulu se détacher des autres distributions en espérant prendre un peu d’avance sur le remplacement du vieillissant serveur X11. Le pari étant que si Unity/Mir fonctionnaient avant Gnome3/Wayland, elle se retrouvait seule avec un bureau moderne alors que les autres distributions devraient attendre le long processus du travail en commun pour faire un truc propre pour l’avenir. Un peu comme Skype et WebRTC.

Ca lui aurait permis de rassembler une majorité d’un segment de marché et installer un juteux magasin d’application pour Ubuntu, la distrib à 90% du marché du desktop moderne sous linux.

Malheureusement, ça a un peu foiré. L’avance d’Unity/Mir face à l’état du développement de Gnome 3/Wayland ne s’est pas révélée si clivante.

Et aujourd’hui, Gnome3 est désormais très mature et apprécié. Et Wayland est en embuscade pour remplacer X11 partout.

Donc quel intérêt pour Ubuntu de payer un cheval qui est en passe de se faire doubler par tout le monde ? Autant utiliser le truc qui ne fera pas fuir les développeurs et utilisateur et réorienter ses efforts vers un autre différenciateur.

Ubuntu a toujours été cela, le petit truc en plus qui la rend plus attrayante, plus facile, plus compatible que les autres. Mais aussi la sensation que ce qui est nouveau est aussi éphémère. Un peu comme Mandrake et son panneau de configuration système qui s’est petit à petit fait remplacer par les outils intégrés en commun dans toutes les distributions (netmanager, xrandr, etc…)

Maintenant, j’ai l’impression que la différence peut se faire sur la distribution qui intégrera le mieux les « snap », c’est à dire les paquets qui viennent avec leur dépendances pour facilement installer le dernier logiciel proprio à la mode (et pourrir ton disque dur et la sécurité comme sous Windows). Sur l’IoT et l’embarqué, de la prise électrique connectée au tableau de bord de voiture, il va y avoir du linux dans tous les appareils. Donc, pourquoi pas, il y a un marché à prendre.

Related Posts:

Gravatar de Tuxicoman
Original post of Tuxicoman.Votez pour ce billet sur Planet Libre.

Articles similaires

Jean-Baptiste Holcroft : Arrêtez de traduire !

Amis de la langue et du logiciel libre, quand vous êtes sur une traduction et qu’une phrase vous semble étrange, arrêtez-vous, posez des questions et demandez des corrections. Voici un cas d’école sur ce projet passionnant qu’est YunoHost.

Arriver à 100 % de traduction n’a aucun sens si ce que voit l’utilisateur n’est pas bien écrit, ou s’il y a des bugs dans les logiciels que vous ne signalez pas.

Depuis peu, Bram, un des développeurs a développé le nécessaire pour pouvoir traduire de façon centralisée la description et les questions posées par les applications installables par l’utilisateur sur son serveur YunoHost . Debian fait la même chose avec ddtp et debconf (respectivement la description des paquets et les questions posées à l’utilisateur).

J’ai remarqué plusieurs choses étranges, des phrases vides, des phrases sources écrites en français au lieu de l’anglais, des phrases perfectibles, énormément de redondance et… un bug supposé dans Weblate.

Après coup, quand je vois ce qui est à traduire, il y a un souci supplémentaire. Avoir 127 phrases à traduire « Choose a domain for %%% » où %%% correspond au nom du paquet YunoHost, ce n’est pas utile à traduire ! Et ce n’est que le début… 20 phrases à traduire « Choose a domain name for %%% »… Cela se poursuit avec 136 phrases « Choose a path %%% » et 22 phrases pour le choix de l’administrateur, 74 pour le caractère public ou privé de l’application. Autant traduire n’est pas compliqué avec un peu de motivation et de rigueur, autant quand le contenu est fortement redondant on a l’impression de se transformer en robot…

Voici la demande d’évolution que j’ai formulée sur l’outil de suivi.

Deux pistes me semblent possibles :

  • proposer des méthodes aux paquets pour les questions génériques (complexe ?),
  • ajouter une règle de contrôle automatique pour éviter que les applications renseignent leur nom dans les questions pour au moins réduire les phrases proches.

La conclusion de tout ceci, c’est qu’il faut aller plus loin dans nos travaux que simplement traduire, il faut coconstruire le logiciel avec les développeurs, dès qu’une phrase nous paraît étrange, il faut s’interroger sur la cause, voire la pertinence de la phrase que vous traduisez. Notre temps de traducteur est précieux (tout comme celui de chaque contributeur), il faut poser la question au mainteneur du projet et obtenir une correction.

Gravatar de Jean-Baptiste Holcroft
Original post of Jean-Baptiste Holcroft.Votez pour ce billet sur Planet Libre.

blog-libre : L’ère du faire

Les communautés francophones ne voient pas assez les remarquables contributions et avancées qu’elles apportent au Libre et à GNU/Linux : Emmabuntüs, DFLinux, Les cahiers du débutant, Le cahier de l’administrateur Debian, Auto-hébergement facile avec OpenBSD, Journal du hacker, LinuxJobs.fr, LinuxFr.org, Planet-Libre, Liberapay, wallabag.it, Framasoft, Hand, JerryClans, FreshRSS, YunoHost, Cozy, PluXml

Et là je parle seulement de quelques projets/sites mais il y a des milliers de contributeurs francophones qu’on pourrait citer. La francophonie contribue fortement au Libre et à GNU/Linux.

J’étais en train de jeter un coup d’œil aux liens de la semaine sur le Jdh :
Internet, c’était mieux avant ?
Auto-hébergement : la route n’est pas si longue
Au revoir Twitter, bonjour Mastodon !
Bloquage du root: la colère d’un utilisateur
Êtes-vous déjà sur Mastodon (liste) ?
Pourquoi GNOME ?
Coup de tonnerre ! Ubuntu arrête le développement de Unity !
Sortie de PluXml 5.6
L’entropie sous Linux et la génération de nombres aléatoires
Installer une instance de Mastodon sous Debian 8

Si je devais résumer un peu, je dirais que ce sont des articles pointus, parfois (très) techniques. Il y a 5 ans on voyait surtout des articles sur la présentation d’un nouveau logiciel libre et comment l’installer, la dernière sortie d’Ubuntu. Aujourd’hui je trouve qu’il y a une ébullition, une mutualisation, une vraie dynamique de gens qui font du Libre et du GNU/Linux. Beaucoup de blogueurs sont développeurs, techniciens, sysadmins, contributeurs. Les articles sont donc beaucoup moins simples d’accès et beaucoup plus pointus/techniques qu’il y a quelques années.

A mon sens c’est très positif ça montre l’évolution qu’il y a eu. Ça a débuté avec les précurseurs ceux qui ont ouvert la voie et essuyé les plâtres. Ensuite ceux qui ont démocratisé le Libre et GNU/Linux, qui en ont parlé, qui l’ont expliqué. Maintenant il y a ceux qui font vivre et vivent du Libre et de GNU/Linux. Nous sommes à l’ère du faire.

Juste top.

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Littlewing : Devoxx 2017

Me voila au bout de trois jours de conférences suivies au ( ou à je ne capte plus grand chose à cette heure de la journée ) DEVOXX.


DEVOXX, pour celles et ceux qui ne connaissent pas est LA conférence pour les développeurs.
Initialement tournée autour de JAVA et JAVAEE, elle s’est tournée au fil des années vers les autres technologies qui tournent autour de JAVA ( ANGULAR, BIG DATA,…).

A l’instar des années précédentes, j’ai trouvé les conférences de ( grande) qualité. J’ai appris pas mal de choses et certaines conférences m’ont permis de « mettre l’église au milleu du village » sur pas mal de sujets .

Vous trouverez sur cette page la liste des conférences, hands on et autres ateliers de ce millésime. Personnellement, j’ai assisté à pas mal de conférences sur le bigdata ( hadoop, kafka, spark,…). J’ai également été étonné que ni google, ni oracle étaient présents cette année. Doit-on y voir un signe ?

Les conférences seront diffusées gratuitement sur YOUTUBE.

Sur ce, je m’en vais prendre mon train pour retourner dans ma campagne et récupérer de ces trois jours .

 

Gravatar de Littlewing
Original post of Littlewing.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Les CHATONS s’attaquent à l’oiseau Twitter grâce à Mastodon

Mastodon, le clone libre et décentralisé de Twitter, accueille des dizaines de milliers de nouveaux membres chaque jour. Notre réponse se devait d’être collective.

Un vent de liberté qui fait du bien !

Résumons les épisodes précédents : Twitter est un réseau social centralisé, les données que vous lui confiez appartiennent à (et vont sur les serveurs de) l’entreprise du même nom. On y « tweete » publiquement de courts messages de 140 caractères (avec photos, liens, etc.) pour partager de brèves nouvelles, impressions, etc. C’est souvent le lieu de l’info rapide, des échanges évanescents et des actualités brûlantes.

Or depuis plusieurs mois, Twitter se « Facebookise » de plus en plus : la plate-forme change unilatéralement ses règles du jeu, filtre et choisit l’ordre de ce qui apparaît dans votre fil, se gonfle de pubs, répond très mal aux demandes de modération et de lutte contre le cyber-harcèlement

En fait, c’est Twitter qui nous donne les meilleures raisons de préférer Mastodon…

La semaine dernière, Twitter a imposé à ses utilisateurs et utilisatrices sa n-ième décision contestable. La plateforme a changé l’affichage des réponses, modifiant de fait les habitudes et la façon de communiquer des 320 millions de personnes inscrites sur ce réseau. Car oui : changer l’outil change le comportement, c’est même souvent le but.

Une décision unilatérale, qui a poussé des internautes à se demander :

Et si nous faisions notre Twitter mais en mieux… donc sans Twitter ?

Que Mastodon soit un effet de mode « mort-dans-deux-semaines » ou une révolution en marche sur internet, là n’est pas la question (et pour la réponse, désolé, on a paumé notre boule de cristal). Le fait est qu’aujourd’hui, plusieurs dizaines de milliers personnes reprennent en main un de leurs outils sociaux (où l’on « toote » ou « pouette » au lieu de tweeter), découvrent la liberté de ne pas dépendre d’une plateforme unique (chacun peut monter son « bout » du réseau social fédéré Mastodon), choisissent de ne pas confier ses données et sa communication à une entreprise du Big Data (cotée 18 milliards en bourse), et enfin découvrent comment de simples choix (passer de 140 à 500 caractères par message) changent la manière dont on pense, se comporte, et communique avec autrui.

Heureusement, le Gouvernement d’Internet veille à nous ramener dans le droit chemin :p !

A l’heure d’écriture de cet article, près de 100 000 personnes ont un compte Mastodon, et ça grimpe. À tel point que The Verge, The Telegraph, Mashable, Wired, et même RTL, le Figaro ou M6 parlent de ce vent de liberté qui a été dynamisé par des Français…

« Comment on met les Français en sourdine ? » se demande cet anglo-saxon peu habitué à une telle présence de la langue française sur ses réseaux sociaux ;p !

 

Les CHATONS vous proposent de faire Pouet !

Il faut un maximum d’instances, c’est à dire d’endroits de confiance où s’inscrire à Mastodon. Pourquoi ? Pour ne plus répéter l’erreur d’avoir mis toutes nos données (tous nos œufs) dans le panier de Twitter, d’une part, mais surtout parce que cela répartit la charge, les responsabilités et les savoir-faire.

Pour vous, cela veut dire être libre de quitter une instance si les règles du jeu ne vous conviennent plus. Avoir le pouvoir (et la responsabilité) de devenir son propre média social, indépendant. Savoir enfin quels humains sont derrière quelle instance, parce que lorsqu’on s’y inscrit, c’est quand même à ces personnes que l’on confie nos bouts de vie numérique, donc autant savoir si on peut leur faire confiance.

cliquez sur l’image pour découvrir le collectif CHATONS

Nous vous en avons parlé dans le Framablog, nous faisons désormais partie d’un Collectif d’Hébergeurs Alternatifs qui prônent et pratiquent la Transparence, l’Ouverture, la Neutralité, et la Solidarité. Les CHATONS se sont engagés : que du logiciel libre, pas d’exploitation de vos données ni de pub profilée, ouverture, transparence et neutralité, bref… ce collectif propose des services web éthiques, et humains.

Il nous semblait évident que, Mastodon étant une fédération logicielle (on vous en reparle la semaine prochaine), la proposition devait venir du collectif, et non simplement de Framasoft. Du coup, voici une première portée de CHATONS (ou de futurs CHATONS ^^) vous proposant des endroits fiables et éthiques pour tester et profiter du réseau Mastodon (une « première »… en attendant la semaine prochaine ?).

Concrètement, je fais quoi pour aller sur Mastodon ?

D’abord, allez lire l’excellent « Comment débuter » écrit par Numérama, le formidable « Welcome to mastodon » de Alda que nous avons repris ici, ou gardez-les dans un coin d’onglet pour quand vous vous poserez des questions (promis, ça aide !).

Ensuite, choisissez une instance, un serveur où vous inscrire. Pour cela, plusieurs possibilités :

  1. [mode avancé] Vous allez choisir sur la liste publique des instances ;
  2. [mode j’ai de la chance] Vous utilisez le portail qui choisit une instance pour vous ;
  3. [Frama-mode] Vous préférez aller chez un des CHATONS, ou s’inscrivant dans cette démarche ? Voici ceux disponibles à ce jour, ainsi que leurs conditions :
Unixcorn

Cliquez sur l’image pour accéder à leur Mastodon

Zaclys

Cliquez sur l’image pour accéder à leur Mastodon

  • Site Officiel
  • Mastodon : https://mastodon.zaclys.com
  • Inscriptions ouvertes, modération stricte
  • Particularités : signature dkim sur le domaine de messagerie
  • Modèle éco : gratuit ou don libre (en cours de discussion, dépend des ressources utilisées, sinon réservé adhérents)
ROFLCOPTER.fr

Cliquez sur l’image pour accéder à leur Mastodon

Outils Conviviaux

Cliquez sur l’image pour accéder à leur Mastodon

IndieHosters

  • Site Officiel
  • Mastodon : https://mastodon.indie.host
  • Inscriptions payantes, modération stricte
  • Modèle éco (vente de services) :
    • 10 % du chiffre d’affaire reversé à Mastodon
    • 125€/an pour une instance privée (<10 utilisateurs)
    • instance privée >10 utilisateurs – nous contacter : contact@indie.host
    • 24€/an pour un compte sur notre instance partagée

 

Enfin, il ne vous reste plus qu’à pousser votre premier Pouet, et à vous familiariser avec ce nouveau réseau !

Quant à nous, on vous donne rendez-vous la semaine prochaine pour de nouvelles annonces, car il reste de nombreuses choses à dire !

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Les systèmes embarqués

Cela faisait un moment que je réfléchissais à parler des systèmes embarqués, en particulier autour de Linux. Cela fait quelques temps que je suis dedans, et les ressources francophones étant plutôt rares dans le secteur, j'aimerais partager mon expérience, mes pensées, mes trucs et astuces potentiels.

Bien sûr cela ne remet nullement en cause la communication de l'actualité autour de Fedora. :-)

Pour commencer cette catégorie, je pense qu'il est bon de définir ce que j'entends ici par systèmes embarqués afin que ce soit clair et raconter un peu ma vie sur pourquoi je travaille dedans.

Mon parcours

Mon intérêt pour les systèmes embarqués vient de loin, mais reste flou. Globalement j'ai toujours apprécié manipuler un produit, un objet. Cela s'est confirmé durant mon cursus dans le supérieur, je n'éprouve pas une grande satisfaction à faire tourner mon bout de programme sur un serveur dont j'ignore même sa localisation. Ce besoin de concret est très important pour moi. J'ai toujours été très excité de lancer le résultat de mon travail préliminaire sur une nouvelle carte électronique qui vient de débarquer. Et constater que cela ne fonctionne pas du premier coup bien entendu.

Ensuite, il y a également l'intérêt d'apprendre le fonctionnement de nos ordinateurs. J'ai toujours été fasciné par le fonctionnement des processeurs, de la RAM ou des systèmes d'exploitation. Sans doute l'émerveillement devant leur complexité et l'ingéniosité de leur conception (si on met sous le tapis les horreurs également présentes). Dans ce domaine, il faut connaître les caractéristiques du circuit, du processeur, lire la documentation associée, comprendre l'état de la mémoire, comment l'OS va gérer les entrées/sorties et les processus pour donner accès à la fonction voulue. Impossible de se reposer sur une machine virtuelle ou un interpréteur qui nous cache ces détails (ce qu'ils font à raison, mais cela ne m'intéresse pas).

Enfin, je trouve que c'est un domaine omniprésent. Cela permet de côtoyer de nombreux secteurs d'activités différents comme: télécommunication, aéronautique ou spatial, automobile, agriculture, sécurité bancaire, multimédia, l'électronique, etc. Et comme le produit doit répondre aux contraintes de chaque secteur, il faut étudier, comprendre et analyser les caractéristiques du secteur considéré. Cela permet de varier l'environnement d'étude et donc les choses à en apprendre. Or j'adore apprendre.

Qu'est-ce qu'un système embarqué ?

Cela peut paraître absurde, mais il y a probablement autant de définitions que d'acteurs dans le domaine. D'autant plus qu'avec le temps et l'évolution technique, la définition de ce qui entre ou pas dans ce cadre peut varier. Typiquement, un téléphone aujourd'hui est radicalement différent par rapport aux débuts des années 2000. Pour certains un smartphone n'en est plus un, pour d'autres, cela continue.

Du coup on va dégager les tendances ou les points communs pour le définir. Globalement nous pouvons résumer cela en tout système programmé qui n'est pas d'architecture x86 ou qui présente une contrainte spécifique.

La puissance disponible

La première chose qui vient à l'esprit, ce sont les performances matérielles. Un processeur pas très puissant, voire ancien, peu de RAM ou de stockage et une connectique souvent un peu spéciale pour en tirer parti. Grâce aux progrès de la miniaturisation et de l'économie d'énergie, c'est de moins en moins vrai. Des processeurs tels que les nVidia Tegra TK1/TX1 ne consomment pas grand chose. Pour moins d'une dizaine de watts, et une surface raisonnable, nous avons un couple GPU/CPU pouvant atteindre le TFLOPS en puissance de calcul brut. Qu'on peut facilement épauler de quelques Gio de RAM et de mémoire de stockage.

À titre de comparaison, 1 TFLOPS (en admettant cette unité de mesure comme pertinente, ce qui est discutable) c'est l'ordinateur le plus puissant du monde déclaré (donc pas militaire ou top secret) en 1997. 20 ans après un téléphone ou une voiture en ont un voire plusieurs sur quelques millimètres carré. Nous sommes très loin d'un simple microcontrôleur ou d'un processeur peinant à gérer plusieurs processus à la fois. Cela est également proche de ce qu'on peut retrouver dans un ordinateur personnel normal.

Donc si la puissance disponible est un critère souvent retenu, programmer un microcontrôleur est de fait un système embarqué, il est possible aujourd'hui de faire des systèmes embarqués avec une puissance de calcul très élevée.

Les contraintes d'un système peu puissant c'est qu'il demandera sans doute une économie des ressources, la renonciation à certaines technologies et à certaines fonctionnalités. Ce n'est pas pour rien que le C et le C++ règnent encore en maître dans le domaine, même si Python ou Java prennent de plus en plus de place, grâce justement à l'amélioration des performances.

L'énergie

Pour enchaîner avec le point précédent, nous pouvons relever la consommation énergétique. Tous les systèmes embarqués n'ont pas cette contrainte, mais cela reste assez commun. En effet, un système sur batterie devra faire attention à la consommation énergétique pour limiter l'apport d'énergie (en fréquence comme en puissance) par exemple pour augmenter son autonomie.

Le lien avec la puissance est évidente, malgré les progrès, plus de puissance de calcul demandera plus de ressources électriques. C'est ce qui a limité pendant longtemps la possibilité de faire des systèmes embarqués avec des performances élevées. La mise à disposition de processeurs modernes avec une consommation faible permet le contournement de ce problème mais pas complètement. Cela se vérifie avec l'Internet des Objets qui remet au centre du secteur des processeurs très minimalistes et très peu gourmands pour exécuter uniquement la fonction demandée.

L'énergie va avoir plusieurs contraintes sur le système. Il peut en effet limiter la puissance disponible. Il peut aussi être une contrainte car l'énergie fournie est non fiable. Nous pouvons penser à des systèmes en aéronautique ou aérospatiale dont certains composants ont une puissance électrique allouée maximale et que dans certains cas l'engin peut couper l'alimentation de composants secondaire (par exemple le multimédia à bord des avions).

Il faut donc tenir compte de cela, par exemple certaines communications peuvent être coupées brutalement, le système aussi. Cela a un impact fort sur le design électronique et logiciel. Il faut réfléchir à comment gérer le cas d'une coupure de courant lors d'une mise à jour du système (dans quel état le système va être retrouvé ?). Les fonctions qui doivent être maintenues en vie et d'autres pas. Si ces questions existent pour l'ordinateur personnel, cela reste moins problématique et beaucoup plus rare que dans le cas des systèmes embarqués. On peut en effet présumer que dans les pays développés le réseau électrique est plutôt fiable (ce qui n'est pas sans poser de soucis pour ceux ne vivant pas dans de tels pays mais passons).

L'autonomie

Ici je ne parlerai pas d'autonomie électrique, bien que ce soit liée, mais plutôt d'autonomie en terme d'isolement du système. Un système où l'accès au réseau n'existe pas forcément, où il n'y a pas un technicien disponible pour le réparer en cas de besoin rapidement.

Cela a un impact bien entendu très fort sur le système. Cela signifie que le système doit être robuste aux pannes ou bogues divers. Certains processus devront être très fiables, comme la mise à jour. Si on envoie un nouveau logiciel à un satellite dans l'espace et que cela échoue, le satellite doit rester opérationnel dans tous les cas. On ne va pas envoyer une fusée pour réparer ce genre de choses.

En terme d'architecture du système, il va falloir penser à beaucoup de choses pour minimiser l'intervention humaine. Il faut forcément automatiser le lancement pour que l'application métier soit lancée toute seule. Mais aussi programmer des tâches récurrentes, prévoir des solutions en cas de coupure du réseau ou de l'électricité.

Par exemple, pour que le système soit auto-entretenu dans un tel contexte, il est courant de recourir à un système sans état. Ce type de système fait qu'en cas de redémarrage, la fonction recommence comme si de rien n'était, le système pouvant être en lecture seule. On couple cela avec un watchdog pour que le système redémarre matériellement tout seul si jamais l'application ou le noyau ont planté.

Les entrées/sorties limitées ou spéciales

De part les contraintes énoncées plus haut, il en ressort qu'on n'interagit pas avec un système embarqué comme avec son ordinateur personnel. Il n'y a pas forcément d'écran, encore moins souvent de clavier complet ou de souris. Si écran il y a, c'est souvent du mono applicatif donc sans bureau. Le système doit être minimal, pour économiser en coût de composants, en risque de problèmes matériels ou logiciels et simple d'utilisation pour un utilisateur non formé. En effet il serait malvenue que le distributeur de billet de votre quartier soit complexe à prendre en main ou qu'il tombe en panne régulièrement.

Cela va induire par effet de bords des choix en terme d'interface utilisateur pour présenter le moins de choix possibles d'un coup, en restant clair et complet. Et que tout ceci soit sélectionnable sans difficulté ou ambiguïté pour tous les utilisateurs (comme les personnes âgées ou les handicapées). Ceci explique souvent les interfaces un peu vieillottes avec de gros boutons que ce soit bien visible et clair. Les interfaces riches peuvent être sources de confusion dans ce genre de situations en plus de demander plus de ressources matérielles et de temps de développement.

En terme d'entrées/sorties spécifiques, nous avons ceux du développement et en environnement de production. Pour le développement, comme nous utilisons notre ordinateur, nous devons communiquer avec la bête. Très souvent cela se fait par le réseau (par SSH et NFS), par port série voire USB pour l'accès à la console (quand le SSH n'est pas possible) et JTAG pour déboguer en stoppant le processeur par exemple pour analyser la situation à n'importe quel moment. Parfois pour flasher la JTAG sert encore mais cela est de moins en moins le cas. Il faut souvent jongler avec tout ceci ce qui encombre pas mal le poste de travail.

Les normes et l'environnement

Encore un sujet assez vaste et pourtant au combien important. Les systèmes embarqués sont très souvent employés dans des secteurs industriels où les normes sont omniprésentes pour des raisons de sécurité, de compatibilité, de respect de l'environnement, etc. Et cela n'est pas sans incidence sur le développement.

Des secteurs sont par exemple très très réglementés comme l'aéronautique, le médical, le spatial, l'automobile ou le ferroviaire. Ce sont des secteurs où des défauts peuvent engendrés la perte de vies humaines ou avoir des coûts matériels très important en cas de défaut. Il est impératif de respecter des normes afin de limiter au maximum les risques.

Je vais parler de l'aéronautique, secteur que j'ai pu côtoyer durant deux ans. Tout logiciel (et matériel) embarquant dans un avion doit être certifié conformément aux directives des agences continentales et internationales. Pour être certifié, l'écriture du logiciel doit suivre une procédure précise qui dépend bien sûr de la criticité du système.

En effet, tout système se voit attribué un DAL qui est un niveau d'exigence noté de A à F, plus la note est élevée, plus l'exigence et les limitations seront fortes. Dans tous les cas il faudra documenter le design, rédiger des cahiers de tests et communiquer les résultats. Il faut également facilement faire le lien entre le code / commit et un test ou une exigence du design.

Et là où cela se corse, c'est par exemple des logiciels pour les DAL A ou B, il faut impérativement que tout soit contrôlé. Tout le chemin d'exécution du code, de même que le déterminisme du processeur en dessous. C'est pourquoi il est fréquent d'utiliser des code très léger sur microcontrôleur dans ce cas, on ne peut se fier à la complexité d'un noyau Linux complet sur un processeur x86. La communication avec les autres composants doit être réduite au strict nécessaire, la consommation électrique est plafonnée. Il y a aussi des interdictions plus concrètes comme le respect d'un code couleur pour les interfaces (le rouge est par exemple réservé aux erreurs sévères et strictement définies).

Concernant les normes, il y a aussi les standards comme le bus CAN pour l'automobile ou l'A429 pour l’aéronautique qui sont incontournables pour interagir avec le reste de l'appareil sans réinventer la roue systématiquement. D'ailleurs l'analyse de ces normes mettent en évidence les contraintes de l'environnement pour expliquer ces choix de design et le maintient de ces normes anciennes sur des systèmes modernes. Cela fera l'objet d'un autre article.

En somme, il faut respecter les contraintes du secteur d'activités qui peuvent être importantes car il y a de fortes responsabilités derrière. Et cela influe forcément le design de l'application et du matériel et de fait du produit qui sera réalisé.

Conclusion

C'est un article un peu long qui se veut être une introduction générale. Par la suite je compte présenter quelques petites choses :

  • Étude d'une norme comme le bus CAN ou A429, qui sont assez simples, et comprendre leur intérêt dans les systèmes actuels et les raisons d'une telle conception ;
  • Présenter des projets liés aux systèmes embarqués comme Yocto, buildroot, U-boot ou le noyau Linux et expliquer le boulot d'un développeur sur ces projets ;
  • Expliquer certaines pratiques industrielles ou technologies dans le secteur, pour comprendre certaines décisions qui peuvent paraître aberrantes mais qui finalement le sont moins. Typiquement pourquoi il est rare qu'Android soit mis à jour décemment sur la plupart des modèles vendus ? Pourquoi il est difficile de faire un OS compatible avec tous les systèmes ARM ?
  • Présenter certains bogues ou designs que j'ai rencontré dans le cadre de mon travail.

Cela s'étendra dans le temps, je ne compte pas tout rédiger maintenant. Les humeurs, les envies, les idées, tout ça.

N'hésitez pas si vous avez des suggestions, des corrections, des questions ou de signifier si cela vous plaît / déplaît. Merci.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Okki : GNOME pourrait avoir son application simple de dessin

Il vous est sans doute déjà arrivé d’avoir besoin d’effectuer diverses manipulations plutôt basiques sur une image : découpage, déplacement, ajout de texte, un peu de dessin… Et tout de suite, on pense à des applications telles que GIMP ou Krita. Mais quand on est pas infographiste, on peut vite être découragé par le foisonnement d’options, où tout paraît compliqué.

Des recherches plus approfondies nous donnent bien GNU Paintgnome-paint et autre KolourPaint, mais soit les applications sont abandonnées depuis de nombreuses années (2007 et 2010 pour les deux premières), utilisent de vieilles technologies (GTK+ 2) et ne respectent pas les bonnes pratiques pour l’IHM de GNOME, soit nécessitent d’installer de nombreuses dépendances relatives à KDE et ne s’intégreront pas correctement dans notre environnement préféré.

Marcin Kolny a donc décidé de prendre le problème à bras-le-corps et de se lancer dans le développement d’une toute nouvelle application, GNOME Paint, qui fera peut être un jour parti des applications GNOME officielles.

Comme vous pouvez le constater sur le capture d’écran, il s’agit d’une version préliminaire et un designer est activement recherché. Mais avec un peu de chance, une première version utilisable sera peut-être disponible fin juillet pour le GUADEC 2017.

Pour plus d’informations, vous pouvez consulter l’annonce de Marcin Kolny sur son blog.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

Carl Chenet : Pourquoi j’ai créé ma page Liberapay

Contribuer au Logiciel Libre est une activité très consommatrice de moyens et de temps. Il faut, comme pour chaque projet logiciel, traverser les différentes phases de :

  1. répondre à un besoin par l’utilisation, l’adaptation ou l’écriture complète d’un logiciel
  2. mettre en place la solution
  3. en assurer la maintenance
  4. faire connaître son projet

Quasiment l’ensemble de ces tâches est à assurer pour chacun de vos projets. Et c’est donc ce que je m’efforce de faire pour l’ensemble de mes projets ci-dessous.

Mes projets dans le Libre

Voici les projets par lesquels je contribue au Logiciel Libre.

Fondateur du Journal du hacker

J’ai fondé ce qui est aujourd’hui le Journal du hacker car un outil de ce type manquait à la communauté du Logiciel Libre francophone. Je me suis appuyé sur le code d’un projet existant aux États-Unis mais j’y ai intégré l’internationalisation pour gérer les autres caractères que ceux de l’écriture anglaise, fonctionnalité manquante dans le moteur et j’ai tenté d’intégrer au projet amont ces améliorations.

Nous sommes aujourd’hui une équipe entière (bravo et merci aux modos) mais je travaille encore très régulièrement sur les phases 3 et 4 décrites précédemment. Je suis modérateur et déniche les articles intéressants de la sphères du Logiciel Libre francophone. J’y passe au minimum une heure par jour.

logo-journal-du-hacker

Fondateur de LinuxJobs.fr

J’ai fondé LinuxJobs.fr car je voulais redynamiser l’emploi dans la communauté du Logiciel Libre et Open Source en France. Le site web a rencontré un franc succès, la communauté grandit chaque jour et nous approchons de la 1000ème offre publiée en un an et demi. Je teste actuellement un modèle économique pour tenter d’équilibrer les coûts du service mais la balance est pour l’instant complètement déficitaire.

Je suis toujours dans les phases 2, 3 et 4, de nouvelles fonctionnalités étant régulièrement ajoutées. Je passe également beaucoup de temps à faire connaître le projet, comme l’atteste ma présence aux Journées du Logiciel Libre 2017 le week-end dernier à Lyon. Merci à tout ceux qui sont venus me voir.

LinuxJobs.fr, le site d'emploi de la communauté du Logiciel Libre, contribue au Logiciel Libre

Développeur actif de logiciels libres

Comme l’explique l’article sur mon blog Manger ce que l’on prépare, les deux aventures précédentes ont mis en avant le besoin d’outils adaptés à ces projets. De plus, par mon activité d’architecte de systèmes d’information, j’ai également cherché à combler certains manques dans le métier de l’administration système, comme l’absence d’outil automatisé pour contrôler les sauvegardes. J’ai donc écrit les logiciels suivants :

Pourquoi j’ai créé ma page Liberapay

Je suis donc très impliqué dans la communauté du Logiciel Libre et Open Source. J’investis du temps et de l’argent dans mes différents projets. Le projet Liberapay et son système de dons récurrents me paraît une excellente idée pour rémunérer de manière communautaire et peu contraignante les acteurs qui font progresser les choses dans notre communauté.

liberapay

Je centralise donc le résumé de l’ensemble de mes actions actuelles sur ma page Liberapay et me fixe un ambitieux but de 5€ par semaine. Si vous utilisez l’un des projets décrits ci-dessus, j’espère que vous m’aiderez à l’atteindre, même à hauteur de quelques centimes par semaine 😉 Mes adresses Bitcoin et Monero sont également disponibles sur cette page.

Gravatar de Carl Chenet
Original post of Carl Chenet.Votez pour ce billet sur Planet Libre.

Articles similaires

Renault : Participez à la journée de test de Fedora 26 sur l'interface de partitionnement d'Anaconda

Aujourd'hui, ce jeudi 6 avril, est une journée dédiée à un test précis : sur la nouvelle interface alternative du partitionnement de l'installateur de Fedora qui est Anaconda.

En effet, durant le cycle de développement, l'équipe d'assurance qualité dédie quelques journées autours de certains composants ou nouveautés afin de remonter un maximum de problèmes sur le sujet.

Elle fournit en plus une liste de tests précis à effectuer. Il vous suffit de les suivre, comparer votre résultat au résultat attendu et le notifier.

Qu'est-ce qu'est cette nouvelle interface ?

C'est une nouveauté pour Fedora 26 de fournir pour le partitionnement deux interfaces graphique différentes. La nouvelle interface utilise celle de l'utilitaire blivet-gui qui est plus complète que celle par défaut et sans doute plus traditionnelle par son approche. L'objectif est de simplifier au maximum cette étape en tentant de contenter tout le monde concernant l'approche et la présentation de cette étape. Étape réputée difficile et fondamentale pour l'installateur.

Vous devriez pouvoir choisir au choix lors de l'installation d'utiliser l'une ou l'autre interface.

Les tests du jour couvrent :

  • La création d'un partitionnement personnalisé avec : RAID, BTRFS, LVM, partitions standards ext2, ext3, ext4 ou xfs et sans swap ;
  • Chiffrement des partitions (tout ou partie des partitions) ;
  • Chiffrement de LVM sur un système RAID ;
  • Installation sur des schémas RAID ou LVM déjà existants ;
  • Installation sur un disque vierge.
Comment y participer ?

Vous pouvez vous rendre sur la page des tests pour lister les tests disponibles et rapporter vos résultats. La page wiki récapitule les modalités de la journée.

En cas de bogue, il est nécessaire de le rapporter sur le BugZilla. Si vous ne savez pas faire, n'hésitez pas à consulter la documentation correspondante.

Si vous avez besoin d'aide lors du déroulement des tests, n'hésitez pas de faire un tour sur IRC pour recevoir un coup de main sur les canaux #fedora-test-days et #fedora-fr (respectivement en anglais et en français) sur le serveur Freenode.

De plus, si une journée est dédiée à ces tests, il reste possible de les effectuer quelques jours plus tard sans problème ! Les résultats seront globalement d'actualité.

Gravatar de Renault
Original post of Renault.Votez pour ce billet sur Planet Libre.

Articles similaires

Okki : Pourquoi GNOME ?

Maintenant que Mark Shuttleworth vient d’annoncer l’abandon d’Unity 8 (et probablement celui de Mir), certains se posent la question du choix de GNOME sur les forums, plutôt qu’un environnement plus traditionnel comme peuvent l’être MATE ou Xfce.

Je vais donc profiter de l’occasion pour rappeler qu’un environnement de bureau ne se limite pas à la partie visible, que ce soit avec ou sans panel au bas de l’écran et autre menu principal.

Mais avant toute chose, il est important de rappeler qu’Ubuntu a toujours utilisé GNOME, ne remplaçant finalement que son shell par ce fameux Unity. Mais pour tout le reste, que ce soit les applications de base (gestionnaire de fichiers, éditeur de texte, visionneur d’images, agenda, contacts, terminal…), le centre de contrôle ou les technologies sous-jacentes (GTK+, GVFS, GStreamer, Cairo, D-Bus, dconf…), la majeure partie des différentes briques nécessaires pour pouvoir proposer un environnement complet, homogène, fonctionnel… provenaient du projet GNOME.

Ce même GNOME qui n’a aucun problème à s’appuyer sur des projets modernes tels que systemd, PulseAudio, NetworkManager… qui permettent de construire un environnement robuste et pleinement fonctionnel, parfaitement adapté à notre époque (technologies récentes, informatique dans les nuages, mobilité…), là où d’autres préfèrent partir dans des trolls sans fin, préférant voir l’utilisateur tout configurer par lui-même plutôt que de lui proposer un environnement qui juste marche.

Ensuite, et c’est le plus important, il ne faut pas limiter un environnement de bureau à un panel et un menu principal. Ça se doit d’être avant tout une plateforme proposant un certain nombre de technologies (bibliothèques, frameworks, couches d’abstraction, système de configuration…) facilitant le travail des développeurs tout en leur permettant de concevoir des applications qui seront parfaitement intégrées à l’environnement et qui pourront interagir les unes avec les autres.

Cinq jours avant l’annonce de Mark Shuttleworth, Dustin Kirkland, le chef de projet d’Ubuntu, intervenait sur Hacker News pour interroger la communauté et connaître ses retours et ses attentes quant à la version 17.10 d’Ubuntu. Une intervention suivie avec grand intérêt par Christian Schaller, le responsable de l’équipe Red Hat en charge de l’environnement de bureau GNOME. Deux jours avant l’annonce de Mark Shuttleworth, ce dernier publiait à son tour un long billet de blog pour rappeler que la majeure partie des demandes étaient déjà présentes dans Fedora au travers de GNOME, Wayland, libinput et autres technologies libres nécessaires pour obtenir un bureau pleinement fonctionnel.

Parmi les principaux points soulevés, on peut citer la prise en charge des écrans à haute densité de pixels, qui se trouvent être déjà fonctionnels sous GNOME avec une mise à l’échelle 2, et dont la mise à l’échelle fractionnée (par exemple, 1.5) devrait arriver dans Fedora 27, voir même dans Fedora 26 s’ils arrivent à tout finaliser dans les temps. Il en profite d’ailleurs pour rappeller qu’en plus de sa prise en charge dans GNOME, Red Hat a employé des développeurs pour que Firefox et LibreOffice puissent utiliser GTK+ 3 et être compatibles avec Wayland.

Pouvoir utiliser les pavés tactiles avec trois doigts ou plus. Pendant longtemps, on ne pouvait utiliser que des gestes utilisant maximum deux doigts. Là encore, dans le but de supprimer une telle limitation, Red Hat a mis des développeurs sur le coup pour créer libinput et améliorer les pilotes comme celui de Synaptics, qui utilisait encore le port de communication PS/2, ce qui limitait les possibilités.

Faire des progrès sur la consommation énergétique en cas d’utilisation d’un ordinateur portable. Là encore, Red Hat a embauché des développeurs pour investiguer, corriger ce qui pouvait l’être, discuter avec les fabricants de matériel en vue d’améliorer leurs pilotes (comme ceux de nVidia, qui ne sont malheureusement pas libres).

GNOME Battery Bench

Corriger les problèmes concernant l’UEFI. Là encore, un employé Red Hat est membre du comité UEFI, ce qui aide grandement à ce que tout se passe bien avec le libre. Tout comme ils ont également embauché des développeurs pour que la mise à jour des firmwares UEFI puissent se faire directement depuis la logithèque GNOME. Christian Schaller en profite d’ailleurs pour annoncer que normalement, d’ici la fin de l’année tous les principaux fabricants devraient fournir des mises à jour au travers du service fwupd qu’utilise la logithèque GNOME.

Wayland. Les utilisateurs d’Ubuntu réclamaient Wayland. Ça tombe bien, c’est le choix par défaut sous GNOME :p Christian Schaller annonce qu’en plus du multi-DPI, on devrait voir arriver la prise en charge du HDR (grande gamme dynamique) ainsi que la prochaine génération de machines hybrides (multi-GPU), en travaillant de concert avec nVidia pour s’assurer que leurs pilotes fonctionnent parfaitement sur des systèmes libres (comprendre, sans avoir à bidouiller).

Quelque chose comme Redshift. Pour rappel, il s’agit d’une application permettant d’ajuster la température de couleur d’un écran en fonction du moment de la journée. Et là encore, ça tombe bien, avant même qu’Apple ne propose son Night Shift avec macOS 10.12.4 ou Microsoft son Mode Nuit avec la Creators Update de Windows 10, GNOME proposait déjà un mode nuit dans GNOME 3.24.

Le mode nuit dans GNOME 3.24

Amélioration du processus de mise à jour des pilotes graphiques. Je ne vais pas le répéter à chaque fois (enfin si, un peu, ça permet de bien réaliser tout ce qu’aurait dû faire Canonical dès le début), mais là encore, Red Hat possède toute une équipe pour travailler sur la pile graphique Linux (Wayland, Mesa, les pilotes…). Et un projet important aura été le développement avec nVidia de la bibliothèque glvnd qui permet d’utiliser plusieurs implémentations d’OpenGL en parallèle. Finis le risque de voir le pilote nVidia écraser les fichiers de Mesa ou inversement. Plus besoin non plus d’une bidouille à la Bumblebee pour utiliser son APU au quotidien, puis basculer facilement sur le GPU de la carte dédiée quand on souhaite se faire une petite partie de jeu vidéo.

Amélioration de la prise en charge des imprimantes. Là encore, plusieurs développeurs Red Hat s’assurent que CUPS (qui est un projet Apple, pour l’anecdote) fonctionne parfaitement bien. Et côté GNOME, la version 3.24 offre désormais une gestion des imprimantes bien plus simple et efficace.

Meilleure prise en charge du Bluetooth. Là encore, il y a plusieurs développeurs Red Hat sur le coup. Et parmi les changements à venir (sans doute dans PulseAudio 11), on peut citer par exemple une modification de Christian Kellner qui améliorera le choix des périphériques par défaut. Actuellement, PulseAudio privilégie la carte audio PCI, suivi des cartes audio USB, pour finir par un périphérique Bluetooth. À l’avenir, les choix par défaut devraient être plus logiques. Si l’on branche une carte audio USB, c’est sans doute que l’on ne souhaite pas utiliser le chipset audio fournit de base avec la carte mère. Même chose pour les micro-casques, dont la sortie audio n’était pas automatiquement redirigée vers ces derniers. Autre apport intéressant, le rapport d’état de la batterie de certains modèles devrait également faire parti des changements à venir.

Tout ça pour conclure que si l’on regarde honnêtement des bureaux comme MATE ou Xfce, qui ne gèrent pas ou de façon limitée tous les points soulevés (et tous n’ont pas été abordés, comme la prise en charge des services en ligne, la compatibilité Microsoft Exchange nécessaire aux entreprises, de meilleures applications de productivité (agenda, contacts…), la documentation, le design et l’ergonomie…), on comprend mieux le choix de Canonical de continuer à privilégier GNOME.

D’autant plus que rien ne les oblige à proposer un GNOME vanilla. Ils pourraient très bien adapter leur dock ou proposer certaines extensions par défaut.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

Carl Chenet : L’incident Gitlab et la bonne pratique d’utiliser un vérificateur de sauvegarde

La lecture du rapport de l’incident de base de données Gitlab me semble un cas d’école intéressant pour rappeler à la communauté l’importance de la vérification régulière des sauvegardes.

gitlab

Rappelons tout d’abord les faits : le 31 janvier 2017 la société Gitlab subit une perte des données de ses utilisateurs due (entre autre) à une erreur humaine du fameux team-member-1 (qui travaille toujours chez Gitlab, information confirmée car de nombreuses personnes s’étaient inquiétées de son avenir professionnelle), erreur à associer à l’incapacité de restaurer une sauvegarde récente.

Kudos à Gitlab pour – comme d’habitude avec cette entreprise – une communication exemplaire et transparente pendant et après l’incident. Tous les détails dans le post-mortem de l’incident.

En tant qu’auteur de l’outil de vérification automatisée de sauvegarde Backup Checker, j’ai lu les différentes communications autour de cet incident avec le plus grand intérêt. Loin de moi l’idée de me réjouir d’un perte de données. C’est surtout que Gitlab était à cette occasion fort rare (je n’en connais pas d’autre en fait) la première entreprise de taille et de renommée importante à reconnaître publiquement une perte de données de ses utilisateurs liée à un défaut de sauvegarde.

Les sauvegardes, tout le monde s’en fout avant l’incident, tout le monde en veut après

Après quelques années de mise en place d’architecture systèmes chez des clients différents (startups, PME, institutions, banques, grands comptes privés, …), j’ai pu arriver à la conclusion suivante : les sauvegardes ne sont une chose sérieuse que pour les hébergeurs et les équipes chargées de sauvegardes de (très) grands groupes. Pour les autres, c’est du temps de perdu. Au pire ils n’en font pas – je l’ai constaté à peu près dans toutes les types d’entreprises citées précédemment – et au mieux, ils les ont un jour mis en place et depuis…

Pourtant en réunion, à peu près tout le monde est d’accord pour dire que les sauvegardes sont primordiales. Mais lorsque vient le moment de les mettre en place, pas ou peu de moyens sont mobilisés pour arriver à une chaîne complète de :

  1. réalisation automatique de la sauvegarde
  2. supervision de la bonne exécution de la sauvegarde
  3. test de la sauvegarde

Je vois ici les administrateurs système chevronnés rigoler. En effet, nous sommes tous sous l’eau, à travailler en parallèle sur de trop nombreux projets. Il est donc illusoire de croire que l’on va pouvoir bloquer plusieurs heures régulièrement pour un sujet aussi peu sexy (en terme de revenu pour l’entreprise) que la vérification des sauvegardes.

Et même si du temps était dégagé pour cette tâche, il est important de comprendre pourquoi cette vérification n’est jamais faite : c’est qu’elle est humainement chiante à mourir ! Aucun intérêt intellectuel, aucun côté plaisant pour l’administrateur qui doit la réaliser. Pour ces raisons 99,99999% du temps, aucune vérification n’est faite.

Vérifier automatiquement vos sauvegardes avec Backup Checker

C’est dans le but de résoudre ce problème et de faciliter la vie des administrateurs système que j’ai écrit Backup Checker, un outil de vérification automatisée de sauvegarde.

Cet outil gère de nombreux formats d’archives (tar.{gz,bz2,xz}, zip, archives de fichiers) et propose d’utiliser de nombreux types de contrôles sur l’archive elle-même (taille de l’archive, droits, somme de hachage, …) ou son contenu (taille, droits, propriétaire, somme de hachage, …). Un coup d’oeil à la documentation officielle du projet vous permettra de trouver le type de contrôle qui correspond à votre besoin.

Un exemple complet d’une configuration possible de Backup Checker

Écrire la configuration d’un outil de sauvegarde consiste à décrire quel devrait être l’état de la sauvegarde au moment du contrôle. Cet état s’incarne dans un fichier de configuration lu par votre outil de vérification de sauvegarde.

Maintenant, 2 minutes de votre temps pour un exemple concret. Nous allons vérifier une archive contenant le dump d’une base de données SQL.

Nous commençons par générer automatiquement la liste complète des caractéristiques de notre archive avec la commande suivante :

$ backupchecker -G database-dump.tar.gz $ cat database-dump.list [archive] mtime| 1486480274.2923253 [files] database.sql| =7854803 uid|1000 gid|1000 owner|chaica group|chaica mode|644 type|f mtime|1486480253.0

Nous supprimons maintenant les paramètres trop précis (par exemple la taille précise, car demain votre dump sera sûrement plus gros) pour réaliser un template de contrôle réutilisable. Nous arrivons au résultat suivant :

[files] database.sql| >6m uid|1000 gid|1000 mode|644 type|f

Le contenu de ce fichier signifie que notre outil de contrôle de sauvegarde s’attend à trouver dans notre archive un fichier nommé database.sql dont la taille est supérieure à 6 méga-octets, dont l’uid est de 1000, le gid de 1000, les permissions en 644.

C’est simple non ? Maintenant, pour le fun, répliquons l’incident de Gitlab et générons une archive contenant un dump vide qui rendra donc votre sauvegarde strictement inutile.

$ touch /tmp/database.sql && \\ tar zcvf /tmp/database-dump.tar.gz /tmp/database.sql && \\ cp /tmp/database-dump.tar.gz .

Maintenant relancons Backup Checker en mode contrôle avec le template de contrôle précédemment créé.

$ backupchecker -C database-dump.conf $ cat a.out WARNING:root:1 file smaller than expected while checking /tmp/article-backup-checker/database-dump.tar.gz: WARNING:root:database.sql size is 0. Should have been bigger than 6291456.

Boum, le résultat ne se fait pas attendre et Backup Checker indique immédiatement que le fichier database.sql contenu dans votre archive est vide, alors que sa taille devrait être supérieure à 6 méga-octets.

Pour aller plus loin

Nous avons donc vu que le contrôle des sauvegardes ne devrait pas représenter un problème car une solution de contrôles automatisés existe et est simple à mettre en place, à travers un fichier de configuration simple à comprendre et à manipuler.

À travers un exemple très simple mais ô combien utile dans cet article, nous avons abordé la puissance de Backup Checker et les très nombreux contrôles à votre disposition. La documentation officielle vous fournira tous les détails sur comment les mettre en place.

Les pertes de données sont des événements terribles dans la vie des entreprises quand elles impactent des données des clients. Essayons d’apprendre de nos erreurs, erreurs qui peuvent arriver à chacun de nous, et de construire des systèmes de sauvegarde plus robustes et donc plus fiables.

Plus d’informations au sujet de Backup Checker Soutenir le projet Backup Checker

Si vous souhaitez soutenir la vérification des sauvegardes et le projet Backup Checker, vous pouvez effectuer un don récurrent pour l’auteur de Backup Checker Carl Chenet auprès de Liberapay. Tous les dons même les plus minimes seront un facteur de motivation important 🙂

Gravatar de Carl Chenet
Original post of Carl Chenet.Votez pour ce billet sur Planet Libre.

Articles similaires

Okki : Ubuntu abandonne Unity 8 et revient vers GNOME

Dans un billet de blog, Mark Shuttleworth, fondateur d’Ubuntu et de Canonical, annonce mettre fin au développement d’Unity 8, de la téléphonie et de la convergence, tout en confirmant qu’Ubuntu 18.04 LTS utilisera bel et bien GNOME.

Le cas de Mir n’est pas évoqué, mais sachant que GNOME a clairement fait le choix de Wayland, j’imagine qu’ils abandonneront également le développement de ce dernier.

Et bien qu’il soit bien trop tôt pour en parler, j’espère qu’une telle décision signifiera l’emploi de développeurs à temps plein sur GNOME, Wayland et autres technologies libres nécessaires au bureau et qu’ils ne se contenteront pas d’utiliser ce qui est produit par la communauté, sans réellement y participer activement.

Si la convergence comptait autant pour Mark Shuttleworth, qui voyait en elle l’avenir, il faut espérer qu’il réalise que la possession d’un smartphone Ubuntu n’est pas un prérequis obligatoire pour pouvoir proposer une telle expérience, et que de développer un équivalent GNOME à KDE Connect, permettant de recevoir et d’envoyer des SMS directement depuis notre bureau, de voir apparaître les notifications de notre smartphone dans la zone de notification de GNOME, de pouvoir facilement transférer des fichiers dans les deux sens, de pouvoir verrouiller ou déverrouiller notre station selon que l’on s’approche ou que l’on s’éloigne d’elle avec notre smartphone en poche, et bien plus encore, sera déjà un grand pas en avant.

Et qu’avec un tel cadeau à la communauté, on sera particulièrement reconnaissant d’une telle contribution et qu’on arrêtera, à n’en pas douter, de troller comme quoi ils n’ont toujours fait que réinventer la roue sans jamais rien contribuer d’utile…

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

Framablog : Mastodon, le réseau social libre qui est en train de bousculer twitter

Une alternative à Twitter, libre et décentralisée, est en train de connaître un succès aussi spontané que jubilatoire…

Depuis que Twitter a changé la manière dont les réponses et conversations s’affichent, des utilisatrices et utilisateurs abondent par milliers sur cet autre réseau. Chacun·e cherche un endroit (une « instance ») où s’inscrire, surtout depuis que l’instance originelle, celle du développeur Eugen Rochko, n’accepte plus les inscriptions car le serveur est surchargé.

Alors avant que de vous annoncer des solutions dans les semaines (jours ?) qui arrivent, parce qu’elles prennent le temps de se mettre en place (mais disons qu’une bande de CHATONS est sur le coup), nous avions envie de vous présenter ce phénomène, ce réseau social et ce logiciel qu’est Mastodon.

Or Alda (qui fait du php, du JavaScript, et essaie d’être une humaine décente), a déjà brillamment présenté cette alternative à Twitter sur son blog, placé sous licence CC-BY-ND. Nous reproduisons donc ici son article à l’identique en la remerciant grandement de son travail ainsi partagé !

Join the Federation par B ! Cavello

Welcome to Mastodon

Depuis quelques jours, Mastodon reçoit entre 50 et 100 inscrit⋅es par heure et on peut voir sur twitter quelques messages enthousiastes incitant plus de monde à migrer sur cette alternative « Libre et Décentralisée »

C’est quoi ce truc ?

Mastodon est un logiciel accessible par un navigateur et des applications iOS ou Android qui vise, par ses fonctions de base, le même public que Twitter.

L’interface est très similaire à celle de Tweetdeck, on suit des comptes, des comptes nous suivent, on a une timeline, des mentions, des hashtags, on peut mettre un message dans nos favoris et/ou le partager tel quel à nos abonné⋅e⋅s. Bref, tout pareil. Même les comptes protégés et les DMs sont là (à l’heure actuelle il ne manque que les listes et la recherche par mots clés).

Il y a quelques fonctionnalités supplémentaires que je détaillerai par la suite mais la différence de taille réside dans ce « Libre et Décentralisé » que tout le monde répète à l’envi et qui peut rendre les choses confuses quand on ne voit pas de quoi il s’agit.

Le Fediverse : Un réseau décentralisé

Mastodon est donc un logiciel. Au contraire de Twitter qui est un service. Personne ne peut installer le site Twitter sur son ordinateur et permettre à des gens de s’inscrire et d’échanger ailleurs que sur twitter.com. Par contre toutes celles qui ont les connaissances nécessaires peuvent télécharger Mastodon, l’installer quelque part et le rendre accessible à d’autres.

C’est ce qui se passe déjà avec les sites suivants :

  • mastodon.social
  • icosahedron.website
  • mastodon.xyz

Ces trois exemples sont des sites différents (on les appelle des « instances ») à partir desquels il est possible de rejoindre le réseau social appelé « Fediverse » (mais comme c’est pas très joli on va dire qu’on « est sur Mastodon » hein ?)

C’est là que se trouve toute la beauté du truc : les personnes inscrites sur n’importe laquelle de ces instances peut discuter avec les personnes inscrites sur les deux autres de manière transparente. Et tout le monde est libre d’en créer de nouvelles et de les connecter ou non avec les autres.

Pour résumer, on s’inscrit sur une instance de Mastodon, cette instance est dans un réseau appelé le Fediverse et les gens qui sont dans le Fediverse peuvent échanger entre eux.

Comme personne ne peut contrôler l’ensemble du réseau puisqu’il n’y a pas d’instance centrale, on dit que c’est un réseau décentralisé. Et quand une instance se connecte aux autres instances on dit qu’elle « fédère » avec les autres.

Si cette histoire d’instance est encore trop nébuleuse, imaginez un email. Vous êtes Alice et votre fournisseur de mail est Wanadoo. Votre adresse mail est donc alice@wanadoo.fr. Vous avez un ami nommé Bob qui est chez Aol et son adresse mail est bob@aol.com. Alors que vos fournisseurs respectifs sont différents, ils peuvent communiquer et vous pouvez ainsi envoyer des messages à Bob avec votre adresse mail de Wanadoo. Mastodon fonctionne selon le même principe, avec les instances dans le rôle du fournisseur.

Pourquoi c’est mieux que Twitter ?

Maintenant qu’on a évacué la partie un peu inhabituelle et pas forcément simple à comprendre, on peut attaquer les fonctionnalités de Mastodon qui donnent bien envie par rapport à Twitter.

La base

En premier lieu jetons un œil à l’interface :

interface de mastodon

 

Si on utilise Tweetdeck on n’est pas trop dépaysé puisque l’interface s’en inspire fortement. La première colonne est la zone de composition, c’est ici qu’on écrit nos Pouets (c’est le nom Mastodonien des Tweets), qu’on décide où les poster et qu’on y ajoute des images.

La seconde colonne c’est « la timeline », ici s’affichent les pouets des personnes qu’on suit.

La troisième colonne c’est les notifications qui contiennent les mentions, les boosts (sur Twitter on dit RT) et les favoris qu’on reçoit.

La quatrième colonne a un contenu variable selon le contexte et les deux premières possibilités méritent leur explication :

  • Local timeline : Ce mode affiche tous les pouets publics de l’instance sur laquelle on se trouve, même des gens qu’on ne suit pas.
  • Federated timeline : Ce mode affiche tous les pouets publics de toutes les instances fédérées avec celle sur laquelle on se trouve. Ce n’est pas forcément tous les pouets publics du Fediverse, mais ça s’en approche.

Pour suivre et être suivi, le fonctionnement est identique à celui de Twitter : On affiche un profil en cliquant sur son nom et on peut le suivre. Si le profil est « protégé » il faut que son ou sa propriétaire valide la demande.

Enfin, un pouet peut faire jusqu’à 500 caractères de long au lieu des 140 de Twitter.

La confidentialité des pouets

Contrairement à Twitter où les comptes publics font des tweets publics et les comptes protégés font des tweets protégés, Mastodon permet à chacun de décider qui pourra voir un pouet.

 

Le premier niveau est public, tout le monde peut voir le pouet et il s’affichera également dans les parties « Local Timeline » et « Federated Timeline » de la quatrième colonne.

Le niveau deux est unlisted, c’est comme un pouet public mais il ne s’affichera ni dans la timeline Locale ni dans la timeline Federated.

Le niveau trois est private, c’est-à-dire visible uniquement par les gens qui nous suivent. C’est le niveau équivalent à celui des tweets envoyés par des comptes protégés sur Twitter.

Le niveau quatre est direct, les pouets ne seront visibles que par les personnes mentionnées à l’intérieur. Ça correspond aux DMs de Twitter sauf que les pouets sont directement intégrés dans la timeline au lieu d’être séparés des autres pouets.

Bien sûr, il est possible de changer le niveau individuel d’un pouet avant de l’envoyer.

Avoir un compte protégé sur Mastodon

Comme sur Twitter, il est possible de protéger son compte, c’est-à-dire de valider les gens qui s’abonnent. Cependant, on peut toujours définir certains de nos pouets comme étant publics.

Plus besoin d’avoir deux comptes pour poueter en privé !

Une gestion native du Content Warning et des images NSFW

Une pratique courante sur Twitter est de préciser en début de tweet les éventuels trigger warning (avertissements) qui y sont associés, mais le reste du tweet reste visible.

Mastodon généralise le concept en permettant de saisir une partie visible et une partie masquée à nos pouets. On peut ainsi y mettre des messages potentiellement trigger, nsfw, spoilers ou autres.

De même quand on poste une image, on peut la déclarer comme étant NSFW, ce qui nécessite de cliquer dessus pour l’afficher :

Ok, vendu, du coup comment ça se passe ?

Tout d’abord il faut choisir sur quelle instance s’inscrire puisque, ayant des propriétaires différents, il est possible qu’elles aient des règles différentes dont il convient de prendre connaissance avant de la rejoindre.

L’existence de la « Local Timeline » est intéressante à ce niveau puisque son contenu diffère forcément selon l’endroit où on est inscrit. Par exemple si on va sur une instance à tendance germanophone, il est à peu près sûr que la plupart de ce qu’on y trouvera sera en allemand.

Ça ouvre tout un tas de possibilité comme la constitution d’instances orientées en fonction d’un fandom, d’intérêts politiques et/ou associatifs.

Par exemple, l’instance awoo.space est volontairement isolée du reste du Fediverse (elle ne communique qu’avec l’instance mastodon.social) et la modération se fait dans le sens d’un fort respect des limites personnelles de chacun⋅e.

On peut trouver une liste d’instances connues sur le dépôt de Mastodon et à l’exception d’awoo.space il est possible de parler au reste du Fediverse depuis n’importe laquelle figurant sur cette liste, il n’y a donc pas de forte obligation d’aller sur la même instance que nos potes puisqu’on pourra leur parler de toute façon.

Une fois inscrit⋅e, on aura un identifiant qui ressemble un peu à une adresse mail et qui servira à nous reconnaître sur le Fediverse. Cet identifiant dépend du pseudo choisi et du nom de l’instance. Ainsi, je suis Alda sur l’instance witches.town, mon identifiant est donc Alda@witches.town.

Pour trouver des gens à suivre, on peut se présenter sur le tag #introduction (avec ou sans s) et suivre un peu la Federated Timeline. On peut aussi demander leur identifiant à nos potes et le saisir dans la barre de recherche de la première colonne.

 

Et voilà, il n’y a plus qu’à nous rejoindre par exemple sur :

Ou à créer votre propre instance pour agrandir le Fediverse !

Évitez par contre de rejoindre l’instance mastodon.social. Elle est assez saturée et l’intérêt de la décentralisation réside quand même dans le fait de ne pas regrouper tout le monde au même endroit. Mais si vous connaissez des gens qui y sont, vous pourrez les suivre depuis une autre instance.

Point Bonus Des applis mobiles

Pour faire pouet avec Android : Installe Tusky

Pour faire pouet avec iOS : Installe Amaroq

Retrouver ses potes de Twitter

Le développeur principal de Mastodon a aussi fait une application pour retrouver ses potes de Twitter. Il faut se rendre sur Mastodon Bridge, se connecter avec Mastodon et Twitter et le site affichera ensuite les comptes correspondants qu’il aura trouvés.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Bilan libre du mercredi (3)

Une autre semaine est passée, avec nettement plus de boulot donc moins de contributions au libre :s

Depuis mercredi dernier :

  • J'ai amélioré l'outil pour protéger un serveur OpenBSD : vilain. Désormais, il dispose de son initscript.
  • J'ai contribué à blogotext pour ajouter un option permettant de modifier la couleur de la barre de progression de lecture (l'addon). J'ai modifié un peu le CSS pour le lecteur de flux et la configuration des addons, poursuivi par BobotiG.
  • Progression du livre sur l'auto-hébergement. OpenBSD avant bien, je me creuse la tête pour rendre ce manuel le plus abordable et compréhensible possible.

Pourquoi ça me tient tant à cœur?
Tout simplement parce que c'est possible. De plus en plus de monde s'aperçoit qu'on est fliqué de partout. J'ai envie de sourire lorsque je vois sur des forums de distributions Linux "Je suis libre maintenant que je suis passé à Linux".
La bonne blague.
À quoi bon utiliser un environnement libre si c'est pour faire ses recherches sur Google, déposer ses photos sur facebook, confier ses mails à microsoft et compter sur son fournisseur d'accès à internet pour résoudre les noms de domaines (dire au navigateur que wikipedia.org c'est 91.198.174.192) ?
Tant que chacun ne sera pas auto-hébergé, ou confiera ses services à des associations en qui il a confiance (CHATONS...), on sera très loin d'être libre.

Mon rêve ?
Un serveur communautaire par quartier... Comment ça c'est utopiste ?

Sur ce, je m'en vais relire les cahiers du débutant sur lesquels arpi a bien bossé :)

À bientôt !

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Articles similaires

dada : Installer Collabora Online avec Nextcloud




Le soleil repointe le bout de son nez et je ne trouve plus le temps de sortir des billets. L'apéro passe avant tout mais malgré ça, j'ai quand même pas mal joué avec mon serveur.
D'abord, j'ai changé de crémerie, encore, pour laisser tomber mon C1 chez Scaleway pour une Kimsufi aux caractéristiques bien plus rigolotes : adieu l'ARM, coucou le Core i3. Ça m'a permis de mettre en place l'objet de ce billet : Collabora Online dans Nextcloud via Docker !

je présuppose que votre machine tourne sous Debian Jessie (what else ?) avec Nextcloud 11.0.2.
Installer Docker
Je suis passé par l'installation de Docker CE. Ça permet d'avoir une version plus récentes de la bête.

On commence par les dépendances qui vont bien :
apt-get install apt-transport-https ca-certificates curl software-properties-common On enchaîne sur la clé GPG du dépôt :
curl -fsSL https://download.docker.com/linux/debian/gpg | apt-key add -On ajoute le dépôt dan le sources.list :
add-apt-repository "deb [arch=amd64] https://download.docker.com/linux/debian $(lsb_release -cs) stable" Pour finir, on installe notre nouveau jouet et c'est parti !
apt-get update && apt-get install docker-ceMise en place du conteneur de Collabora
On le télécharge :
docker pull collabora/code On le lance :
docker run -t -d -p 127.0.0.1:9980:9980 -e 'domain=votre\\\\.instance\\\\.com' --restart always --cap-add MKNOD collabora/code C'est pendant cette étape que je me suis le plus pris la tête... Ils disent de lancer docker avec pour paramètre un sous-domaine pour Collabora alors qu'il ne le faut pas, pas chez moi du moins. En fait, comme Collabora tourne sur le même serveur que mon instance, pas besoin de sous-domaine.
Configurer votre Vhost
Pour Nginx, ajoutez ces lignes dans votre vhost : (snippet ici).

    # static files    
    location ^~ /loleaflet {
        proxy_pass https://127.0.0.1:9980;
        proxy_set_header Host $http_host;
    }       
    # WOPI discovery URL
        location ^~ /hosting/discovery {
        proxy_pass https://127.0.0.1:9980;
        proxy_set_header Host $http_host;    
    }        
    # websockets, download, presentation and image upload
    location ^~ /lool {        
        proxy_pass https://127.0.0.1:9980;
        proxy_set_header Upgrade $http_upgrade;  
        proxy_set_header Connection "upgrade";
        proxy_set_header Host $http_host;
   }Pour Apache2. c'est trop long alors cliquez sur snippet !

Et voilà pour le plus chiant !
Activer Collabora
Maintenant, pour terminer, allez donc activer l'application en la configurant avec le sous-domaine de votre instance : https://votre.instance.com. Pensez bien à cliquer sur "Appliquer" si vous ne voulez pas risquer de devenir chèvre...

Tous ces efforts vous permettront de cliquer paisiblement sur ces 3 nouvelles options :



Amusez-vous bien !


Gravatar de dada
Original post of dada.Votez pour ce billet sur Planet Libre.

Okki : Sortie de GNOME Twitch 0.4.0

GNOME Twitch est une application permettant de profiter du service de streaming et de VOD de jeu vidéo, d’e-sport et d’émissions apparentées Twitch, directement depuis votre bureau. L’application permet de parcourir les différentes chaînes, d’accéder aux différents jeux, d’ajouter des favoris, et bien évidemment de visionner les différents flux vidéo.

Les différentes chaînes

Avec cette nouvelle version, les développeurs semblent avoir particulièrement travaillé la stabilité de leur application, ainsi que la gestion des erreurs et des rapports qui en découlent, tout en apportant néanmoins quelques nouveautés :

  • Réactivation des notifications
  • Déplacement et redimensionnement plus simple de la salle de discussion
  • Sélection de la langue depuis les paramètres, ce qui permet de filtrer automatiquement les chaînes selon la langue sélectionnée
  • Possibilité de rechercher des chaînes hors ligne
  • Affichage des différentes qualités disponibles pour les flux
  • Affichage de tous les badges, y compris les nouveaux ou les temporaires
  • Amélioration de la barre de notifications avec l’ajout d’une file d’attente et l’affichage des erreurs
  • Affichage du nombre de spectateurs pour les jeux
La lecture d’un flux vidéo

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

Pages