Planet Libre

Framablog : AbulÉdu : début d’une renaissance ?

Si vous vous intéressez au libre pour l’école primaire, vous connaissez forcément AbulÉdu. Si ce n’est pas le cas, vous pouvez vous rafraîchir la mémoire avec les précédents articles parus ici même : le premier et le deuxième.
Deux grosses annonces sont tombées ces derniers jours dans l’écosystème AbulÉdu ; une mauvaise et une bonne qui, nous l’espérons, deviendra excellente. Pour nous expliquer tout cela, rencontrons les membres de l’association AbulEdu-fr

Commençons tout de suite par la mauvaise nouvelle, la société RyXeo, qui édite la solution libre AbulÉdu, est en liquidation judiciaire après 13 ans d’existence. Pour quelles raisons ?

RyXéo, la fin d'une histoire, mais l'aventure continue !

RyXéo, la fin d’une histoire, mais l’aventure continue !

Les grandes catastrophes sont souvent provoquées par une multitude de petits problèmes, c’est ce qui est arrivé à RyXéo :

  • un projet sans doute trop grand pour une petite équipe de 8 personnes sans ressource financière autre que ses clients et quelques petites subventions alors que le budget annuel devrait tourner dans les 500 000 €, on s’en est tiré avec à peu près la moitié,
  • des partenaires qui ne portent pas les valeurs du libre et avec lesquels nous avons perdu beaucoup de temps à essayer de faire comprendre que c’est pourtant la seule chose importante pour l’école,
  • des clients (mairies) qui n’utilisent pas ce pourquoi ils paient et ont tendance à chercher où gratter quelques centaines d’euros par an pour réduire leurs dépenses (réduction liée à la baisse des dotations de l’état)
  • des politiques publiques chaotiques : parfois on annonce que le libre est une bonne chose (1er ministre) et ensuite on signe un partenariat avec Microsoft (Éducation nationale), les utilisateurs sont perdus et les responsables des commandes publiques ne savent plus ce qu’il faut faire ;
  • il en va de même sur les annonces des dotations budgétaires : exemple le 2 juin le président annonce que finalement la dotation aux mairies sera réévaluée … conséquence les mairies ne savent pas si elles peuvent investir ou non, et l’école passe souvent dans les derniers choix d’investissements… et l’informatique scolaire encore bien après,
  • une « trop grande » éthique de la part de nos relais à l’intérieur de l’institution qui sont toujours un peu embêtés lorsqu’ils parlent d’AbulÉdu et ont l’impression d’être le « commercial de RyXéo » alors que leurs collègues ne se privent pas de faire de la pub pour les GAFAM à tour de bras. La fin de Ryxeo va leur donner beaucoup d’oxygène, ils ne risqueront plus d’être coincés entre leur devoir de réserve de fonctionnaire et l’existence d’une société commerciale qui vend AbulÉdu,
  • quasi zéro budget communication pour Ryxeo, seul le bouche à oreille nous a permis de nous développer,
  • une trop grande gentillesse et « compréhension » pour toutes ces « petites mairies à petit budget » à qui nous avons consenti des heures de hotline sans les facturer alors qu’il fallait bien payer les salaires correspondant à ce service,
  • l’impossibilité de licencier un membre de l’équipe, chacun étant indispensable et surtout le coût lié à un licenciement économique n’était pas possible (ce genre de calcul est un peu complexe à comprendre mais grosso-modo quand on licencie un salarié pour raison économique, il coûte d’un coup environ 4 mois de salaire… ce qui représente une dépense instantanée souvent impossible à assumer sur la trésorerie disponible),
  • le lancement des tablettes, produit super prometteur mais pour lequel nous avions besoin d’un investissement … qui n’est jamais venu.

Bref, tout ceci mis bout à bout nous a conduit à la catastrophe qu’on connaît. Ajoutez une baisse d’implication commerciale du patron de la boite qui s’est recentré sur la technique depuis plusieurs mois et vous avez malheureusement un cocktail détonant.

 

Une des difficultés n’est-elle pas également de s’adresser aux écoles primaires et donc aux mairies ? Les sociétés qui proposent des solutions aux collèges et lycées ont plus de facilité.

Je ne pense hélas pas que nous verrons beaucoup de collèges équipés avec des solutions basées sur le logiciel libre. Effectivement certains collèges sont équipés avec des serveurs basés sur des solutions libres mais la plupart des postes individuels sont sous windows. Et le récent accord n’est pas prêt de changer la donne.

 

Treize ans, cela reste une superbe aventure. Une anecdote, un souvenir particulier à nous faire partager ?

Des tonnes. La plus intéressante c’est l’anecdote qui porte le nom de… RyXéo tout simplement : c’est qu’on a prouvé que c’était possible de vivre correctement d’un rêve, d’une utopie, qu’on peut facturer pour du logiciel libre, qu’on peut le faire, qu’il ne faut pas être résigné à acheter des produits en conserve et à les consommer comme des programmes télévisés. Qu’on peut se prendre en main et qu’on peut prendre en main l’avenir numérique des outils d’éducation de nos enfants… C’est possible, on l’a fait, on le prouvait jour après jour. Une boite de 8 personnes qui tient plus de 10 ans c’est pas une coïncidence, c’est pas un hasard, c’est pas un « accident », c’est que ça marche pour de vrai.

 

RyXeo étant en liquidation, c’est la fin d’AbulÉdu ?

Le projet AbulÉdu n’est pas mort, c’est un projet issu du monde associatif et porté par une communauté. RyXéo en était certes le moteur, puisqu’il a permis de salarier développeurs et graphistes et de faire avancer ce projet tout en le rendant attractif, mais il continuera sa route avec deux autres moteurs identifiés, les associations AbulÉdu-fr et Abul et peut-être d’autres. C’est une des forces du logiciel libre, il nous permet cette continuité et de rebondir.

 

Quel va être justement le rôle de l’association AbulÉdu-fr ?

Pour être complet, il y a deux associations qui unissent leurs forces pour la continuité du projet AbulÉdu : l’association AbulÉdu-Fr mais aussi l’Abul qui compte parmi les pionniers dans la promotion du logiciel libre en France. Dans cette nouvelle gouvernance qu’il va falloir inventer, AbulÉdu-fr peut s’appuyer sur son savoir faire autour des usages et des relations avec les utilisateurs, l’Abul quant à elle pourra se concentrer sur l’infrastructure technique.

 deux associations pour soutenir le projet AbulÉdu avec vous.

Abul et AbulÉdu-fr : deux associations pour soutenir le projet AbulÉdu avec vous.

 

Sans être exhaustif, pouvez-vous nous présenter quelques grands projets mis en place par AbulÉdu-fr ?

Le premier qui me vient à l’esprit est Babytwit tant son succès a été rapide et grandissant. Il s’agit d’un site de micro-blogging libre et éthique dédié principalement à la communauté éducative. Une alternative à Twitter dont la publicité est absente et où les données personnelles des utilisateurs ne sont pas monnayées. Je pourrais également citer QiRo, site de questions-réponses où tout le monde peut poser une question ou apporter une réponse. Comment ne pas également parler de data.abuledu.org, banque de ressources brutes sous licences libres (dont Framasoft héberge d’ailleurs un miroir) ?

À ce propos, j’aimerais souligner la partie plus « invisible » de l’activité des membres de l’association : « data » rassemble 30 000 ressources qui ont toutes été proposées, décrites, indexées et modérées par la communauté. Certains membres de l’association accompagnent régulièrement des classes dans la mise en œuvre de projets numériques, d’autres sont très présents sur Babytwit et y animent des activités ou répondent aux messages des élèves.

Comme il ne s’agit pas d’être exhaustif, je ne parlerai pas de la rédaction de tutoriels ou de documentations, des comptes-rendus d’expérimentation, de la prescription de nouveaux services…

Qiro, le service de questions / réponses de l'association AbulÉdu-fr

Qiro, le service de questions / réponses de l’association AbulÉdu-fr

 

Vous lancez donc, et c’est la bonne nouvelle, une campagne de financement participatif. Avec quels objectifs ?

L’enjeu primordial est de rendre accessibles un ensemble de ressources pédagogiques et d’outils numériques en dehors de toutes pressions commerciales, au nom de la neutralité, de l’éthique et de l’idée que l’on se fait de l’éducation. Pour y contribuer nous pensons essentiel de passer d’un modèle économique d’éditeur de logiciels à un modèle associatif où chaque nouveau développement ne sera financé qu’une seule fois pour être ensuite disponible pour tous. Cela implique de trouver d’autres moyens de développement de nos ressources, mais aussi d’adapter les ressources actuelles à ce nouveau fonctionnement. C’est pourquoi nous visons deux paliers (l’un à 25000€ et l’autre à 50000€) dont vous trouverez les détails ici sur la page de la campagne.

Il faut sauver AbulÉdu et nous avons besoin de votre aide financière pour cela.

Campagne de financement participatif pour le projet AbulÉdu.

Campagne de financement participatif pour le projet AbulÉdu.

 

Cette année (oui, dans l’éducation nationale on parle en année scolaire) on a beaucoup entendu parler de l’éducation nationale pour ses liens très étroits avec des logiciels privateurs. Le ministère a-t-il connaissance du projet AbulÉdu et de sa pertinence pour ses écoles ?

Oui, le projet AbulÉdu est connu au ministère. Le serveur AbulÉdu par exemple est référencé dans le guide pratique de mise en place du filtrage des sites Internet sur le site EducNet.

De plus, suite à l’accord passé entre Microsoft et le ministère au mois de novembre dernier nous avons écrit au ministère pour exprimer notre sentiment vis à vis de ce partenariat et également rappeler l’existence du projet AbulÉdu. Au mois de janvier nous avons été reçus par un représentant de la Direction du Numérique Éducatif. Nous avons pu présenter le projet AbulÉdu dans son ensemble, notre interlocuteur était très attentif. Enfin, nous avons constitué un dossier de demande de subvention au mois de mars. La balle est maintenant dans le camp du ministère, nous saurons prochainement si un projet tel qu’AbulÉdu a sa place dans les écoles françaises.

 

À votre avis, quels sont les principaux freins de la percée du logiciel libre dans l’éducation ?

À mon avis, le souci principal est lié au « point de vue » ou plutôt au paradigme : le logiciel libre porte des valeurs là où le logiciel propriétaire s’appréhende d’un point de vue économique. Le logiciel libre ouvre son code source pour que chacun puisse se l’approprier, le modifier selon ses besoins et bien sûr le redistribuer là où le logiciel propriétaire verrouille tout, empêche toute diffusion autrement que par ses réseaux et tant pis s’il ne correspond pas tout à fait à tes besoins : soit tu changes de besoin, soit tu achètes la prochaine version.

Le logiciel libre refuse l’exploitation et la revente des données des utilisateurs, là où le logiciel propriétaire en fait un commerce démesuré.

Malheureusement, de nos jours, on préfère parler de données économiques brutes que de valeurs éthiques.

 

Comme vous le savez, à Framasoft, on essaie de sensibiliser à l’emprise croissante des GAFAM (Google, Apple, Facebook, Amazon, Microsoft) dans tous les aspects de notre vie. Quand on parle GAFAM et éducation, on pense naturellement à Microsoft ou Apple. Mais Google perce de plus en plus avec des solutions comme Classrooms ou OpenOnline. Pour l’instant, Google Education vise plutôt le marché universitaire, mais n’a pas caché son ambition de couvrir l’ensemble des cycles. Les solutions Google commencent-elles à apparaître sur vos radars ?

Actuellement, le 1er degré (élèves de maternelle jusqu’au CM2) n’est pas concerné par Google Classrooms ou OpenOnline. Je devrais dire, n’est pas encore concerné. En effet, un appel à projet visant l’équipement des collégiens et des écoliers en EIM (équipement mobile individuel) a été lancé par le ministère, on en est maintenant à la 3e phase. Il y a fort à parier que de nombreux équipements seront basés sur Android offrant ainsi à Google une porte d’entrée dans les écoles.

 

Merci à l’équipe d’AbulÉdu pour cet entretien.

Soutenir AbulÉdu sur sa page de financement participatif.

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Angristan : Solus 1.2 « Shannon » est de sortie

Solus 1.2 "Shannon" est de sortie

Ça y est, la nouvelle mouture de la distribution Solus est disponible au téléchargement. Au programme de cette version 1.2, ce sont principalement des optimisations logicielles (performances, bugs, UEFI...), ainsi que des améliorations au niveau de l'environnent graphique Budgie, de l'intégration de Steam pour les joueurs et enfin de la logithèque. Elle embarque les dernières versions de tous les logiciels principaux, avec un noyau Linux 4.4. Budgie Pour l'environnement de bureau, ce sont tout un tas de petits correctifs qui rendent son utilisation toujours plus agréable. Quelques problèmes de CSS, d'icônes, de thème, de petits artefacts, c'est corrigé !   Solus 1.2 "Shannon" est de sortie Intégration de Steam Le développeur a beaucoup bossé sur ce petit logiciel. Il permet de très simplement changer de runtime, soit celui de Steam, soit celui de Solus, sachant que celui de Solus est plus récent et mieux optimisé. Solus 1.2 "Shannon" est de sortie Ce logiciel peut bien entendu être intégré dans d'autres distributions ! :D La logithèque Depuis quelques semaines maintenant une refonte de la logithèque est en cours. Elle est plus claire et mieux organisée, ce qui facilitera la tâche des utilisateurs peu habituées à ce genre de système d'exploitation. Solus 1.2 "Shannon" est de sortie Solus 1.2 "Shannon" est de sortie Solus 1.2 "Shannon" est de sortie Ce qui me fascine toujours, c'est la vitesse d'installation des paquets. Dans une VM, j'ai installé Steam et ses dizaines de dépendances 32 bits en quelques dizaines de secondes...   Ce que j'adore dans cette distribution, c'est que tout est vraiment propre, bien fini. Le ressenti d'utilisation est très important dans le choix d'une distribution, et pour moi c'est Solus qui fait vraiment le meilleur effet. elementary OS, de loin, semble tout beau tout propre, mais quand on commence à y toucher un peu, on voit que ça tient sur pas grand chose.   Solus 1.2 "Shannon" est de sortie Et deuxième point qui fait que j'adore Solus, c'est que tout est rapide ! Le démarrage se fait en quelques secondes, tout comme l'installation des paquets, et puis globalement, elle est légère. Elle se montre aussi avoir des performances brutes très bonnes comparées à d'autres distributions comme le montre ces benchmarks. La force de cette distribution, c'est que comme elle ne part de rien, chaque partie de l'OS est ajoutée proprement, d'autant plus qu'elle a son propre environnement et quelques logiciels originaux. Du coup, on n'a pas l'impression d'avoir un amas de logiciels libres pris au hasard, qu'on mélange ensemble et auquel on donne un nom, et c'est ce qui manque dans le monde des distributions. Solus 1.2 "Shannon" est de sortie   Bref, j'aime beaucoup cette distribution, et je suis impatient de voir ce qu'elle nous réserve dans le futur. Le développeur principal, Ikey, est très actif sur Google+, et on peut donc voir au jour le jour les améliorations apportées à Solus Project.

L'article Solus 1.2 « Shannon » est de sortie a été publié sur Angristan

Gravatar de Angristan
Original post of Angristan.Votez pour ce billet sur Planet Libre.

Articles similaires

Journal du hacker : Liens intéressants Journal du hacker semaine #24

Pour la 24ème semaine de 2016, voici 5 liens intéressants que vous avez peut-être ratés, relayés par le Journal du hacker, votre source d’informations pour le Logiciel Libre francophone !

Pour ne plus rater aucun article de la communauté francophone, voici :

De plus le site web du Journal du hacker est « adaptatif (responsive) ». N’hésitez pas à le consulter depuis votre smartphone ou votre tablette !

Le Journal du hacker fonctionne de manière collaborative, grâce à la participation de ses membres. Rejoignez-nous pour proposer vos contenus à partager avec la communauté du Logiciel Libre francophone et faire connaître vos projets !

Et vous ? Qu’avez-vous pensé de ces articles ? N’hésitez pas à réagir directement dans les commentaires de l’article sur le Journal du hacker ou bien dans les commentaires de ce billet :)

Gravatar de Journal du hacker
Original post of Journal du hacker.Votez pour ce billet sur Planet Libre.

Articles similaires

Planet Libre : Brèves du Planet Libre - lundi 20, juin 2016

Entre « aubaine » et « cauchemar », la NSA se penche sur les objets connectés - Next INpact pistage NSA IoT

antistress : "La NSA s’intéresse de près aux objets connectés. L’agence américaine de renseignement indique qu’ils pourraient s’avérer être une source précieuse de données. Elle reconnait cependant que la pluralité de ces appareils pourrait être à la fois aussi bien une opportunité qu'un vrai problème."

Gravatar de Planet Libre
Original post of Planet Libre.Votez pour ce billet sur Planet Libre.

Articles similaires

blog-libre : Mise en perspective du principe KISS : Mettre à jour une application web

J’ai décidé de m’interroger sur ma façon de mettre à jour une application web. Il y a eu une réflexion intéressante qui a été publiée par Blogus Librus sur le principe KISS.

Par exemple j’ai l’application web Shaarli dans le dossier /var/www de mon server@home, comment je fais pour la mettre à jour ?

Je vais vous présenter ma progression. Chacun pourra ainsi décider et voir où il se situe : Plutôt côté KISS donc simple ou plutôt côté élégant mais complexe. Je trouve que c’est une bonne mise en perspective du billet de Blogus Librus.

Au commencement

Ainsi donc au commencement pour mettre à jour Shaarli dans /var/www je faisais comme ci-dessous. Ça doit être la méthode employée par la majorité d’entre nous à quelques détails près (cd /tmp, cp remplacé par mv). C’est simple, c’est KISS. En 5 lignes.

cd /tmp && wget https://github.com/shaarli/Shaarli/archive/stable.tar.gz # On se place dans le dossier /tmp puis on télécharge la dernière version stable de Shaarli tar -xzf *.tar.gz # On se trouve donc dans le dossier /tmp, on extrait le contenu de l'archive. L’intérêt du dossier /tmp est qu'il sera purgé à l'extinction et que vous ne devriez avoir qu'une seule archive .tar.gz dedans simplifiant alors la ligne de commande cp -R /tmp/Shaarli-stable/* /var/www/shaarli # On copie récursivement le contenu du dossier (extrait de l'archive) dans le dossier shaarli de notre serveur web chown -R www-data:www-data /var/www/shaarli && chmod -R 755 /var/www/shaarli # On remet les droits comme il faut récursivement avec les commandes chmod et chown systemctl restart apache2 # On redémarre le service apache2 afin que les modifications soient bien prises en compte

0.1

En 4 lignes. Légère amélioration mais on économise une ligne de commande à saisir. On extrait directement le contenu de l’archive dans /var/www/shaarli (et non pas dans /tmp), voir ici (en Anglais) pour plus d’explications.

cd /tmp && wget https://github.com/shaarli/Shaarli/archive/stable.tar.gz # Pas de changement par rapport à la version précédente tar -xzf *.tar.gz -C /var/www/shaarli --strip-components=1 # On se trouve dans le dossier /tmp, on extrait directement le contenu de l'archive dans /var/www/shaarli. On gagne une ligne de commande chown -R www-data:www-data /var/www/shaarli && chmod -R 755 /var/www/shaarli # Pas de changement par rapport à la version précédente systemctl restart apache2 # Pas de changement par rapport à la version précédente

0.2

Toujours 4 lignes mais on améliore considérablement le processus :
Ligne 1 : On sauvegarde le dossier de notre application web avant de la mettre à jour
Ligne 2 : La dernière version de Shaarli est envoyée sur la sortie standard (par wget), via le pipe | tar reçoit l’archive sur l’entrée standard et extrait directement le contenu dans le dossier /var/www/shaarli. Ainsi on n’a même pas le fichier stable.tar.gz qui apparaît sur le disque dur
Ligne 4 : Tant qu’à redémarrer les services autant ajouter php5-fpm que tout le monde devrait utiliser avec apache2 maintenant

cp -a /var/www/shaarli{,.bak}, on utilise l’option -a qui fait principalement deux choses à savoir une copie récursive et conserver les attributs (permissions) des fichiers. {,.bak} est une manière élégante de faire la même chose que cp -a /var/www/shaarli /var/www/shaarli.bak.

wget -qO -, on utilise wget en mode quiet (silencieux) avec l’option -q. La difficulté se situe sur O -, cela signifie qu’on envoie le fichier vers la sortie standard (d’après le man wget à propos de l’option -O : « If – is used as file, documents will be printed to standard output »).

cp -a /var/www/shaarli{,.bak} # On sauvegarde le dossier de notre application web avant de la mettre à jour, on aura ainsi un dossier /var/www/shaarli.bak pour revenir en arrière en cas de problèmes wget -qO - https://github.com/shaarli/Shaarli/archive/stable.tar.gz | tar -xzf - -C /var/www/shaarli --strip-components=1 # On télécharge la dernière version stable de Shaarli et on l'extrait directement via un pipe dans le dossier /var/www/shaarli chown -R www-data:www-data /var/www/shaarli && chmod -R 755 /var/www/shaarli # Pas de changement par rapport à la version précédente systemctl restart apache2 php5-fpm # On redémarre les services apache2 et php5-fpm afin que les modifications soient bien prises en compte

1.0

On arrive à la méthode élégante mais complexe que j’ai décidé d’utiliser pour mettre à jour une application web.

On a juste modifié tar -xzf - -C /var/www/shaarli --strip-components=1 en tar -xzC /var/www/shaarli --strip-components=1. Pour rappel l’option -f signifie : utilise le fichier d’archive ou le périphérique suivant.

La première manière de faire peut paraître plus complexe mais elle est plus compréhensible. f - signifie que le fichier d’archive à extraire arrive via stdin (flux d’entrée standard). Dans la seconde manière de faire on n’a pas l’option -f, il est sous-entendu qu’on prend comme fichier d’archive celui qui arrive via stdin.

Elle est complète, élégante, courte : On sauvegarde le dossier de l’application web avant de la mettre à jour, on extrait directement le contenu de l’archive dans /var/www/shaarli (sans même que le fichier stable.tar.gz apparaisse sur le disque dur) enfin on remet les droits au propre et on redémarre les services.

cp -a /var/www/shaarli{,.bak} # Pas de changement par rapport à la version précédente wget -qO - https://github.com/shaarli/Shaarli/archive/stable.tar.gz | tar -xzC /var/www/shaarli --strip-components=1 # On télécharge la dernière version stable de Shaarli et on l'extrait directement via un pipe dans le dossier /var/www/shaarli chown -R www-data:www-data /var/www/shaarli && chmod -R 755 /var/www/shaarli # Pas de changement par rapport à la version précédente systemctl restart apache2 php5-fpm # Pas de changement par rapport à la version précédente

Gravatar de blog-libre
Original post of blog-libre.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Wallabag : pourquoi pas plus tôt?

Je fais partie de la catégorie de personne qui ouvre tout un tas d'onglets dans firefox, en me disant : «Je me le garde pour le lire plus tard» .
Et puisque je fais souvent un tas de choses à la fois, on retrouve pêle-mêle dans mes onglets des morceaux de code, un reportage vidéo à regarder pour plus tard, une liste d'appartement possibles à louer, puis une série de campings qui ont l'air bien sympas pour les vacances, avec du framagit et des forums ci et là.

Le bordel quoi.

Et le pire, c'est qu'à force d'avoir autant d'onglets ouverts, j'en oublie la raison de leur présence après plusieurs semaines à être mis de côté.
De plus, impossible de consulter ces onglets quand je suis au boulot ou sur un autre ordinateur que le mien.
Pour couronner le tout, quand je cherche une page avec the info qui m'intéresse, je passe des heures à la retrouver en fouillant dans l'historique, parce que bien sûr, j'ai supprimé l'onglet il y a longtemps.

C'est là qu'intervient wallabag. Mais pourquoi ne l'ai-je pas utilisé plus tôt?

Pour ceux qui auraient été absents du web ces dernières années, wallabag permet d'enregistrer des pages web pour les lire plus tard. J'y vois aussi un avantage pour le cas où la page source aurait disparue, ainsi que pour consulter la même information quelle que soit l'ordinateur utilisé. En effet, peu importe le navigateur : on se connecte sur son wallabag, et hop, on a tous les articles dont on a besoin.
Wallabag est vraiment pratique. Hop, une page m'intéresse, je clique sur le "bookmarklet" et paf! Elle est enregistrée! Je veux retrouver une info particulière? Je tape une recherche par mot clé dans mon wallabag, et zou, il me propose des résultats pertinents.

Je l'ai bien évidemment auto-hébergé. Les explications sont exhaustives, on utilise l'archive proposée. Sous OpenBSD avec httpd, ça donne ça (il faut sqlite et php correctement configurés bien sûr):

#On va dans /var/www/htdocs cd /var/www/htdocs # On télécharge l'archive curl -O wallabag.tgz http://wllbg.org/latest-v2-package tar xvzf wallabag.tgz # on renomme le dossier mv release* wallabag # On change les droits chown -R www:daemon wallabag

Ensuite, dans /etc/httpd.conf, on peut mettre ceci. Vous verrez que j'ai nettement simplifié par rapport à ce qui est proposé pour apache ou nginx.

server "oualabag.yeuxdelibad.net" { listen on * tls port 443 root "/htdocs/wallabag/web" no log hsts tls { certificate "/etc/letsencrypt/live/yeuxdelibad.net/fullchain.pem" key "/etc/letsencrypt/live/yeuxdelibad.net/privkey.pem" } location "/" { block return 301 "https://$SERVER_NAME/app.php/$REQUEST_URI" } location "/app.php*" { fastcgi socket "/run/php-fpm.sock" } }

Relancez httpd et zou, vous pouvez utiliser wallabag. L'utilisateur par défaut est "wallabag", et son mot de passe est... "wallabag". À changer au plus vite donc ;).

Pour ceux qui ne veulent pas entendre parler d'auto-hébergement, vous pouvez utiliser le service proposé par framasoft : framabag https://framabag.org/.

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

Yannic Arnoux : Histoire d'hébergement

Dans la continuité de mon article précédent je continue à mettre de l'ordre dans mon informatique. Après le renoncement de confier à Hubic mes 70 Go de photos familiales j'ai recherché une solution classique : un hébergement de serveur avec suffisamment d'espace disque qui puisse à la fois accueillir mes photos (synchronisées en rsync) et mes services (blog, cloud) pour ne pas exploser ma facture d'hébergement.

L'hébergement c'est une belle jungle avec :

  • des poids lourds : quelques gros hébergeurs qui possèdent leur infrastructure système et réseau (OVH et Online par exemple).
  • des grossistes : des hébergeurs qui louent en volume chez les gros hébergeurs et qui façonnent des offres commerciales un peu différentes, un peu l'équivalent des MVNO dans le domaine de la téléphonie
  • des petits hébergeurs qui possèdent leur propre infra et essaient de tirer leur épingle du jeu avec des offres différentes (techniquement ou commercialement)

Tout d'abord il n'y a pas d'hébergeur miracle qui possède la meilleure offre du marché. En fonction du type d'hébergement (serveur physique ou virtuel) et de la gamme, on va trouver des offres plus intéressantes chez l'un ou chez l'autre.

Moi je cherchais un serveur virtuel VPS (pour sa flexibilité et son faible taux de pannel) avec une assurance de sauvegarde des données (snapshot ou espace FTP) pour rapidement tout restaurer en cas de panne. J'ai écarté les grossistes, ça ne m'intéresse pas d'avoir un hébergeur qui dépend d'un autre pour résoudre les incidents techniques. J'ai d'abord exploré le monde des petits hébergeurs où on trouve quelques perles (des hébergeurs à fond sur le Green IT) et des gens qui ne tiennent pas la route malgré un site Web alléchant.

Après deux expériences foireuses chez des petits hébergeurs, j'ai failli opter pour une Dedibox de Online : du serveur physique à un prix plancher ; le pendant chez OVH est la gamme Kimsufi. Du serveur physique, pas très cher donc, mais avec souvent un service minimum (pas de RAID, pas de sauvegarde). Dedibox propose 100 Go de FTP et ça me semblait pas mal, sans surprise. je connais l'offre à titre professionnel : le taux de dispo est impressionnant et la bande passante très bonne. Seul hic, c'est un peu en dessus de mon buget de 9 euros HT par rapport aux 8 euros TTC d'aujourd'hui chez FirstHeberg. Par contre, avec une Dedibox j'avais un gros disque de 1 To.

J'allais me lancer quand j'ai aperçu les offres Scaleway sur le site Online. C'est quoi Scaleway ? C'est une filiale de Online avec un positionnement Cloud. Le problème du terme Cloud, c'est qu'on l'a tellement usé et absusé (hein les marketeux) qu'on ne sait plus de quoi on parle là. Scaleway se positionne sur le créneau de Amazon AWS et de Google App Engine avec une offre tarifée à l'heure qui permet de faire du pilotage / de l'orchestration pour par exemple automatiser des déploiements de nouveaux serveurs dans le cadre d'une intégration continue d'un logiciel en cours de développement, ou démarrer une grappe de serveurs supplémentaire pour absorber une charge Web dans le cas d'un architecture balancée. Pour cela, ils proposent des API et un matériel original puisqu'il s'agit d'un serveur physique peu performant basé sur une architecture ARM. Je parle ici du serveur C1, leur premier modèle. L'offre est originale car ce genre d'orchestration se fait généralement sur du virtuel pour sa souplesse à stopper, démarrer, reconfigurer des VMs et eux proposent un micro serveur qui ne consomme pas grand chose avec l'argument que sur du physique il n'y a pas d'inconnu sur la performance comparé au virtuel où votre voisin (que vous ne connaissez pas) a mangé la CPU de l'hyperviseur. C'est donc un peu comme si on avait un Raspberry chez un hébergeur avec une grosse bande passante. Ils arrivent à mettre plus de 900 serveurs dans un rack 1U. Le côté green IT m'a séduit.

Et l'espace disque ? C'est l'autre grosse particularité de l'offre. L'espace disque est attribué par tranche de 50 Go (1 euros la tranche) et géré dynamiquement puisque la vocation du Scaleway est d'offir la même souplesse que les VPS : stopper, déplacer, redéployer... Donc en fait, les données sont centralisées (dans un gros NAS). Et au démarrage d'un serveur, elles sont rapatriées pour être attachées au boot. Quand le serveur est stoppé, elles sont réécrites dans le central. Pour quelques centimes, on peut conserver un snapshot de notre disque.

Ce qui m'a plus dans cette offre ce sont les points suivants :

  • un hébergement physique
  • la flexibilité de rajouter ou d'enlever des volumes disques
  • une architecture ARM : performances modestes faible consommation électrique

Est-ce que c'est une offre adaptée à un hébergement classique ? Clairement, ce n'est pas la cible et le Scaleway n'a pas été conçu pour héberger un blog et quelques services Cloud mais il peut le faire avec un bémol sur l'arrêt / relance du serveur : le temps de rapatriement des données vers l'espace central est très long. Surtout qu'aux 50 Go de base, j'ai souscrit un volume supplémentaire de 100 Go pour stocker mes fameuses photos. J'ai tout stoppé pour réaliser un snapshot du disque système (pas de snapshot à chaud) mais on ne stoppe pas un serveur régulièrement donc c'est gérable. Autre point à prendre en considération : l'architecture ARM est supportée par peu de distributions. Sans surprise, j'ai choisi Debian. Tout ajout de logiciel qui ne ferait pas partie du système de paquets nécessite une compilation pour la plateforme ARM.

J'ai achevé ma migration vers Scaleway depuis un mois et jusqu'ici tout va bien :-)

Gravatar de Yannic Arnoux
Original post of Yannic Arnoux.Votez pour ce billet sur Planet Libre.

alterlibriste : 'SetLocale failed' et Optimus sur Steam

Sur Debian (et probablement tous ses descendants) Steam s’installe très facilement grâce au package dédié sans oublier que Steam OS est basé sur Debian.

Il peut cependant apparaître une erreur au chargement de certains jeux (Valve notamment) :
SetLocale('en_US.UTF-8') failed

Qui se termine par :
Please install 'en_US.UTF-8' locale

Rien de bien compliqué donc mais comme je n’ai trouvé le tuto pour le régler que sur des vidéos et pas en français pour deux malheureuses lignes de commande, je relaie la solution pour vous éviter de mater 5 min de vidéo en espagnol.

Dans un terminal, éditer le fichier locale.gen (avec nano, mousepad, gedit ou l’éditeur de votre choix) :
sudo nano /etc/locale.gen

descendre jusqu’à la ligne :
# en_US.UTF-8
enlever le # pour décommenter la ligne et enregistrer (’Ctrl+O’ puis ’Entrée’ dans nano) puis quitter l’éditeur (Ctrl+X dans nano)

Regénérer les locales :
sudo locale-gen

Le en_US.UTF-8 devrait apparaître en plus de la locale déjà installée (fr_FR.UTF-8 par exemple)
Epicétou

Relancer le jeu et le message ne devrait plus apparaître.

Pendant que j’y suis, au cas où vous seriez sur un laptop avec optimus (voir mon article dédié pour l’installation de Debian et le wiki Debian pour l’installation des cartes graphiques), il suffit de lancer :
optirun steam
pour tourner avec la carte nvidia. On peut vérifier que l’on tourne bien dessus dans le menu : Aide > Informations Système.

Ensuite, pour faciliter les choses, on peut aller modifier le lanceur de Steam : sudo nano /usr/share/applications/steam.desktop

Remplacer la ligne :
Exec=/usr/games/steam %U

Par :
Exec=optirun /usr/games/steam %U

Et Steam se lancera à chaque fois avec optirun (l’astuce est valable pour tous les jeux afin d’éviter de les lancer en ligne de commande).

Amusez-vous bien !

Gravatar de alterlibriste
Original post of alterlibriste.Votez pour ce billet sur Planet Libre.

Okki : Deux nouveaux PC hybrides vendus directement sous GNOME

Fin 2014, l’entreprise américaine Purism lançait une campagne de financement participatif dans le but de pouvoir produire un ordinateur portable entièrement libre. Sans aller jusqu’à de l’open hardware, toute la partie logiciel se devait d’être libre. Ceci incluait aussi bien le logiciel d’amorçage (coreboot), le système d’exploitation, les pilotes de périphériques et bien évidemment les applications.

Des 250 000 dollars initialement demandés, ils réussirent à récolter près de 610 000 dollars, ce qui leur permit de sortir non pas un mais deux ordinateurs portables, Librem 13 et Librem 15, équipés de processeurs i5 et i7 de cinquième génération (Haswell), de 16 ou 32 GB de RAM, d’un SSD… classique, mais néanmoins onéreux, puisque commercialisés 1499 et 1899 dollars.

L’histoire aurait donc pu s’arrêter là, mais voilà que Purism vient de lancer la prévente sur Indiegogo de deux nouveaux ordinateurs portables hybrides, dont l’écran sera détachable pour faire office de tablette. Et c’est là que ça devient intéressant, puisque la nouvelle version de PureOS, le système d’exploitation maison autrefois basé sur Trisquel (un dérivé entièrement libre d’Ubuntu) et Cinnamon (un environnement de bureau dérivé de GNOME), fait un retour aux sources en se basant désormais sur Debian et GNOME. Les deux tablettes utiliseront donc bien GNOME Shell par défaut.

La Librem 10 en mode tablette

Depuis le temps qu’on entend les trolls se plaindre que GNOME Shell est entièrement pensé pour le tactile alors qu’aucune tablette ne semblait l’exploiter, entre ces deux nouveaux produits commercialisés directement sous GNOME ou le succès grandissant des PC hybrides (Microsoft Surface, Lenovo Yoga, HP Spectre…), c’est une bonne chose de constater que parmi tous les environnements de bureau libres disponibles, il en existe au moins un parfaitement adapté à ce type de configuration.

Pour en revenir à Purism, nous avons donc le modèle Librem 10, équipé d’un processeur Atom x5-Z8300, de 4 GB de RAM, de 64 GB d’espace disque et d’un écran 10.1″. Le tout vendu 599 dollars.

Vient ensuite la Librem 11, qui aura droit à deux déclinaisons. Une première, équipée d’un processeur Intel Core M-5Y10c, de 8 GB de RAM, d’un SSD de 256 GB et d’un écran 11.6″. Ainsi qu’une seconde, dont la RAM et le SSD passent respectivement à 16 GB et 512 GB. En ce qui concerne le prix, si vous précommandez dès maintenant, ça se fera à 999 ou 1567 dollars. Mais une fois la prévente terminée, ça grimpera ensuite à 1299 ou 1867 dollars.

Précommandes oblige, les livraisons devraient débuter en octobre 2016.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

RaspbianFrance : Se connecter au WiFi avec la Raspberry Pi 3

Avec l’arrivée de la Raspberry Pi 3 et du Wi-Fi intégré, il est maintenant possible de se connecter au réseau sans fil sans passer par un dongle externe. Malheureusement, nous avons reçu beaucoup de mails ou de commentaires indiquant des difficultés à utiliser cette nouvelle puce WiFi ! Nous avons donc retrousser nos manches afin de vous proposer la solution idéale pour régler ce petit problème !

Notez que les dernières versions de Raspbian embarquent par défaut les drivers nécessaires au bon fonctionnement de la puce WiFi.
Si vous n’êtes pas à jour, vous devrez alors mettre à jour votre Pi, pour cela il vous suffit d’exécuter les commandes suivantes :

sudo apt update sudo apt dist-upgrade

Lorsque l’opération sera terminée, redémarrez votre Pi.

Connecter la Raspberry au WiFi via la version bureautique

Si vous utilisez la Raspberry Pi sous sa forme bureautique, cette partie est faites pour vous.
L’icône réseau se situe en haut à droite de l’écran, à côté de l’horloge. Si vous passez par une connexion filaire, débranchez le câble Ethernet avant de continuer l’opération. Une fois l’icône trouvé, cliquez sur celui-ci, une liste de box (plus précisément, leur SSID) va alors apparaître, il vous faudra trouver la votre, par exemple « Liverbox 4B5R ».
Par défaut, les box demande un mot de passe ou une clé de chiffrement, ainsi lorsque vous aurez sélectionné votre box, une popup vous demandera alors cette information, si besoin !
Une fois le mot de passe rentré, cliquez sur le bouton OK ; La Raspberry va alors tenter d’établir la connexion, l’icône va alors changer au bleu ! Si la connexion est un succès, l’icône affichera la puissance du réseau !

Vous voilà maintenant avec une Raspberry Pi 3 connecté au réseau via le WiFi intégré !

Utiliser la ligne de commande pour connecter sa Raspberry Pi 3 au Wi-Fi

Toutefois, si vous ne vous servez pas de l’affichage graphique, ou que vous utilisez Raspbian Lite, il y a aussi une solution pour vous (nous) ! Nous allons donc utiliser la bonne vieille ligne de commande pour connecter la Raspberry Pi 3 au WiFi !
Tout d’abord, nous allons éditer le fichier wpa_supplicant.conf

sudo nano /etc/wpa_supplicant/wpa_supplicant.conf

Rendez-vous à la fin du fichier et ajoutez la définition de votre box en suivant ce template :

network={     ssid=””     psk=””     key_mgmt=WPA-PSK }

Ici, nomDeLaBox correspond au nom de la box internet et cléDeSécurité fait référence au mot de passe de votre box internet. Si votre box utilise une clé de type WEP plutôt que du WPA/WPA2, insérez la valeur NONE dans key_mgmt, tel que

key_mgmt=NONE

Enfin, si vous vous connectez à une box ouverte, non protégé par un mot de passe, vous n’aurez besoin que de renseigner le SSID.
Une fois fait, sauvegarder le fichier avec CTRL+O, puis quittez-le avec CTRL+X !
Votre Raspberry Pi 3 est maintenant connecté à internet via sa puce WIFI. Vous pouvez tester la connexion via la commande ifconfig

ifconfig wlan0

 

Grâce à ces deux méthodes, vous êtes désormais apte à vous connecter sur votre réseau que ce soit via l’interface graphique ou via la ligne de commande. Avec cette puce WiFi il sera maintenant plus simple de faire de la vidéo-surveillance !

Si vous rencontrez des problèmes pour mettre en place le WiFi sur la Raspberry Pi 3, rendez-vous sur notre forum pour en parler !

Cet article Se connecter au WiFi avec la Raspberry Pi 3 est apparu en premier sur Raspbian-France.

Gravatar de RaspbianFrance
Original post of RaspbianFrance.Votez pour ce billet sur Planet Libre.

Articles similaires

Tuxicoman : Télécharger Debian 8.5 en torrent

Le moyen le plus simple et rapide d’installer Debian est d’utiliser l’image d’installation « netinstall 32/64bit » qui fait 584Mo.

Vous pouvez la télécharger directement depuis les miroirs Debian mais c’est un peu lent. Vous pouvez la télécharger plus rapidement en utilisant Bitorrent :

MD5 verification : http://cdimage.debian.org/debian-cd/8.5.0/multi-arch/iso-cd/MD5SUMS
MD5 sum : 6753c353cef5f5336079d94562ad15c3 debian-8.5.0-amd64-i386-netinst.iso

 

Related Posts: J'aime !(0)Je n'aime pas !(0)

Gravatar de Tuxicoman
Original post of Tuxicoman.Votez pour ce billet sur Planet Libre.

Articles similaires

genma : Mon wiki perso avec Yunohost

Le besoin

J'ai un dossier synchronisé avec une instance Owncloud que j'ai appelé tutoriel. Au fur et à mesure de mes lectures et de ma veille sur Internet, je récupère des billets et autres tutoriels dont je suis susceptible d'avoir besoin pour mes projets persos et que je classe donc dans des répertoires par thèmes. Je n'ai pas encore structuré plus (ajout de différents mots clefs pour chaque tutoriel), le classement étant selon la thématique la plus importante / dominante du tutoriel.

De temps en temps, quand j'avais besoin de quelque chose, d'une astuce ou autre, je fouillais dans ce dossier, je faisais ce qu'il faut pour mettre en place telle astuce ou j'adaptais. Pour garder une trace, je prenais des notes, je copiais-collais des bouts d'astuces ou autre dans un simple fichier Writer d'OpenOffice. Je mettais ça en forme, avec des parties-sous parties. Et ainsi je traçais et documentais ce que je faisais pour mes projets personnels, pour pouvoir revenir dessus.

J'avais un seul gros fichier, que je sauvegardais en le synchronisant dans mon instance Owncloud (plus copie sur support externe...)

Les soucis

Avec ce mode de fonctionnement, certes j'ai une trace, mais c'est tout sauf pratique. Je prends du temps pour la mise en forme, et ce, même en utilisant des styles de Libreoffice (pour différencier les bouts de codes des commentaires, des notes, pour avoir des sections, des sous-sections etc.).

Après réflexion, j'en suis venu à la conclusion qu'en fait, ce dont j'ai besoin, c'est un wiki

La solution finalement adoptée

J'ai donc installé DokuWiki sous Yunohost (c'est une application officielle). Quand j'en ai parlé sur Diaspora, on m'a demandé pourquoi je n'utilisai pas Spip ? Spip c'est un CMS. C'est un peu lourd pour mon besoin. Spip c'est pour faire des billets et des rubriques.

Mon besoin est simple : j'ai besoin de faire des blocs de texte avec un titre, un peu de gras et de code (mise en forme), avec publication immédiate, pas de relecture etc. Ce que je faisais déjà dans mon document LibreOffice, mais de façon plus aéré, plus structuré, moins monolithique. J'ai besoin d'avoir des renvois et des liens entre parties, un wiki donc…

L'avantage du wiki est également d'avoir un système consultable de plusieurs machines, depuis n'importe où (de mon réseau local ou depuis mon lieu de travail - car certaines astuces me sont aussi utiles professionnellement).

Pour la mise en forme, c'est une syntaxe wiki. C'est simple. Ca marche. Je le remplis peu à peu. Voilà ce à quoi ça ressemble en image :

Et pour la sauvegarde de ce wiki, c'est déjà pris en compte dans le plan de sauvegarde que j'ai mis en place pour Yunohost (sauvegarde toutes les nuits de tout /var/www (entre autre), via un script. Je ferai un billet dédié sur ma sauvegarde...).

Je verrai à la longue si ça marche et répond bien à mon besoin mais pour l'instant, vu que j'ai déjà rapatrié dedans tout le contenu de mon document LibreOffice et que j'ai ajouté des nouvelles sections et informations, je pense que oui.

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

ardechelibre[.org] : Présentation du Mix Ardéchois le 16 juin

L’association ardechelibre[.org] participera à la préparation du Mix’ ardéchois (sur la base du concept Muséomix) sur les patrimoines naturels et culturels invisibles qui aura lieu au début de l’automne.

Museomix Ardèche 16 juin 2016Rendez-vous le jeudi 16 juin de 10h à 12h30 à la Pépinière d’entreprises l’Espelidou.

A 12h30 pique-nique des créatifs (tiré du sac).

Cet article Présentation du Mix Ardéchois le 16 juin est apparu en premier sur ardechelibre[.org].

Gravatar de ardechelibre[.org]
Original post of ardechelibre[.org].Votez pour ce billet sur Planet Libre.

ardechelibre[.org] : Journée de l’innovation par l’impression 3D le 16 juin

Retrouvez l’association ardechelibre[.org] lors de la Journée de l’innovation par l’impression 3D,  le jeudi 16 juin 2016 à la Pépinière d’entreprises de l’Espélidou à Lachapelle-sous-Aubenas.

Jeudi 16 juin 2016 - Journée de l'innovation par l'impression 3DCette journée est organisée par le Pays d’Ardèche Méridionale dans le cadre de la quinzaine des pépinières d’entreprises Rhône-Alpes.

Au programme, de 14h à 18h :

  • Présentation et démonstration d’une imprimante 3D de type industrielle par la société Delta équipement tout au long de l’après-midi
  • Présentation de logiciels libres pour « les professionnels » par l’association Ardèche Libre tout au long de l’après-midi

A 18h, conférence « La Révolution de l’Imprimante 3D » animée par Alain Charrier, co-fondateur et directeur du FabLab74

Et à 19h30, échanges autour d’un buffet.

Inscription, plan d’accès et infos : http://pays3d.jimdo.com

Cet article Journée de l’innovation par l’impression 3D le 16 juin est apparu en premier sur ardechelibre[.org].

Gravatar de ardechelibre[.org]
Original post of ardechelibre[.org].Votez pour ce billet sur Planet Libre.

Okki : GTK+ 4.0 ne sera pas GTK+ 4

GTK+ Hackfest 2016 (© Matthias Clasen)

Le GTK+ Hackfest 2016 se déroule en ce moment même à Toronto. Plus d’une quinzaine de développeurs s’y sont retrouvés pour trois jours de développement et de discussions, décidant ainsi du futur de cette bibliothèque utilisée pour concevoir les interfaces graphiques des applications GNOME et d’un certain nombre d’autres projets majeurs.

L’une des discussions ayant fait le plus de bruit concerne le versionnage des prochaines versions majeures (GTK+ 4, 5, 6…).

Depuis la sortie de GTK+ 3.0 en février 2011, les nouvelles versions mineures se sont succédé ces dernières années, apportant à chaque fois leur lot de nouvelles fonctionnalités, mais également de problèmes, cassant régulièrement l’API ou les thèmes utilisateurs. À tel point que ce manque de compatibilité ascendante est désormais l’une des critiques les plus courantes, et que différents projets ont préféré abandonner GTK+ au profit de Qt, ou de retarder leur migration de GTK+ 2 vers la version 3.

Pour rappel, GTK+ 1 est sorti en 1998, GTK+ 2 en 2002 et GTK+ 3 en 2011. Des écarts toujours plus grands, qui obligent à apporter régulièrement de nouvelles fonctionnalités pour pouvoir coller aux nouvelles technologies ou couvrir de nouveaux besoins.

L’une des solutions envisagées, serait de sortir plus régulièrement de nouvelles versions majeures, considérées comme stables, qui ne recevraient plus que des correctifs améliorant la stabilité ou la sécurité (pour de plus amples informations, je vous conseil la lecture des deux billets de blog d’Allison Lortie, Gtk 4.0 is not Gtk 4 et Gtk 5.0 is not Gtk 5).

Après la sortie de GTK+ 4, qui ne devrait probablement pas avoir lieue avant 2018, une nouvelle version majeure sortirait approximativement tous les deux ans. Et entre chaque nouvelle version majeure, nous continuerions comme aujourd’hui de bénéficier de nouvelles versions mineures tous les six mois, qui apporteraient leur lot de nouveautés.

Mais c’est là que ça se gâte. Pour le moment, on semble se diriger vers un GTK+ 4 qui ne correspondrait pas à GTK+ 4.0. Et il en irait de même pour GTK+ 5 ou 6. En gros, durant les dix-huit premiers mois (ce qui correspond à trois versions mineures), les développeurs seraient libres d’ajouter de nouvelles fonctionnalités et de casser l’API autant qu’ils le souhaitent. Une fois le code stabilisé, il sera alors décidé que GTK+ 4.6 ou 4.8 pourra devenir le nouveau GTK+ 4.

GTK+ Hackfest 2016 (© Matthias Clasen)

À ce moment de l’article, vous ne pouvez vous empêcher de trouver ça idiot et de vous demander pourquoi ils ne travailleraient pas plutôt sur une branche de développement qui, une fois stabilisée, donnerait GTK+ 4.0, première version stable de cette nouvelle branche ?

De l’avis des développeurs, il semble y avoir deux publics, qui ont chacun des besoins différents. D’un côté des projets comme GNOME, qui souhaitent pouvoir bénéficier rapidement des dernières nouveautés sans avoir besoin d’attendre deux ans. Projets qui, de par leur taille, auront toujours la main d’œuvre nécessaire pour adapter les différentes applications aux éventuelles nouveautés ou autres cassures d’API. Et de l’autre, les développeurs d’applications tierces, qui préféreront plutôt se baser sur une version stable qui ne bougera plus, et ne nécessitera donc plus une maintenance incessante et régulière.

Maintenant, il faut savoir que les discussions ont toujours lieues et qu’aucune décision ne sera prise avant le prochain GUADEC, qui se tiendra cette année du 12 au 14 août en Allemagne. Il est donc possible que le versionnage change encore d’ici là. Mais une chose est sûre, de l’avis même des développeurs, des versions stables plus régulières devraient faciliter et accélérer le développement, ce qui devrait nous apporter plein de bonnes choses dans les années à venir.

Une inconnue demeure néanmoins. Combien de branches seront maintenues en parallèle ? Surtout quand on sait que GTK+ 2, qui en est actuellement à la version 2.24.30, est toujours maintenu, près de quinze ans après sa première apparition.

Gravatar de Okki
Original post of Okki.Votez pour ce billet sur Planet Libre.

Articles similaires

Angristan : Comment surcharger une machine GNU/Linux

Comment surcharger une machine GNU/Linux

Hier l'ami Dreamzie avait son serveur dédié qui expirait, alors près avoir retiré toute la production dessus, on s'est dit qu'on allait lui faire vomir ses tripes :D Le serveur est un 128GO de RAM chez OVH, avec Xeon E5, alors il faut y aller pour saturer la bête. On a commencé par quelques Unixbench, des wgets pour saturer la bande passante, des dd pour saturer la RAM et les disques, ou encore des générateurs de .onion, qui bouffent complètement le CPU. Bon on a bien saturé le CPU, mais le load était encore assez faible, alors il fallait trouver un truc. https://twitter.com/fuolpit/status/742329568535678976 Je n'arrive pas à me rappeller où, mais j'ai trouvé cette commande : dd if=/dev/zero of=/dev/null C'est un dd, rien de bien original en effet, mais en fait si. Sachant que /dev/zero permet d'avoir un flux de zero à l'infini, et que /dev/null est un trou noir... ben vous voyez où on va ;) dd est une commande qui permet par exemple d'écrire des images ISO sur une clé USB pour booter sur une distribution GNU/Linux. Il permet aussi de tester la vitesse d'un disque avec ce genre de commande : dd if=/dev/zero of=test.data bs=1M count=1000 conv=fdatasync;rm test.data (1000 blocs de 1Mo, soit 1Go écrit) Pour en revenir à notre commande, elle va écrire de rien vers... rien, en gros la vitesse sera proportionnelle à la puissance du CPU, qui va être saturé bien entendu.   Bon, saturer le CPU c'est bien, mais nous ce qu'on veut c'est vraiment exploser le load. C'est là que j'ai eu une petite idée : et si on lançait une infinité de dd ? Pas bien compliqué, il suffit de faire une boucle infinie dans bash, et de lancer les processus en arrière plan avec screen !   Très important : il faut installer le serveur sous Debian 8 en allemand, sonst wird es nicht funktionieren. (non pas du tout, désolé, le serveur était en allemand cette fois-ci, parce que... voilà) Cela fonctionnera sur n'importe quel système/distributions/noyaux, à partir du moment ou vous avez bash, dd et screen d'installés. Voici le petit script en question : #!/bin/bash while true do screen -d -m dd if=/dev/zero of=/dev/null done Edit : On peut le faire sans screen, voir dans les commentaires.   Et là le serveur dédié a commencé à pleurer :) https://twitter.com/fuolpit/status/742336778007351296   Au final, on se retrouve avec des centaines (voire milliers de processus) qui bouffent le I/O et le CPU, c'est à dire tout ce qu'il faut pour avoir un load au max ! https://twitter.com/fuolpit/status/742347851573919744 Par la suite, on a dépassé les 5000 processus avec plus de 3000 de load (record perso), mais le SSH commençait à vraiment avoir du mal. Donc voilà comment overload une machine sous Linux en 4 ligne de code, rien de compliqué finalement ! Si vous avez d'autres astuces ça pourra servir pour une prochaine fois :P   PS : Utilisez cette commande à bon escient (hum), allez pas casser toutes les machines que vous avez où faire du mal à celles des autres. :)

L'article Comment surcharger une machine GNU/Linux a été publié sur Angristan

Gravatar de Angristan
Original post of Angristan.Votez pour ce billet sur Planet Libre.

Articles similaires

Thuban : Riff exoconférence

Pour ceux qui ont vu l'exoconférence d'Alexandre Astier (les veinards!), vous avez pu apprécier un morceau musical qui a du punch. Pour les autres, vous le verrez dans le DVD, car la dernière était samedi dernier.

J'y étais...

Comme j'ai adoré le morceau, je l'ai rapidement retranscrit en tablature. Il n'y a que le riff du début, le solo suivant, c'est d'un autre niveau.

Le silence éternel des espaces infinis m'effrayent. Et la seule chose qu'on puisse lui opposer... C'est la poésie ou la musique.

------------------------------- ------------------------------- ------------------------------- ------------5h6p5------------- ---------7---------7p5-----5h7 ---0--0-----------------0----- ------------------------------- ------------------------------- ------------------------------- ------------5------------------ ---------7--------5h7----5h7--- ---0--0--------0-------0------- ------------------------------- ------------------------------- ------------------------------- ------------5h6p5------------- ---------7---------7p5-----5h7 ---0--0-----------------0----- ------------------------------- ------------------------------- ------------------------------- ------5--7--------------------- ------5--7--------------------- -0-0--3--5---------------------

M. Astier, merci!

Comment combler le silence éternel de ces espaces infinis? from Thuban on Vimeo.

Gravatar de Thuban
Original post of Thuban.Votez pour ce billet sur Planet Libre.

genma : CozyCloud vs OwnCloud

Dès qu'il y a une annonce en rapport avec CozyCloud, dans les commentaires il y a toujours une question sur les différences et les comparaisons entre CozyCloud et OwnCloud.

My vs Own

CozyCloud est une alternative à OwnCloud. On retrouve beaucoup de services similaires (agenda, contact, partage de fichiers etc.) dans CozyCloud, avec des spécificités et différences pour l'un et l'autre. La première est le fait que CozyCloud est mono-utilisateur là ou OwnCloud permet de gérer plusieurs utilisateurs. Pour s'en rappeler, il suffit de retenir ceci :
- CozyCloud c'est MyCozyCloud. MON Cloud personnel.
- OwnCloud c'est Own, c'est NOTRE Cloud personnel.

Différences de technologies

Au niveau technologies utilisées, OwnCloud c'est du php/mysql là ou CozyCloud c'est du NodeJSet CouchDB. En terme de consommation mémoire, du fait des choix de technologies, OwnCloud consomme quelques centaines de megaoctet (selon les usages) là où CozyCloud nécessite entre 1 (à minima) à 2 giga de RAM par instance (pour un seul cloud. Si on veut plusieurs pour plusieurs utilisateurs, il faut plusieurs instances CozyCloud et multiplier par autant la quantité de mémoire vive, RAM, nécessaire sur la machine).

Synchronisation

OwnCloud a des clients logiciels permettant la synchronisation des fichiers, contacts, agenda etc. CozyCloud permet déjà de synchroniser ses contacts, agenda et photos avec son smartphone via une application pour Android, une application client pour Linux (et plus tard pour les autres OS) existe en version beta pour synchroniser ses fichiers.

Dans les deux cas, on a une notion d'application tierce. On peut ajouter des applications issues de la communauté.

Différences de philosophie

OwnCloud est plus ancien et a donc une philosophie de cloud personnel multiutilisateurs (avec les applications associées comme nous l'avons vu : agenda, contact, partage de fichiers etc.) CozyCloud a pour but de remettre les données de l'utilisateur entre ces mains et a dans son ADN la notion d'interaction entre les applications. Il y a une mutualisation des données entre les applications de la plateforme. Un fichier musique importé dans l'application fichier est disponible ensuite dans le lecteur de musique, une photo dans l'application photo. OwnCloud propose aussi la même chose. Mais CozyCloud va plus loin. A terme, une facture ou un billet de train reçue par mail pourra être liée à un contact, à un événement dans l'agenda, et à une ligne de dépense dans l'application Kresus. Les données sont liées, au sein des différentes applications, le tout sous le contrôle de l'utilisateur. Ce recoupement de données permettra des usages et fonctionnalités que le simple stockage que propose Owncloud à l'heure actuelle ne permet pas. CozyCloud a également la notion de connecteur. On ajoute des applications qui vont aller se connecter à différents comptes sur le web et rapatrier les données au sein de CozyCloud pour une exploitation de ces données personnelles par l'utilisateur dans un endroit centralisé qu'est son cloud personnel. Un autre scénario qu'il sera possible de faire : je veux lister les commits github du projet d'un contact à qui j'ai donné rendez-vous le mois dernier et avec qui j'ai échangé par mail...

Comparaison des deux - mon projet

Pour pouvoir aider chacun-e à pouvoir présenter ou comparer CozyCloud et OwnCloud, j'ai commencé un travail sur base de captures d'écran qui présentent les services similaires - fonctionnalités communes et spécifiques. Et ainsi on a une idée du design/de l'aspect de ces applications.

Le but n'est surtout pas de faire une documentation complète mais de donner un aperçu, d'avoir une aide à la compréhension des spécificités et particularités de CozyCloud et d'OwnCloud pour une aide à la décision

Si vous souhaitez aider ce projet, c'est par ici https://github.com/genma/CozyCloud_vs_OwnCloud. (Le pdf permet d'avoir un document consultable par tou-te-s. Les sources sont en LaTEX/Beamer).

Gravatar de genma
Original post of genma.Votez pour ce billet sur Planet Libre.

alterlibriste : Professionalisation des informations sur les technos libres

Cette réflexion a été initiée au cours d’un échange mail avec Cascador. J’espère ne pas déformer sa pensée en résumant qu’il trouvait que les infos diffusés avaient tendance à se scinder de plus en plus entre, d’un côté, des articles techniques de professionnels et, de l’autre, des billets plus philosophiques d’amateurs.
Le défi des relais d’information serait donc de garder une cohérence entre ces deux tendances afin que ceux qui apprennent à utiliser la technique puisse trouver des outils et tutos pour progresser tandis que ceux qui baignent dedans tous les jours se posent parfois la question de la philosophie sous-jacente de leurs outils.
J’avoue que sans y avoir réfléchi auparavant, je partageais volontiers son avis.

Dans les semaines qui ont suivi, je me suis aperçu que, depuis quelques temps, dans certains podcasts sur le libre que j’écoutais, il m’arrivait de ne rien comprendre, même pas de quoi il s’agissait. Cela n’était jamais arrivé depuis quatre ans que j’écoute tout ce qui passe sur le sujet.
Je parle ici principalement de NipSource et de BlogLinux, a priori rien d’insurmontable, les animateurs sont passionnés et intéressants à écouter, il y a toujours des petites choses à apprendre même si certains sujets ne nous concernent pas mais on parle de choses tellement techniques que parfois ça devient difficile à suivre. Un commentaire sur BlogLinux a d’ailleurs relevé cette dérive en disant que le geekage atteint parfois des domaines tellement pointus (programmation, arduino, serveurs, OS mobiles, ...) que pour un simple utilisateur desktop qui veut continuer à améliorer son système ou découvrir des logiciels/astuces, ça s’éloigne beaucoup de ses centres d’intérêt.

Doit-on laisser les gens qui veulent apprendre se débrouiller tous seuls alors que beaucoup de blogueurs constatent un ralentissement des billets d’échange d’expérience et que d’un autre côté des articles sur les langages de programmation, les réseaux, les conteneurs et autres se multiplient ?
Bien entendu, ceux qui sont déjà assez loin dans la technique sont contents de pouvoir aller plus loin mais ceux qui n’y comprennent rien voudraient parfois savoir de quoi il s’agit et comment utiliser certains aspects. Mais il faut pour cela que les auteurs aient à l’esprit que le public n’aura pas leur niveau et qu’il faut parfois redonner les bases et renvoyer vers les tutos de base pour celui qui veut s’y mettre.

Comment apprend-on à utiliser et optimiser ses pratiques informatiques ?
C’est en regardant les autres faire. Il y a des tas d’astuces que l’on utilise au quotidien que l’on n’explique pas assez en supposant qu’elles sont connues de tous.
Un exemple tout bête ?
Dans un podcast, au milieu de descriptions de paramètres ésotériques en ligne de commande, un animateur aborde à un moment sur le ton de la boutade, que ce n’est pas comme le sudo !! que tout le monde connaît.
Moi je ne connaissais pas et je relaie donc l’info puisque cela me sert maintenant très souvent. Il vous arrive parfois d’avoir oublié de mettre sudo devant une commande parce que vous ne saviez pas/plus qu’il fallait l’exécuter en mode super-utilisateur ?
Je suppose que oui, alors si vous êtes très débutant, vous retapez toute la commande ou si vous savez au minimum utiliser l’auto-complétion, vous faites flèche vers le haut pour que la commande précédente s’affiche et vous allez avec le curseur jusqu’au début de la ligne pour ajouter le sudo.
Et bien, il y a beaucoup plus facile puisque la commande sudo !! permet d’exécuter la commande précédente en sudo.

Voilà, c’était l’astuce du jour du genre de celles j’aimerais lire ou entendre plus souvent plutôt que des pages entières de commandes de base dont on ne se souviendra pas et que l’on pourra chercher dans la documentation le jour où on en aura besoin.

Bref, il s’agit ici de ne pas creuser un fossé entre ceux qui veulent apprendre et ceux qui savent déjà. Et pour cela, Cascador a raison, il faut garder un contact entre les différents niveaux de compétences, car les plus avancés devront continuer à pouvoir répondre aux questions bêtes de celui qui ne comprend pas et ils seront parfois surpris par l’implication de celui-ci comme je le décrivais dans l’interview de Pouhiou.

Gravatar de alterlibriste
Original post of alterlibriste.Votez pour ce billet sur Planet Libre.

Framablog : Pour un requiem libre et athée

La tradition musicale du requiem est dès l’origine inhérente à la liturgie chrétienne au point qu’il faut attendre le XVIIIe siècle pour assister à la création de requiems « de concert », donc exécutés en dehors d’une célébration funèbre à caractère religieux.

Aujourd’hui, Denis Raffin propose d’aller plus loin encore et vient de passer plusieurs années à l’élaboration d’un requiem athée, qui comme il nous l’explique, vise à rendre hommage au souvenir des disparus en exaltant plutôt… la vie, hors de toute transcendance.

Qui plus est, sa création musicale est non seulement libre de références à la divinité mais aussi libre de droits et élaborée avec des logiciels libres. De bonnes raisons pour lui donner la parole et prêter une oreille curieuse à son requiem.

Peux-tu te présenter brièvement et nous dire par quel parcours tu en arrivé à ce projet un peu surprenant ?

2016_06_denis

Je suis un compositeur amateur, épris de musique classique depuis mon enfance. Jusqu’à présent, j’ai surtout composé de courtes pièces pour mon entourage. C’est la première fois que je me lance dans une œuvre d’une telle ampleur. J’ai composé les premières notes en 2013 (il y a 3 ans, oui oui…) et je viens enfin de terminer d’ébaucher les 5 mouvements qui constituent l’œuvre.

Justement, en prenant connaissance de ton projet, maintenant en phase finale, on ne peut s’empêcher de se dire que tu es soit très courageux soit inconscient : s’attaquer à un tel format musical demande de l’estomac, non ? et je ne parle même pas des monuments du genre (Mozart, Brahms, Berlioz, Verdi et tant d’autres… ) qui peuvent impressionner. Tu veux t’inscrire dans l’histoire de la musique à leur suite ?

J’ai toujours adoré les grandes œuvres religieuses, notamment funèbres. On y trouve une noirceur plus ou moins désespérée, mêlée à un fort besoin de consolation et de lumière (de résilience). Il y a peut-être un peu de mégalomanie dans mon projet, je ne le nie pas. Mais en réalité, il s’agit surtout de répondre à un double besoin : celui de m’obliger à dépasser le stade de compositeur du dimanche et celui d’aborder frontalement un thème qui me hante depuis mon adolescence : celui de la finitude de nos existences. J’ai voulu célébrer par une œuvre monumentale un événement très important dans ma propre existence : j’ai fini par admettre que j’allais mourir.

Brrr ce n’est pas très gai tout ça… On peut concevoir le désir de rendre hommage aux disparus, mais pourquoi célébrer la mort ?

Attention, pas de contre-sens ! Je ne célèbre pas la mort ! Mais assumer ma finitude m’a permis de comprendre des choses simples. D’abord que la vie est un bien précieux car éphémère et fragile. En ce sens, il faut savoir la respecter, la protéger, refuser de se contenter d’une vie où on se « laisse vivre ». Et surtout résister aux vols de nos existences que constituent le sur-travail, les guerres, la consommation, etc. Ensuite, nos existences si courtes prennent beaucoup plus de sens quand on les replace au sein de cycles naturels et historiques qui les dépassent. J’appelle, dans Un requiem athée, à « cultiver le grand jardin du monde ». À agir, humblement, chacun à son échelle, à construire un monde meilleur, tout en profitant au mieux de celui qui nous est offert. Il n’y a rien de morbide dans tout ça, non ?

Un requiem athée et libre, mais pas triste !

Un requiem athée et libre, mais pas triste !

 

Comme tu l’exposes en détails sur cette page tu n’es pas le premier à vouloir créer un Requiem athée. Pourquoi ajouter ta version, est-ce qu’il te semble qu’il y a ces dernières années une urgence (la question toujours vive de la laïcité ?) ou bien la naissance de ton projet correspond-elle à un cheminement plus personnel ?

La question de la laïcité, et en particulier de la cohabitation entre religieux et non-religieux, ne fait pas partie de ma démarche. Simplement, il y avait un manque dans l’histoire de la musique : il existe très peu d’œuvres athées traitant du thème de la mort.

Parler aux athées en général n’est d’ailleurs pas une mince affaire, car les athées ne constituent pas une école de pensée homogène. Le cheminement que je propose dans le texte est nécessairement très personnel. Par exemple dans sa dénonciation de l’immanence ou dans son appel non voilé à la rébellion (« La colère de l’Homme »). Cela dit, je n’ai pas hésité à réécrire le 2e mouvement de mon requiem (« Non credo ») lorsque ceux qui ont suivi sa composition l’ont accusé d’un trop grand dogmatisme. J’espère sincèrement que mon texte ne constitue pas un obstacle à l’appréciation de la musique, quels que soient les points de désaccord que puissent avoir mes auditeurs avec mes idées.

Comment définirais-tu ta musique ? On dit souvent que la musique contemporaine est difficile d’accès pour les oreilles non-initiées, est-ce le cas pour ton requiem ?

Pour les connaisseurs, il s’agit d’une écriture qui s’autorise tous les langages : tonal, modal, chromatique et atonal. Pour ceux qui ne sont pas habitués à écouter de la musique classique, disons que c’est une œuvre globalement facile à suivre, mais avec des passages assez ouvertement dissonants. La durée totale est raisonnable pour le néophyte (environ 45 minutes), tout en laissant le temps de s’imprégner d’un univers musical que je souhaite assez riche.

Pourquoi faire le choix de logiciels libres et placer ton œuvre en gestation dans le domaine public ?

Faire-part de liberté sur le site du projet

Faire-part de liberté sur le site du projet

La principale raison du choix de la licence CC-0 est philanthropique : c’est un cadeau que je souhaite faire à l’humanité. Par ailleurs, je suis intimement convaincu que le modèle actuel des droits d’auteur freine la création au lieu de la protéger. Il y a une excellente conférence de Pouhiou sur ce thème.

D’ailleurs, c’est un peu grâce à Pouhiou que je me suis décidé à créer un blog pour présenter ma composition en cours de réalisation. Dans son premier tome du cycle des Noénautes, il expose les interactions qu’il a pu avoir avec ses lecteurs sur son blog tout au long de l’écriture du roman et je me suis dit : et pourquoi pas utiliser ce dispositif pour mon requiem aussi ? Pour ceux que ça intéresse, j’ai exposé ma position dans cet article : vive la musique libre, à bas les droits d’auteur !

Pour ce qui est du choix des logiciels libres pour composer, il s’est imposé de lui-même : j’ai toujours milité pour la diffusion des logiciels libres (y compris dans l’Éducation Nationale à l’époque où j’y ai travaillé) et ça n’aurait pas été cohérent d’utiliser des logiciels privateurs pour réaliser une telle œuvre, non ? J’utilise essentiellement Musescore. même si les fonctionnalités sont un peu limitées par rapport aux gros logiciels payants du commerce. J’envisage d’utiliser Lilypond pour les dernières étapes de la composition (orchestration, cadences non mesurées, mise en page, etc.).

requiem-guitare

Tu as une formation musicale (on s’en doutait) et tu as donc été un temps professeur dans l’Éducation Nationale, mais en ce moment de quoi vis-tu, car on imagine bien que créer un requiem n’est pas une activité très lucrative ?

J’ai été successivement ingénieur du son, professeur de physique-chimie en collège et grand voyageur. Je suis actuellement ouvrier agricole (dans le maraîchage bio). Je compose sur mes temps libres, soir et week-end. Au début du projet, je m’étais mis à temps partiel pour trouver le temps de composer. Clairement, j’aimerais consacrer plus de temps à la composition dans les années qui viennent. Pour une raison simple : si je ne prends pas le temps de composer mes œuvres, qui le fera à ma place ?

De quoi as-tu besoin maintenant pour mener ton projet vers sa phase finale : de contributions techniques, musicales, d’interprètes, d’argent… ? C’est le moment de lancer un appel…

L’étape la plus importante est terminée : toute l’œuvre est ébauchée. On peut d’ailleurs écouter des exports (avec des sons synthétiques) sur le site du projet. Il reste deux étapes avant de pouvoir entendre l’œuvre pour de bon.

D’abord, il faut que j’écrive l’orchestration de l’œuvre. Je n’ai encore jamais eu à faire ça et c’est assez technique. J’apprécierai une aide pour cette étape : j’ai besoin de quelqu’un d’un peu expérimenté pour me relire, me corriger, me faire des suggestions, etc. Je pense m’adresser aux classes d’orchestration des conservatoires pour trouver ce genre de profils.
Ensuite, il faudra réunir des interprètes. Et là, les choses se compliquent… Car il faudra trouver de l’argent pour rémunérer tout ce monde (un orchestre, un chœur et 4 solistes). J’ai plus de questions que de réponses : mon œuvre pourrait-elle intéresser une institution ? Aurais-je un public suffisamment motivé pour réussir un crowdfunding ? J’avoue que ça me soulagerait grandement si quelqu’un de plus compétent que moi pouvait prendre en charge cette partie-là du travail !

Allez on s’écoute le « Non credo » ? Les autres mouvements sont disponibles sur le site de Denis.

http://framablog.org/wp-content/uploads/2016/06/Non-credo-2ème-version_r10.ogg

Que nos lecteurs mélomanes et musiciens se manifestent et fassent passer le mot : ce projet original et libre mérite d’aboutir à des interprétations publiques et pourquoi pas des enregistrements. À vous de jouer ♫ !

Gravatar de Framablog
Original post of Framablog.Votez pour ce billet sur Planet Libre.

Articles similaires

Pages