Planet

17 Août 2013 à 20:33

Xubuntu avec XMir en test via Ubuntuser

L'équipe de Xubuntu évalue toujours le passage à XMir pour la version 13.10 de la distribution. Un membre de la communauté, Unit193, a assemblé une image ISO de l'actuelle version de développement de Xubuntu incluant directement XMir, afin qu'un maximum de testeurs puissent facilement faire des retours d'expérience. Contrairement à Ubuntu, qui a annoncé la transition vers le serveur graphique Mir (avec la couche de compatibilité XMir) dès la prochaine version stable en octobre prochain, et à Kubuntu et Lubuntu, qui ont déclaré n'avoir aucune intention de prendre en charge Mir/XMir, l'équipe de Xubuntu s'est contenté jusqu'à présent de jouer la carte de l'observateur. Elle tient à étudier les avancées de Mir et Xmir, et à effectuer des tests de performances avant de prendre une décision. Bruno Benitez a publié, au début du mois, un message dans la liste de diffusion xubuntu-devel présentant une image ISO de test incluant de base Mir et XMir. Cette image, une fois décompressée sur une clé USB ou gravée dans un DVD, permet donc l'utilisation d'une session live de Xubuntu avec XMir. (Prenez note, toutefois, qu'un test en machine virtuelle est inutile puisque, XMir ne prenant pas encore en charge les machines virtuelles, X.Org prendra automatiquement la relève.) Benitez encourage le plus de testeurs possible à essayer Xubuntu avec XMir dans un maximum de configurations système imaginables. Ceci permettra à l'équipe de développeurs de comprendre comment Xubuntu se comporte dans un environnement XMir et, à la lumière de ces tests, de décider si la branche principale de Xubuntu transitera de X.Org vers XMir plus tard ce mois-ci.  

Pas de panique : la transition n'est pas officielle

Suivant l'annonce dans la liste de diffusion, plusieurs ont exprimé leur doute et leur négativité face à cette amorce de transition. Pour remettre les pendules à l'heure, Pasi Lallinaho, le chef du projet Xubuntu, a publié une mise au point dans son blog personnel. Il rappelle que l'image ISO générée par Unit193 est une image non officielle. Ce travail fort utile avait déjà été envisagé dans une réunion tenue par les développeurs de Xubuntu en juillet, et consiste en une image parallèle à l'image officielle. Les images officielles continuent d'être fournies avec X.Org et, pour le moment, rien dans les routines de mises à jour habituelle ne remplace X.Org par Mir et XMir. Une discussion plus sérieuse concernant le transition ou non vers Mir et XMir dans Xubuntu 13.10 aura lieu lors des prochaines réunions des développeurs de Xubuntu, les 15 et 22 août prochains.

Le premier numéro spécial dédié à LibreOffice est maintenant disponible en français. Vous pouvez le télécharger ici ou en cliquant directement sur l'image ci-dessous.

NS_LibreOffice1.png

Bonnes fins de vacances et amusez-vous bien !

backup

Quiconque s’auto-héberge doit maintenir un système de sauvegarde de son serveur, permettant de tout remettre en place dans le cas d’un crash de disque dur, d’un piratage ou d’un cambriolage.

Objectifs

Il est nécessaire de sauvegarder à la fois des fichiers (les mails, les services hébergés, les fichiers de config…) et le contenu de bases de données (associées aux services hébergés).

Le système de sauvegarde doit conserver les archives durant un certain temps (par exemple 2 mois). En effet, un piratage ou une erreur de manipulation peuvent n’être détectés que quelques jours plus tard : il est important de pouvoir restaurer un état antérieur.

La sauvegarde doit être régulière (par exemple quotidienne).

Seule une infime partie des données étant modifiées d’un jour à l’autre, la sauvegarde a tout intérêt à être incrémentale.

Pour résister aux cambriolages, une sauvegarde doit être réalisée sur (au moins) une machine distante. Il est donc préférable que ces données soient chiffrées.

Duplicity

Vous l’aurez compris, duplicity répond à tous ces besoins.

Je ne vais pas expliquer tout ce qu’il sait faire, mais plutôt comment je l’utilise et pourquoi.

Mes choix d’utilisation

Sauvegarde locale

Personnellement, je n’effectue qu’une sauvegarde locale dans une tâche cron, c’est-à-dire que les fichiers de backups sont stockés sur le serveur lui-même.

En effet, une sauvegarde automatique vers un serveur distant, par SSH par exemple, nécessiterait une clé privée en clair sur le serveur. Cette configuration ne résisterait pas à certains piratages : une intrusion sur le serveur donnerait également accès aux sauvegardes, permettant à un pirate d’effacer à la fois les données et les backups.

C’est donc une autre machine, à l’initiative de la connexion, qui rapatrie les backups. Évidemment, elle ne doit pas synchroniser localement les backups supprimés du serveur (elle serait vulnérable à la suppression des backups par un pirate), mais doit plutôt supprimer les anciennes sauvegardes de sa propre initiative.

Chiffrement

Duplicity utilise GPG pour le chiffrement, permettant :

Le premier choix nécessite à la fois quelque chose que je possède (la clé, de forte entropie) et quelque chose que je connais (la passphrase, de plus faible entropie). Le second ne nécessite que la passphrase à retenir.

L’utilisation d’une clé privée autorise donc une meilleure sécurité, notamment si vous souhaitez envoyer vos backups sur un serveur américain.

Néanmoins, les backups sont surtout utiles lors de la perte de données, notamment dans le cas d’un cambriolage, où la clé GPG a potentiellement également disparu. Et les sauvegardes distantes ne seront d’aucune utilité sans la clé…
Il peut donc être moins risqué d’opter, comme je l’ai fait, pour une simple passphrase.

À vous de placer le curseur entre la protection de vos données et le risque de ne plus pouvoir les récupérer.

Installation

Sur une Debian :

sudo apt-get install duplicity

Fonctionnement

Duplicity effectue des sauvegardes complètes et incrémentales. Les sauvegardes incrémentales nécessitent toutes les sauvegardes depuis la dernière complète pour être restaurées.
Personnellement, j’effectue une sauvegarde complète tous les mois, et une incrémentale tous les jours.

Pour choisir le mode :

  • duplicity full … force une sauvegarde complète ;
  • duplicity incr … force une sauvegarde incrémentale (échoue si aucune complète n’est trouvée) ;
  • duplicity … effectue une sauvegarde incrémentale si possible, complète sinon.

Exemple (à exécuter en root pour avoir accès à tous les fichiers) :

duplicity / file:///var/backups/duplicity/ --include-globbing-filelist filelist.txt --exclude '**'

Duplicity va sauvegarder à partir de la racine ("/") tous les fichiers selon les règles d’inclusion et d’exclusion définies dans filelist.txt. Ce fichier contient simplement la liste des fichiers et répertoires à sauvegarder, ainsi que ceux à exclure. Par exemple :

/usr/local/bin/ /home/rom/Maildir/ /home/rom/.procmailrc - /var/www/blog/wp-content/cache/ /var/www/blog/

Attention : les fichiers et répertoires à exclure doivent apparaître avant l’inclusion d’un répertoire parent. En effet, duplicity s’arrête à la première règle qui matche un chemin donné pour déterminer s’il doit l’inclure ou l’exclure.

Pour restaurer :

duplicity restore file:///var/backups/duplicity/ /any/directory/

(utiliser l’option -t pour restaurer à une date particulière)

Pour supprimer les anciennes sauvegardes (ici de plus de 2 mois) :

duplicity remove-older-than 2M file:///var/backups/duplicity/ --force

Bases de données

Tout comme pour les fichiers, il est préférable de sauvegarder incrémentalement les bases de données (seule une toute petite partie des données change d’un jour à l’autre).

Une première solution serait d’utiliser la fonctionnalité-qui-va-bien de votre SGBD.

Mais si le contenu de vos bases de données ne dépasse pas quelques Go (ce qui est très probable pour de l’auto-hébergement), duplicity permet de faire beaucoup plus simple.

Il suffit en effet de générer un dump complet des bases de données vers des fichiers .sql et d’inclure leur chemin dans la liste des fichiers à sauvegarder. Et là, c’est magique, duplicity va ne sauvegarder que les parties de ces (gros) fichiers qui ont changées, grâce à rsync et à son algorithme qui utilise des rolling checksums.

Bien sûr, il ne faut pas compresser ces fichiers avant de les donner à manger à duplicity (sinon l’intégralité du fichier risque de changer) ; c’est lui qui va s’en charger. De même, il vaut mieux éviter d’inclure dans les fichies SQL des informations liées au dump, comme sa date de génération.

Pour exporter une base de données MySQL par exemple :

mysql -uroot -ppassword --skip-comments -ql my_database > my_database.sql

Script

Il reste donc à écrire un script qui exporte les bases de données et qui appelle duplicity avec la liste de ce qu’il y a à sauvegarder.

Voici un prototype, à sauvegarder dans /usr/local/bin/backup :

#!/bin/bash BACKUP_HOME=/var/backups TMP_DBDIR="$BACKUP_HOME/dbdump" BACKUP_DIR="$BACKUP_HOME/duplicity" MYSQLPW=mon_password_mysql PASSPHRASE=ma_passphrase_de_chiffrement_des_backups DATABASES='blog autre_base' FILELIST="/usr/local/bin/ /home/rom/Maildir/ /home/rom/.procmailrc - /var/www/blog/wp-content/cache/ /var/www/blog/ $TMP_DBDIR/" # databases mkdir -p "$TMP_DBDIR" for dbname in $DATABASES do printf "## Dump database $dbname...\n" mysqldump -uroot -p"$MYSQLPW" --skip-comments -ql "$dbname" \ > "$TMP_DBDIR/$dbname.sql" done # duplicity printf '## Backup using duplicity...\n' unset mode [ "$1" = full ] && mode=full && printf '(force full backup)\n' mkdir -p "$BACKUP_DIR" export PASSPHRASE duplicity $mode / file://"$BACKUP_DIR"/ \ --include-globbing-filelist <(echo "$FILELIST") --exclude '**' printf '## Delete old backups\n' duplicity remove-older-than 2M file://"$BACKUP_DIR"/ --force # backups are encrypted, we can make them accessible chmod +r "$BACKUP_DIR"/*.gpg # remove temp files rm "$TMP_DBDIR"/*.sql

Une fois configuré, ne pas oublier de tester : exécuter le script et restaurer les données dans un répertoire de test, puis vérifier que tout est OK. Cette vérification doit être effectuée de temps en temps : il serait dommage de s’apercevoir, lorsqu’on en a besoin, que les backups sont inutilisables ou qu’un répertoire important a été oublié.

Cron

Pour démarrer automatiquement une sauvegarde complète le premier jour du mois et une incrémentale tous les autres jours, cron est notre ami :

sudo crontab -e

Ajouter les lignes :

0 1 1 * * /usr/local/bin/backup full 0 1 2-31 * * /usr/local/bin/backup

La première colonne correspond aux minutes, la deuxième aux heures : le script sera donc exécuté à 1h du matin. La 3e correspond au numéro du jour dans le mois. Les deux suivantes sont le numéro du mois dans l’année et le jour de la semaine.

Il peut être préférable d’exécuter le script en priorité basse :

0 1 1 * * nice -15 ionice -c2 /usr/local/bin/backup full 0 1 2-31 * * nice -15 ionice -c2 /usr/local/bin/backup

Copies

Il ne reste plus qu’à effectuer des copies des fichiers de backups ailleurs.

À partir d’une autre machine, le plus simple est d’utiliser rsync (sans l’option --delete !) :

rsync -rvP --stats -h server:/var/backups/duplicity/ /my/local/backup/

Pour supprimer les anciens backups sur cette machine, c’est la même commande que sur le serveur :

duplicity remove-older-than 2M file:///my/local/backup/ --force

Conclusion

La génération de sauvegardes à la fois incrémentales et chiffrées, y compris pour les bases de données, font de duplicity une solution de backup idéale pour l’auto-hébergement.

Je l’utilise depuis plusieurs mois, et j’en suis très satisfait (même si je n’ai pas encore eu besoin de restaurer les backups en situation réelle).

À vos backups !

22

Il y a plusieurs semaines, nous avons appris que la NASA avait décidé de migrer les ordinateurs de la station spatiale internationale, de Windows à Debian GNU/Linux, plus stable et fiable que le système d’exploitation de Microsoft. Maintenant, c’est au tour de Ubuntu d’être à l’honneur.

En effet, à l’occasion du premier anniversaire de Curiosity sur Mars, la NASA a publié une vidéo de SAM, l’outil utilisé par le rover pour analyser les échantillons prélevés sur la planète. Dans cette vidéo, on voit que l’ordinateur utilisé pour communiquer avec Curiosity utilise Ubuntu. Le thème Adwaita ainsi que le gestionnaire de fenêtres.

Dans la même vidéo, on peut aussi voir qu’ils utilisent le logiciel de tracé de courbe en 2D et 3D Gnuplot.

source

Cet article La NASA utilise Ubuntu pour contrôler Curiosity est apparu en premier sur crowd42.

No related posts.

screencast

Final Term est un projet de terminal pour GNU/Linux, qui va changer sûrement l’idée et l’image qu’ont certains sur les interfaces des terminaux. Son auteur, Philipp Emanuel Weidmann, s’est beaucoup inspiré des IDE et le résultat est bluffant, bien que l’application soit encore qu’à ses débuts .

Parmi les fonctionnalités qui m’ont séduit dès les premières captures d’écran que j’ai vu, il y a la complétion automatique des commandes, via l’historique de ceux déjà exécuté. Très pratique si on veut éviter de ressaisir des longes lignes de commandes.

autocompletion

Quand vous listez les éléments d’un répertoire, si vous cliquez sur fichiers ou dossiers, une boite de dialogue s’ouvre, vous présentant quelques commandes que vous pouvez exécuter (copier/coller, copier le nom du dossier/fichier, déplacer, suppression…).

L’autre fonctionnalité qui m’a vraiment plu, c’est la capacité de Final Term de prendre correctement en charge le texte affiché dans votre terminal que vous redimensioner ce dernier.

reflow

Bref, c’est juste un petit aperçu des nombreuses fonctionnalités qu’offre Final Term, je ne les ai pas toutes cité, les curieux peuvent se rendre sur le site du projet et les découvrir, où ils peuvent installer Final Term. Pour Ubuntu, un dépôt PPA a été mis en place par le développeur de l’application :

sudo add-apt-repository ppa:finalterm/daily
sudo apt-get update
sudo apt-get install finalterm

Pour les autres distributions, il existe des explications sur la procédure d’installation depuis les sources sur la page github du projet.

Cet article Essayez Final Term, un terminal très moderne est apparu en premier sur crowd42.

No related posts.

12 Août 2013 à 01:35

XBMC porté sur Mir via Ubuntuser

Sam Spilsbury, connu pour avoir été l'un des principaux développeurs du gestionnaire de fenêtres Compiz, a récemment travaillé au portage du centre multimédia XBMC sur Wayland et Mir, les deux nouveaux serveurs graphiques. Alors que le développement de Wayland et Mir continue d'avancer rapidement ces derniers mois en vue des premiers usages d'ici à la fin d’année, les développeurs s'activent également sur les backends pour prendre en charge toutes les applications. À titre de rappel, les applications ont besoin de communiquer avec le serveur graphique et, pour cela, il est nécessaire de développer ce que l'on appelle un back-end qui va faire la liaison entre eux. Toutefois, dans la majorité des cas, les applications sont développées à l'aide de bibliothèques logicielles existantes (telles GTK+, Qt, EFL...). Une fois que ces bibliothèques disposent d'un backend, les applications deviennent par conséquent compatibles avec les serveurs graphiques en question. Que ce soit sur Wayland ou Mir, différents backends sont en cours de développement, entres autres SDL -- populaire dans le monde du jeu video --, Qt et GTK+. Mais pour certaines applications qui ne reposent sur aucune bibliothèque du genre, il est nécessaire de réaliser un backend spécifique ; c'est le cas de XBMC. Sam Spilsbury s'est donc attaqué au portage de XBMC en deux versions : l'une compatible avec Wayland et l'autre compatible avec Mir. Dans les deux cas, le travail n'a pas posé de problème majeur. Selon lui, Mir et Wayland sont assez semblables, et la création d'un backend pour ces deux serveurs graphiques ne pose pas de soucis particulier. Toujours selon Sam, certaines spécificité de Mir pourraient être intéressantes en ce qui concerne la gestion des multi-tâches. Il nous promet quelques expérimentations sur ce sujet prochainement. Source : Experiencing the Mir client API

android-hero

Parmi les projets initiés par Canonical récemment, il y a le très attendu Ubuntu pour Android (à ne pas confondre avec Ubuntu Touch). Comme son nom le laisse suggérer, il permet de faire tourner Ubuntu sur les smartphone android. L’autre grand avantage d’Ubuntu pour android, c’est qu’une fois votre téléphone branché à un dock et une télévision, vous disposez d’un vrai environnement de bureau. Comme si vous travaillez sur votre ordinateur de bureau.

Mais voilà, Ubuntu pour android risque de ne jamais sortir. C’est du moins ce que j’ai compris par un post d’un des trois développeurs de Canonical, qui participaient à une session AMA sur reddit. D’après eux, le sort de Ubuntu pour android est lié à Ubuntu Edge, si la campagne de collecte de fond n’atteint pas l’objectif des 32.000.000 de dollars, le premier ne verra pas le jour !

Personnellement, et si ça avère vrai, je trouve ça con. Abandonner un projet aussi prometteur que Ubuntu pour Android, serait vraiment idiot de la part de Canonical.

Cet article Ubuntu pour android pourrait ne jamais voir le jour est apparu en premier sur crowd42.

No related posts.

Premiers pas avec Ubuntu 13.04 - CouvertureLes traductions sont au cœur de la philosophie Ubuntu :

  • chacun doit avoir la liberté de télécharger, exécuter, copier, distribuer, étudier, partager, modifier et améliorer le logiciel ;
  • chacun doit avoir l’opportunité d’utiliser le logiciel, même en cas de handicap ;
  • chacun doit avoir le droit d’utiliser le logiciel dans la langue de son choix.

C’est pour cela qu’aujourd'hui nous sommes heureux et fiers de vous annoncer la sortie de la version française du célèbre Manuel Ubuntu pour Ubuntu 13.04. Le manuel vous fournit de manière claire et structurée tout ce dont vous avez besoin pour débuter puis progresser avec Ubuntu. Le Manuel Ubuntu est aussi la garantie d’instructions pas à pas qui marchent, testées et intégralement en français, sans barbarismes ni mots incompréhensibles.

Pour résumer les avantages du manuel :

  • facile à appréhender – notre manuel comprend des instructions pas à pas et est dénué de jargon technique ;
  • une illustration vaut bien mieux qu’une longue description – beaucoup de captures d’écran illustrent les instructions ;
  • tout au même endroit – vous n’avez pas à parcourir le Web pour trouver de l’aide car tout se trouve dans un seul fichier ;
  • apprentissage progressif – démarrez avec les bases et apprenez au travers des différents chapitres ;
  • des dizaines de langues – traduit en plus de 52 langues, y compris des copies d’écran localisés ;
  • sous licence CC-BY-SA – téléchargez, modifiez, reproduisez et partagez autant que vous voulez ;
  • aucun coût – nos documents sont tous rédigés par des membres de la communauté Ubuntu et leur utilisation est gratuite ;
  • imprimable – cette version est optimisée pour l’impression afin de sauver les arbres ;
  • section de diagnostic des problèmes – pour vous aider à régler rapidement les problèmes courants sous Ubuntu.

 

Télécharger le Manuel

Télécharger le manuel (13.04)

Liens directs : Ecran - Impression


Commander une version papier (13.04) sur CreateSpace (4,62 $ + frais de port)

Commander une version papier sur amazon.fr (13.04) (indisponible pour le moment)

Contribuer à la traduction d’Ubuntu et de sa documentation

 

 

07 Août 2013 à 07:06

Installer Libreoffice 4.1 sur Ubuntu via crowd42

Depuis quelques jours, La Document Foundation a publié la toute dernière version de sa suite bureautique LibreOffice. Cette nouvelle mouture apporte quelques nouveautés,mais elle corrige surtout plusieurs bug, 3000 en total.

Parmi ces bugs corrigés, il y a l’amélioration de l’interopérabilité avec les formats fermés (faut le rappeler sans cesse) de Microsoft Office. Ce qui ne peut que faciliter l’adoption de LibreOffice dans le monde professionnel.

Concernant les nouveautés, la plus importante est à mon avis l’intégration de la barre d’outils latérale issue du travail des développeurs d’OpenOffice. Il faut toutefois signaler que l’implémentation est encore en stade expérimental, attendez vous donc à quelques bug ou dysfonctionnement.

Pour les ubunteros qui souhaitent installer cette version de LibreOffice, c’est faisable en ajoutant le dépôt PPA du projet. Cependant, si vous avez une autre version installée, désinstallez avant de commencer.

sudo add-apt-repository ppa:libreoffice/ppa
sudo apt-get update
sudo apt-get install libreoffice

Pour plus de détails sur les nouveautés de cette version, je vous recommande la visite de cette page.

Cet article Installer Libreoffice 4.1 sur Ubuntu est apparu en premier sur crowd42.

No related posts.

Le client P2P renommé Transmission, installé par défaut sur Ubuntu, dispose d'une version «headless» que l'on peut installer sur un serveur sans interface graphique.

Ce daemon permet de récupérer des images ISO depuis un serveur, et est gérable depuis une interface Web. Le problème c'est que, quand on ajoute un .torrent, tout est sauvegardé par défaut dans un seul dossier.

Sauf que moi, j'aime bien que mes image ISO soient bien triées dans plusieurs dossiers, du coup ça me les casse un peu de devoir tout redéplacer après parce que (1) c'est chiant à faire, (2) si on le fait, ça implique de devoir arrêter de seeder les fichier, et (3) si on veut seeder, il faut avoir le fichier à 2 endroits différents.

Du coup, je me suis penché un peu plus sur le truc, et j'ai découvert qu'il existait un outil qui permet de gérer plus finement Transmission, directement depuis la ligne de commande.

Cet outil, c'est transmission-remote, disponible dans les dépôts de toute bonne distrib' GNU/Linux.

Je ne vais pas détailler tout le machin, pour ça vous avez le man, je vais juste donner la commande permettant de lancer un téléchargement sur un serveur distant (en passant par le service Web) à partir d'un .torrent, tout en fixant un répertoire de destination différent de celui par défaut.

transmission-remote server:9091/transmission/ -a fichier.torrent -w /repertoire/de/destination/ -n user:password
  • server:9091/transmission/ : URI du service Web de transmission
  • -a fichier.torrent : Fichier .torrent
  • -w /repertoire/de/destination/ : Répertoire de destination, sur le serveur distant
  • -n user:password : login et mot de passe de connexion au service Web

Pages