Herr über meine Daten sein.

Ein Argument, welches mich bestärkt hat, mein Blog zu Tumblr umzuziehen, ist dessen API, die einen leichten und (nahezu?) vollständigen Zugriff auf meine Daten zulässt. Das war sehr hilfreich beim Import der Blogbeiträge aus den letzten 6 Jahren und beim Veröffentlichen von Blogposts aus den verschiedensten 3rd-Party-Anwendungen auf dem Mac oder iOS-Geräten. Auch fühle ich mich sehr wohl bei dem Gedanken, mein Blog nicht selbst zu hosten, aber trotzdem Herr über meine Daten zu sein.

Nun habe den letzten fehlenden Baustein hinzugefügt und ich mir ein Backup-Skript gebaut, mit dem ich alle Blogbeiträge in meine lokale Notizensammlung (das hat Markus Jasinski ausführlich beschrieben) kopieren. Damit schlage ich (mindestens) zwei Fliegen mit einer Klappe: Ich kann mit dem Blog jederzeit woanders hin ziehen und habe alle Blogbeiträge auf lokalen Platte. Sie sind damit offline zur Hand und dank Spotlight und nvALT im schnellen Zugriff.

Das Script findet sich bei Github, die Doku auch.

Mit dem folgenden Befehl werden alle Posts und angehängte oder eingefügte Mediendateien in den nvALT-Notizenordner kopiert. Alle Markdown-Posts erhalten die Erweiterung „txt“ und Image-URLS bekommen den path „images/“:

clone_tumblr.py -I 'images' -d ~/myCloud/Notes -p . -e txt

Backup erledigt. Ich führe dieses Skript ungefähr monatlich aus.

Sollte Tumblr mal anfangen zu „stinken“ oder von Größeren geshoppt werden, dann werden die Posts in die nächste Blog-Software gekippt, die Domain umgezogen und es kann weiter gehen. Hier mein Testfall mit der Blog-Software Pelican:

clone_tumblr.py -I '/pictures' -d ~/Projects/blog/ -p content -i content/pictures

Diesmal kommen die Posts in den Ordner „content/“ in dem Projekt, die Bilder in einen Unterordner „content/images/“.

PS: Was machen wir eigentlich, wenn GitHub eines Tages anfängt zu stinken?

PS2: Diesen Post habe ich speziell für Ingo geschrieben. 😉