Amazon-Shoppen und Gutes tun

Wie ich gerade gelesen habe, nimmt der Rett-Verein am Partnerprogramm von Amazon teil. Das bedeutet, dass eine so genannte Provision ausgezahlt wird. Da ich sehr zufriedener Amazon-Shopper bin, möchte ich dies mal an andere weitern geben.
Kostet nichts, man sollte nur vor dem Shopping über folgenden Link gehen: www.rett.de und dort dann über den Amazon-Banner auf die Amazon Seite gehen.

Also vor dem nächsten Kauf dran denken und somit eine gute Tat vollbringen.

Hier noch mehr Informationen im Rett-Forum: Link zum Forum

Google Sites als Webseite

Vor längerer Zeit habe ich von Google Sites gelesen, was eine Art Wiki ist. Für das Gymnasium Alsdorf habe ich das vorgeschlagen und freigeschaltet. Nachdem ich Monate nichts davon gehört hatte, stieß ich irgendwann auf ein vollständiges Wiki, welches ein Lehrer aufgebaut hatte. Ich war beeindruckt und als Freund der Google Apps for your Domain wollte ich es auch einmal nutzen. Mein altes Dokuwiki habe ich gegen mein privates Wiki getauscht, um wichtige Links zu sammeln und einfach editieren zu können.

Schon vor zwei Monaten bekam ich dann die Anfrage für den Dalton-Verein des Gymnasiums eine neue Plattform einzurichten. Diese sollte einerseits aus der E-Mail-Komponente bestehen und andererseits ein Wiki bieten. Hat man die Domains unter seiner Kontrolle (CNAME-Records), so kann man sehr nette Sachen mit Google Apps for your Domain und Google Sites einrichten. Denn man kann z.B. auf den www-CNAME einen bestimmten Wiki-Teil setzen. Gibt man diesen frei, hat man ein nettes Wiki online, welches eine gute Account-Verwaltung bietet.

Insgesamt bin ich mit dem Wiki zufrieden. Es hat zwar keine Wiki-Syntax, sondern nur WYSIWYG. Das macht das Editieren etwas langsamer, aber ist bei dem Textumfang akzeptabel. Freigeben kann man leider nur komplette Sites. Das ist etwas Schade, aber wenn ich an andere Systeme denke, normal. Export und Import gibt es auch keinen. Das habe ich schmerzlich gemerkt, als ich dann doch mal eine Site zu einer anderen Domain umziehen wollte.

Aber eigentlich will ich mit dem Artikel etwas besonderes bekannt geben: Meine Schwester hat jetzt eine Webseite unter www.ann-jasmin.de. Sie ist zwar schwer behindert und wird diese nicht selber editieren, aber trotzdem kann eine Webseite sehr hilfreich sein.
In die Betreuung meiner Schwester sind sehr viele Personen eingebunden. Meine Eltern, die Werkstatt, das Heim und ich. Es gibt sehr viel abzustimmen und im Februar steht für sie ein Wechsel des Heimes an. Ärzte, Medikamente, Betreuung, Kontaktdaten der Institutionen, … was bietet sich da besser an, als ein Wiki. Bei agimatec hat es sich bestens bewährt. Keine komplexen Anwendung zur Urlaubsverwaltung, keine Applikation zur Verwaltung von Kontakten – just Wiki.
Ich bin sehr gespannt, ob die Personen und meine Eltern damit klarkommen, aber es eröffnet viele Möglichkeiten.

Ideen und Vorschläge zu www.ann-jasmin.de gerne in die Kommentare.

Latex

Wegen einer Anfrage habe ich meine Diplomarbeit hervorgekramt. Beziehungsweise diese in einem alten Subversion-Repository gefunden, denn die Sourcen hatten die Neuinstallationen irgendwie nicht überlebt. Froh die Sourcen zu haben, wollte ich auf dem Mac mal schnell das PDF sehen. Achso, war gar nicht als PDF eingecheckt. Das ist ja ok, weil man seine Binaries nicht unbedingt ablegt (diese können ja wieder generiert werden).
Ein Word-Dokument hätte ich jetzt einfach in Open Office geöffnet. Aber Latex ruft den guten Bastlergeist an. Erst mal etwas Latex-artiges herunterladen und installieren. Ok, gesagt getan, aber so einfach ist das dann nun auch mal wieder nicht. Das Dokument ist in verschiedene Unterordner aufgeteilt, die ich mit den Makros des neuen Editors erst einmal nicht zum Laufen bekomme.
Wie schön wäre jetzt ein eingechecktes Buildskript. Aber ich habe mich damals noch auf die Magie des Latex-Plugins von Eclipse verlassen. Keine gute Idee, um mal schnell eine Version der Diplomarbeit zu generieren. Nach 1,8GB Installationsdateien, sollte ich jetzt aber mal endlich ein PDF im Vorschau-Programm zu sehen bekommen.

Remember the tab

Gerade kam ich wieder in den Genuß eines tollen Firefox-Features, was nicht kompatibel zu Kontaktformularen ist.
Zurück zum Anfang der Geschichte. Bei einem wichtigen Anliegen, gab es mal wieder keine andere Möglichkeit als ein Kontaktformular. Also brav mein Anliegen formuliert und abgesendet. Die Bestätigungsseite kam und zum Weitersurfen habe ich natürlich weitere Tabs im Firefox verwendet. Eine Minute später kam auch die Bestätigung per E-Mail, dass das Kontaktformular erfolgreich abgesendet wurde und demnächst bearbeitet wird.
Firefox beendet und beim erneuten Start gemerkt, dass alle 10 Tabs wiederhergestellt wurden. Gut, habe ich so eingestellt, weil beide Varianten nerven. Entweder alle Tabs weg oder alle 10 Tabs wiederhergestellt. Vielleicht wäre ein Flag praktisch, dass man den wichtigen Tabs mit auf den Weg gibt. Nachdem ich mich durch die ersten Tabs mit CMD+W gekämpft habe, stelle ich fest, dass mir die frohe Botschaft: Ihre Nachricht wurde versendet entgegenlächelt. Eine Minute später ist auch die E-Mail im Posteingang.
Unschön, vorallem hoffe ich, dass die Bearbeitung nicht im Round-Robin-Verfahren erledigt wird und ich auch zwei Antworten erhalte.
Wer hat Schuld? Im Zweifel der Anwender, ist aber zu einfach. Firefox, naja, warum muss der auch die POST-Parameter abspeichern. Reicht es nicht, GET-Anfragen erneut zu senden? Nach der Spezfikation verändern POST-Parameter den Status auf dem Server. Von daher ist das unglaublich ungeschickt. Man stelle sich eine Anwendung vor, die Items nicht per Id, sondern per Index löscht. Dreimal im Firefox wiederhergestellt, dreimal das erste Item gelöscht. Aua – verdammt unschön.
Und was macht die Web-Anwendung? Sie hätte ein Token mitgeben können. Somit wäre zumindest das mehrfache Versenden unterbunden. Ist im Zusammenhang mit POST immer eine gute Idee. Gerade bei Abwehr von Cross Site Request Forgery (CSRF) sollte man sich richtiges Token-Handling mal ansehen.
Also haben wir nicht einen Übeltäter, sondern gleich drei:

  • Der Benutzer, der seine Tabs nicht ordnungsgemäß schließt
  • Firefox, der POST-Parameter erneut sendet
  • Die Web-Anwendung, die nicht genügend Überprüfungen hat

Wie behebt man das Problem am besten?
In dem man Kontaktadressen anstatt Formularen anbietet. Bitte liebe Webseiten-Auftraggeber: kein Kontaktformular, die sind die Pest schlecht hin. Neben meinem Problem sind das herrliche Einfallstore für Spam aller Art. Gibt man eine E-Mail-Adresse an, gibt es genügend fähige Filter, um Spam recht zuverlässig auszusortieren. Wie wertet man aber das Kontaktformular aus? Ein schönes Skript kann ein paar Tausend Einträge hinterlassen. Wie Filtern? Wie Gutes vom Schlechten trennen? Ah, wir sind bei Captchas. Toll, sehr benutzerfreundlich. Achso, kaum lesbar, na dann runter mit dem Störungen. Oh, jetzt gibt es doch wieder Spam-Attacken, weil es sich um eine wichtige Webseite handelt oder die verwendete Library schon gut genug von Spammern und deren OCR trainiert wurde. Es ist die Pest. Warum sollte man sich diese an den Hals holen, wenn man für die Bereiche E-Mail-Adressen hinterlegen kann. 99% der User kommen damit super klar (herrlich pauschalisiert). Man hat diese in seiner Mail-History und eine abgelaufene Session innerhalb eines Login-Bereiches führt nicht dazu, dass eine lange Kontaktabfrage einfach mal so verloren geht.
Ja, es gibt Bereiche wo es notwendig ist. Wo es aber nicht sein muss, gebt dem Nutzer zumindest die Wahl.
Amen.

Backup

Vor kurzem hatte ich von den tollen Möglichkeiten von wget berichtet. Mittlerweile läuft mein Backup und für alle interessierten will ich noch meine Lösung in den Blog stellen.
Wer Wunder oder fantastische Shell-Skripting-Lösungen erwartet ist sicherlich falsch, aber es geht ja auch nur um Backups.
Ziel war das Backup von Webspace, bei dem nur FTP zur Verfügung steht. Zusätzlich habe ich mir noch lokal MySQL installiert und kann nun auch die Datenbanken entfernt sichern. Einfacher als lokale Perl oder sonstige Skripte (meiner Meinung nach).

Erst einmal das Skript:

#!/bin/bash
cat sites.lst | while read line; do 
        if [ '#' != `echo $line | cut -c 1,1` ]; then
                echo $line
                wget -mirror -X=log,logs,usage,cgi-bin ftp://"$line" -P page 
        fi
done

cat db.lst | while read line; do
        if [ '#' != `echo $line | cut -c 1,1` ]; then
                hostname=`echo $line | cut -d: -f1`
                user=`echo $line | cut -d: -f2`
                password=`echo $line | cut -d: -f3`
                db=`echo $line | cut -d: -f4`
                filename=`echo $line | cut -d: -f5`
                mysqldump -h $hostname -u$user -p$password $db > 
                    database/$hostname-$filename.sql
        fi
done

Als Input dienen zwei Dateien (sites.lst und db.lst), die folgendes Format haben.

sites.lst

USERNAME:PASSWORD@HOSTNAME

db.lst

HOSTNAME:USERNAME:PASSWORD:DATABASE:FILE_DESCRIPTION

Wer es hilfreich findet, kann gerne einen Kommentar hinterlassen. Würde mich freuen zu hören, ob noch jemand diese Art der Lösung mag.

909

Nachdem ich mir nun zum zweiten Mal einen Beat mit dem JS-909(Javascript) zusammengeklickt habe, wollte ich euch daran teilhaben lassen (leider sind keine permanent Links für Beats möglich).

Woher kommt das 909? Vom Roland Tr-909

Zeitlos

Daft Punk auf jeden Fall, bei Charleston bin ich mir noch nicht so sicher, wobei einige Elemente wohl immer wieder auftauchen, wie auch das danach folgende Video beweist:

Kino-Tipp gefällig

Den Abend habe ich mit dem Film Willkommen bei den Sch’tis ausgefüllt. Eine französische Komödie, die dort die Kinosäle gefüllt hat. Hier heute Abend zwar nicht, dass hat dem guten Humor aber keinen Abschlag getan.

Wer sich also mal eine nette Komödie anschauen will: reingehen!

Es läuft noch – diesmal: Halbmarathon

Es war wieder soweit, nach meiner Entscheidung gegen einen weiteren Marathon im Jahr 2008, stand heute der Halbmarathon auf dem Plan. Das Wetter sollte Bescheiden werden und hielt sein Wort. Diesmal ohne Voranmeldung fuhr ich etwas früher los, um mich nachzumelden. Früh genug in Kohlscheid angekommen, hatte ich somit direkt meine Startnummer für den Aixrun. Im Gegensatz zu dem Großteil meiner Läufe, war der Lauf eher mit einer geringeren Zahl an Läufern besetzt. Ein Großteil nahm an dem 5km Lauf teil, der fast zeitgleich stattfand. So langsam füllte sich dann auch der Raum, wobei Läufer schon eine besondere Spezies sind. Erkennbar an der Masse an Trainingsjacken und komischen Mützen könnte man es fast als Subkultur bezeichnen. Ein besonderer Glaube muss ja auch dahinter stecken, denn wer bei dem Wetter einen Fuß vor die Tür setzt ist entweder hart gesotten oder eben überzeugter Läufer.

Meine Zweifel zu starten waren gering, hatte ich doch den Heimatbesuch extra auf den Termin gelegt. Trotzdem fragt man sich: warum? Ist der Sinn des Lebens doch zu lang für dieses Blogpost, so fragt man sich trotzdem, warum laufe ich im strömenden Regen bei 10° über matschige Feldwege.

Bei diesem Lauf hat sich die Motivation etwas verschoben, da ich zu diesem Lauf keinen besonderen Bezug hatte. Weder erwartete ich Zuschauer, noch kannte ich Läufer, noch erwartete ich eine besonders schöne oder interessante Strecke. Diesmal ging es primr um Trainingsmotivation und vielleicht um Finisher-Gefühl. Gerade in der dunklen Jahreszeit verschiebt man das Training auf den nächsten Tag, wo es bestimmt später dunkel wird. Glaube mag zwar Berge versetzen (wer dran glaubt), aber bisher kam in den Wintermonaten keine Erleuchtung (jeglicher Art). Somit ist das Gefühl einen Halbmarathon im Nacken zu haben, doch ein Grund die Laufschuhe auch bei widrigeren Bedingungen anzuziehen. So bleibt man zumindest auf einem Level und muss nicht im Frühjahr bei 0 beginnen. Der zweite Grund ist das Gefühl es nach 1:52h über den Zielstrich zu schaffen. Nicht die Zeit zählte diesmal, sondern der Beweis trotz des Wetters und Unbehagens den Schweinehund zu besiegen und glücklich im Ziel zu stehen. Vermutlich wesentlich billiger, als die Befriedigung durch ein Shopping-Erlebnis oder Elektronikspielzeug zu erhalten – vom guten Körpergefühl ganz zu schweigen.

Hatte ich schon erwähnt, dass mir das Wetter gar nicht liegt. Ich glaube ich bin Schönwetterläufer und solange es nicht zu heiß ist, mag ich die Wärme. Zumindest habe ich meine besten Zeiten in diesem Jahr bei brennender Sonne hingelegt. Ullrich-Wetter eben, nur ohne Berge und Rad. Zumindest hat es mich nicht so zerlegt, wie beim Köln-Marathon. Für mein Trainingspensum war die Zeit wirklich ok. Jetzt hoffe ich für den Silvesterlauf noch an Fahrt zu gewinnen und werde ein paar Tempopassagen mehr ins Training einbauen. Da geht es dann doch noch mal um die Zeit, denn es soll die 45min Marke fallen. Vielleicht sollte ich mir wirklich mal einen Trainingsplan zulegen.

Mit dem Motte: Scheiß auf den Weg, das Ziel ist das Ziel – freue ich mich auf den nächsten Lauf.

Vielen Dank

Beim Durchlesen meiner Blogs treffe ich gerade auf folgenden Artikel auf Golem: „Bundestagsabgeordneter lässt Wikipedia.de abschalten„. Welches Datum haben wir? 15.11. also nicht April. Bestimmt eine Fehlmeldung, die sich schon erledigt hat – weit gefehlt.
Die Eingabe von wikipedia.de bringt folgenden Text zutage:

Mit einstweiliger Verfügung des Landgerichts Lübeck vom 13. November 2008, erwirkt durch Lutz Heilmann, MdB (Die Linke), wird es dem Wikimedia Deutschland e.V. untersagt, „die Internetadresse wikipedia.de auf die Internetadresse de.wikipedia.org weiterzuleiten“, solange „unter der Internet-Adresse de.wikipedia.org“ bestimmte Äußerungen über Lutz Heilmann vorgehalten werden. Bis auf Weiteres muss das Angebot auf wikipedia.de in seiner bisherigen Form daher eingestellt werden. Der Wikimedia Deutschland e.V. wird gegen den Beschluss Widerspruch einlegen.

Komisch Google.de funktioniert noch, trotzdem man dort auch einen Link auf die Seite findet. Wer Google nicht bemühen möchte, kann gerne die Links de.wikipedia.org oder direkt den Link zur Seite von Lutz Heilmann nutzen.

Im Moment kann ich nur mit dem Kopf schütteln. Millionen Menschen nutzen Wikipedia und einigen davon ist sicherlich der Zugang auf sehr viel sozial erstelltes Wissen genommen worden. Nicht alle werden die eigentliche Wikipedia.org Adresse kennen oder ersuchen. Ich Frage mich gerade was mit der Freiheit des Internets passiert.

Eine Suche bei Google bringt übrigens folgenden Leser-Artikel der Zeit zu dem Thema hervor.