Du hilfst mir, nach einem harten Tag abzuschalten.
Du vertreibst meine Sorgen und Probleme.
Du zauberst durch bloße Anwesenheit ein Lächeln auf meine Lippen.
Du gehst mit mir durch dick und dünn.
Du bist für mich da, wenn ich dich brauche.
Du lässt es zu, von mir geliebt zu werden.
Du… bist mir leider noch nicht begegnet.

Aber wo immer du auch bist - es wird Zeit, dass wir uns kennen lernen.

Tag 2 fing schleppend an. Die Tischtennis-Aktion nach dem Go-Kart-Fahren und endlose Diskussionen über Gott, die Welt und ihre Probleme danach zogen sich bis weit in die Nacht. Dementsprechend schwer fiel es mir, dem Wecker Beachtung zu schenken. Nach einigem Zögern schaffte ich es dann aber doch noch zum Frühstück - und schlagartig wurde die Laune besser. Es gibt kaum etwas besseres, als mit Geeks zu frühstücken. Es wurde sich über Tech-Themen unterhalten, es wurde mit dem angebrachten Zynismus ob der frühen Stunde gewitzelt und jede Menge Kaffee vernichtet.

Dann - schon mit einem halbwegs wachen Lächeln auf den Lippen - auf in den Schulungsraum. Heute auf dem Plan: vormittags ein wenig Regex. Spannendes Thema, allerdings wurde es nur angerissen und mehr als ich tagtäglich in vi und sed damit rumspiele kam nicht zur Sprache. Ich sehe allerdings ein, dass eine Regex-Schulung alleine schon mehrere Tage beanspruchen könnte und dann immernoch nur an der Oberfläche gekratzt wurde.

Und dann ging es so richtig los. Der Netzwerk-Stack kam auf den Plan. Und für jede Schicht aus dem OSI-ISO Modell gibt es Tools, die ein Linux-Admin kennen sollte. Wie wir einen wirklich umfangreichen Abriss von arp, ifconfig, netstat, nmap, traceroute, ping, netcat, wireshark und diversen anderen tools in nur vier Stunden geschafft haben, ist mir immernoch ein Rätsel - Fakt ist, dass es funktioniert hat. Egal welches Protokoll, egal welche Schicht, egal welche Anforderungen an die Analyse: Für alles gibt es Tools unter Linux, die so verdammt mächtig sind, dass man Angst bekommen und spontan sehr paranoid werden könnte - gut für mich, dass ich wenigstens einige davon jetzt mal in Aktion gesehen und verstanden habe.

All diese Tools ließen wir in den letzten Stunden des Schulungstages dann auch an einem selbst aufgebautem Netzwerk zum Einsatz kommen, um zum krönenden Abschluss mit bind die Mutter aller Nameserver kennen und konfigurieren zu lernen. Viel Input also für einen Tag - aber Byte für Byte nützlich für die tägliche Arbeit als Admin.

Das Abendprogramm fiel dann heute sehr entspannend aus: Abendessen, ein wenig Tischtennis, ein Besuch der hoteleigenen Sauna, ein paar Bier und jede Menge Gespräche mit den anderen Schulungsteilnehmern und Dozenten. Heute gehts dann mal früher ins Bett - nicht dass ich morgen wieder mit dem Wecker hadere… ;)

Gruß aus Essen,
Euer Chi

Die Nachmittagsveranstaltung… Herrlich… Ein Dozent, der sich Trainingseinheiten aus den Fingern saugt und erst mitten drin merkt, dass das eigentlich doch voll am Ziel der Übung vorbei schießt. Das Ganze gewürzt mit jeder Menge Humor, gab es dann doch noch so richtig Input zum Thema Prozesssteuerung mittels Signalen, strukturierter “Programmierung” in der Bourne Again Shell (bash) und Datei-Verwaltung mittels Shell-Filtern. Fazit des heutigen offiziellen Teils: Mehr als eine Bash braucht man nicht, um die ganze Welt zu beherrschen - man muss nur richtig mit der Zicke umzugehen wissen. ;) Das wurde zum Abschluss der Veranstaltung heute auch eindrucksvoll bewiesen: Eine Zeile Sonderzeichen - nicht mal der Dozent wusste genau, was der Befehl bewirkt - reicht, um den Rechner instantan in den Tiefschlaf zu versetzen - nur noch ein Hard Reset verschaffte Abhilfe. Ein hervorragender Abschluss eines hervorragenden Schulungstages.

Nach einem zünftigen Abendessen (All inclusive fetzt, erwähnte ich das bereits?) begann dann das Rahmenprogramm. Leider leider (Vorsicht, Ironie) musste die Führung durch das Eisenbahnmuseum wegen Krankheit ausfallen. Das Ersatz-Event: Go-Kart-Fahren! Yeehaw!!! 20 Minuten über die Piste heizen rockt ungemein. Zwar hab ich jetzt Arme wie Gummi, aber hey - irgendwas is ja immer.

Nu trink ich noch mein Bierchen zu Ende, und dann werden die Tischtennis-Tische ausprobiert. Mal sehen, ob ich das noch kann ;)

Bis morgen und Grüße aus Essen,
Euer Chi

Ja, auch ich schreibe mal wieder. Diesmal aus Essen. Hier bin ich im Linuxhotel auf der Schulung “Linux Administration für Fortgeschrittene”.

Schon der erste Abend war faszinierend. All inclusive hat echt was für sich. Die Hotelanlage ist riesig und richtig schön gemacht. Es gibt überall Parkanlagen und noch viel wichtiger: auf dem gesamten Gelände WLAN. Schon bei meiner Ankunft saßen im Kaminzimmer jede Menge Leute - und nach kurzem Lauschen nach den Gesprächsthemen wusste ich, dass ich hier richtig bin. Alles Freaks! Nachdem eine hitzige Debatte zum Thema Openoffice versus Microsoft Office geführt war, begann man sich vorzustellen und kennen zu lernen. Unterstützt wurde das ganze durch das zur Verfügung stehende Bier in der Bar.

Irgendwann muss es dann aber auch mal ins Bett gehen, worauf hin ich mich in mein halbes Doppelzimmer zurück zog. Mit meinem Zimmergenossen - einem Netzwerker von Ex-T-Online - noch ein wenig gefachsimpelt, wurde es dann gegen Mitternacht wirklich mal Zeit zum Schlafen.

Heute also der erste Tag der Schulung. Bisher gab es Bash auf die Mütze (daher auch der Titel “Bash ist eine chillige Zicke”, übrigens ein Original-Zitat vom Dozenten) - erstmal nur die Grundlagen. Gleich nach der Mittagspause gehts dann los mit scripten. Ich freu mich schon. Das wird bestimmt ne tolle Woche!

Später mehr von mir - ich muss zurück in den Schulungsraum.

Das war er nun, der letzte Tag der Vielmehr 2008. Organisatorisch anders als die vergangenen beiden, es gab keine Keynote vor den Vorträgen sondern erst eine zum Konferenzabschluss.

Den Auftakt bei mir bildete wie bereits kurz angerissen die Reihe UP/V15 Kurzvorträge zu Methoden und Prozessen. Da ich mal wieder etwas zeitnah kam war kein Sitzplatz mehr frei und ich musste im Seminarraum an der Rückwand stehen oder sitzen. Das war aber nicht weiter schlimm, die Akustik war sehr gut und auch die Folien konnte man verstehen, der Andrang hat mich allerdings etwas überrascht. Auf den Inhalt der Vorträge möchte ich nicht eingehen, es waren jeweils nur achtminütige Kurzvorträge mit einer Zusätzliche Posterpräsentation im Anschluss und für mich nicht genug Einblick boten, das Thema hier unverfälscht wiederzugeben. Einige Methoden und Ansätze klangen für mich als Ahnungslosen aber plausibel, bewerten kann ich sie aber nicht. Bei einigen Vorträgen kam bei mir aber die Fragestellung auf, “Worauf genau will der Vortragende eigentlich hinaus?”. Das mag durchaus aber an meinem Vorwissen liegen, denn an den Fragen ließ sich erkennen, dass es durchaus Aussagen gab. Zu Beginn der Posterdiskussion bin ich dann aber gegangen, da ich mich an dieser nicht beteiligen wollte und konnte. Am Kaffeestand habe ich mich kurz mit Silke Lotterbach von 5gestalten unterhalten. Das interessante Gespräch hätte ich gerne fortgesetzt, aber da wir beide zu unterschiedlichen Vorträgen wollten und nur noch wenig Zeit blieb, mussten wir leider abbrechen.

Für mich ging es in den Hörsaal 3 zu MC/V14, benutzermodellierung und Adaptivität. Dort gab es zwei Vorträge, der Erste wie bereits erwähnt zu den Benutzergruppen. Viel mehr als direkt nach dem Vortrag bleibt dazu nicht zu sagen, die Aufteilung der Nutzergruppen war nicht allzu überraschend, die daraus abgeleiteten Usabilityziele auch nicht so sehr. Was mir an der Vortragsweise noch aufgefallen ist, waren die doch recht vollen Folien, die eigenes Erlesen der Inhalte während des Vortrages erschwerten. Vor allem zum Ende hin, als aus Zeitgründen nicht mehr zu allen Punkten etwas gesagt wurde.
Der zweite Vortrag war mein eigentlicher Grund, diese Vortragsreihe anzusehen. Das Thema “Client-seitige Adaption webbasierter Anwendungen mit Ajax” klang vielversprechend und meine Erwartungen wurden nicht enttäuscht. Stefan Hesse berichtete über den Ansatz, die Adaptivität von Webdiensten von Servern auf die Clientseite zu Verlagern. Dies ist aus mehreren Gründen sinnvoll. Einerseits, falls die adaptiven Dienste des Servers nicht zur Verfügung stehen oder aber, weil es clientseitige Interaktionen wie Scrollverhalten, Mausklicks etc gibt, die nicht an den Server übertragen werden und somit nicht ins Profil aufgenommen werden können. Positiver Nebeneffekt des Ganzen - in der Grundidee des rein Clientseitigen betriebs - ist, dass dem Server keine Nutzerdaten zugehen, sämtliche Profile etc. liegen auf dem Client, der Nutzer hat volle Kontrolle über seine Daten, der Datenschutz ist gewährleistet. Das erhöht denke ich auch die Akzeptanz bei potentiellen Nutzern. Wer sich an dieser Stelle fragt, “Adaptivität, was ist das eigentlich in diesem Kontext?”, der sei auf Seiten wie Amazon verwiesen. Dort wird in Nutzerprofilen das Aufruf- und Kaufverhalten gespeichert, analysiert und daraus auf den User abgestimmte Vorschläge generiert. In diesem Fall ist das aber serverseitige Adaptivität.
Der neue Ansatz ist nun, diese Adaptivität auf dem Client zu realisieren. Hierzu kamen verschiedene Technologien in Frage, darunter Flash, Silverlight, Java Applets, ActiveX und Ajax, es wurde für die Entwicklung schlussendlich auf Ajax gesetzt. Zu Demonstrations- und Testzwecken wurde eine adaptive Suchmaschine “adaptivity!” implementiert. (leider habe ich sie nicht im Netz gefunden, ich hätte gerne damit “herumgespielt”) Diese Suchmaschine setzte auf einem Server auf der eine ca. 1GB große Linkliste zur Verfügung stellte. Mittels Ajax wurde die Benutzerinteraktion auf der Ergebniswebseite gemonitort. Ein Beispiel war die Suche nach “Ferrari”. Auf Seite 3 der Ergebnisliste wurde dann mit einem Link zum Formel1 Rennteam von Ferrari interagiert, d.h. im besten Fall dem Link gefolgt. Bei einer folgenden Suche nach Renault erschien der Link zum Formel1 Team von Renault auf der ersten Ergebnisseite an oberster Position. Ohne die Interaktion mit dem Formel1-Betreffenden Link wäre dieser Link erst auf Seite 14 erschienen. Diese Umsortierung geschah aber nicht auf dem Server sondern clientseitig, indem durch die Ajax-Anwendung die Ergebnisliste gewichtet umsortiert wurde. Dies Funktioniert aber nur, indem an den Links auch semantische Informationen hängen, würde also nicht mit Ergebnissen von Google funktionieren. Interessant wären hier Informationen zur Performanz der Ergebnissortierung bei längeren Listen.
Aus dem Auditorum kamen einige Fragen, u.A. eine berechtigte Frage zur Nachvollziehbarkeit. Da das System bei gleichem Nutzerverhalten unterschiedlich reagiert ist die Bedienung nicht intuitiv, dieses Problem wurde jedoch angegangen, indem ein Panel in der Suchmaschinenoberfläche zu finden ist, in dem die letzten 5 Adaptionsentscheidungen verzeichnet sind und man einzelne Begriffe wie “Formel1″ löschen kann. Eine weitere Frage betraf den Mehrwert oder Vorteil gegenüber serverseitigen adaptiven Systemen. Das Potential, neben den Datenschutzverbesserungen,besteht, mehrere Quellen und Dienste anzusprechen und ein identisches, clientseitiges Profil für alle diese Dienste zu nutzen.
Herr Hesse gestand in der Diskussion auch ein, dass eine Suchmaschine nicht ein optimales Beispiel darstellt, da hier auch die Suche über verundete Schlüsselwörter möglich ist. Die entwickelten Bibliotheken sind prinzipiell für eine Vielzahl Webanwendungen benutzbar, jedoch durch Zeitdruck im späteren Projektverlauf spezifischer für die Suchmaschine “adaptivity!” ausgelegt.
Ein spannendes Projekt mit vielen vorteilen für die Nutzer, weniger für die Dienstbetreiber und ein hochinteressanter Vortrag.
Durch den engen Zeitplan und weil ich mich noch nicht ganz in das Thema eingedacht hatte konnte ich mich nicht mit dem Vortragenden unterhalten, was ich sonst gerne getan hätte. Es blieben jedoch nur 15 Minuten bis zur letzten Keynote.

Diese wurde von Thomas Ertl von der Universität Stuttgart gehalten und Trug den Titel “Interaktive Visualisierung - Wege aus der Datenflut”. Seine durchaus nachzuvollziehende These war, dass immer größere Mengen an Informationen anfallen und um diese sinnvoll zu sichten müssen sie visualisiert werden. Hierzu brachte er anfangs einige Grundlagen und erläuterte seinen Anspruch an die Visualisierung. Anschließend präsentierte er vier Beispiele, in denen Visualisierung zum Einsatz kommt. Dies waren wirklich komplett untschiedliche Anwendungsbereiche und hintergründe. Das erste Beispiel betraf die Visualisierung von medizinischen Volumendaten; Blutgefäße, Knochen etc. Hierfür wurden Tools entwickelt, die einige vorgefertigte Shader und Funktionen beinhalteten und somit geschultem Personal in medizinischen Einrichtungen ein einfaches Erstellen der entsprechenden Visualisierung von Daten ermöglicht.
Das zweite Bespielt war ein Projekt in zusammenarbeit mit einer englischen Hochschule und behandelte die dort allgegenwärtige Videoüberwachung. Es gibt nämlich das Problem, die ungeheuren Videodaten auszuwerten, das ansehen von 24h Aufnahme benötigt laut Herrn Ertl mindestens vier Stunden bei höchster Konzentration. Der Ansatz war, die Videoaufnahmen auch als “Volumendaten” zu verstehen, dass sich an der Zeitachse entlangzieht. Mittels Kantenerkennung und anderen Bildanalyseverfahren wurden die wichtigsten sich bewegenden Bildkomponenten ermittelt und in einer art “Zeitkurve”, einem hufeisenförmigen Zeitdiagramm dargestellt. Ich habe leider keine Fotos gemacht, es sah aber sehr merkwürdig aus, ich denke mehr als bestimmte Muster lassen sich so nicht erkennen, laut Aussagen von Herrn Ertl soll es jedoch möglich sein, das zuverlässige auslesen und interpretieren dieser Muster zu erlernen. Ich hätte ehr so etwas erwartet, wie eine automatische Auswertung eben dieser Muster und bei ggf. Auffälligen wird ein Mensch hinzugezogen, der das zu Grunde liegende Bildmaterial sichtet. Ansonsten habe ich ja auch kaum Zeitersparnis, wenn ich kurze Minutensequenzen zu diesen Hufeisendiagrammen umrechne und sie trotzdem von einem Menschen angesehen werden. Bei der Rate 24h in 4h, also 6:1, dürfte man sich das Diagramm von einem Einminutenschnipsel ja auch nur weniger als 10 Sekunden ansehen. Die Zeit um das Diagramm zu generieren noch nicht einmal eingerechnet. Da aber eine Patentanmeldung läuft scheint das ganze aber dennoch irgendwie gewinnbringend zu funktionieren.
Das dritte Beispiel waren, wenn ich das richtig erinnere, Molekulardynamiksimulationen. Hierbei werden moderne Grafikkarten so programmiert, dass sich der Geometrieshader z.B. aus Mittelpunkt und Radius Kugeln erzeugt. Hintergrund hierfür sind Simulationen von ca. 500000 Molekülen, die alle als Kugel dargestellt werden sollen. Würde man für all diese Kugeln die Geometriedaten von vielen Polygonen pro Molekül übertragen wäre eine Echtzeitdarstellung nicht mit 25-30fps möglich, da der PCIe-Bus durch die anfallenden Daten mehr als ausgelastet wäre. Da ich selbst seit Jahren nicht mehr spiele, habe ich den Bezug zu aktueller Grafikhardware etwas verloren, finde jedoch sehr interessant, welche Funktionen und Möglichkeiten sich auf diesem Gebiet bieten. Im weiteren Studiumsverlauf gibt es neben meiner Vertiefungsrichtung “künstliche Intelligenz” auch noch die Richtung “Grafik und Multimedia”. Ich denke ich werde mich dort einfach einmal in die Vorlesungen und Übungen “einschleichen” und hoffe, dass dort etwas dieses Themas anklingt. Ist wahrscheinlich ein ziemlich Mehraufwand, zwei Vertiefungsrichtungen zu besuchen, der Vorlesugsplan gibt es aber her und es könnte sich durchaus lohnen.
Das vierte Beispiel von Herrn Ertl war die Patentvisualisierung. Die Daten aus Patentdatenbanken sollten visualisiert werden, zusammenhänge und bezüge zwischen Patenten dargestellt werden etc. Hierzu hat er, vermutlich zeitbedingt, nicht allzu viel gesagt. Das, was ich an Screenshots gesehen habe, hat mich hierbei ehr verwirrt als informiert. Es wurde eine Anwendung gezeigt die über 10 “Ergebnis” bzw. “Informationsfenster” verfügte, mit den angezeigten Informationen konnte allerdings ich nichts anfangen. man sollte aber mit jedem dieser Fenster interagieren können, um durch den Datenbestand zu navigieren. Da die Navigation und Darstellung so komplex ist, scheinen die Patentdatenbanken und Beziehungen zwischen patenten alles andere als trivial zu sein.
Sein Vortrag endete mit der Aufforderung interdisziplinär zusammenzuarbeiten.

Da ich einen Ansturm auf Toiletten und Mensa befürchtete ging ich während des Konferenzabschlusses schon aus dem Hörsaal und kann zum Inhalt der letzten Worte nicht viel sagen. Die nächste Mensch und Computer und die nächste DeLFI finden beide in Berlin statt, leider zeitlich und räumlich von einander unabhängig.

Fazit der Konferenz für mich: Es hat sich definitiv gelohnt nach Lübeck zu kommen. Ich hatte zuerst Angst, da ich schon aus Erzählungen den Eindruck hatte, jeder kennt dort fast jeden, dort erst einmal aufzufallen. Ich denke auch, ich war ein Außenseiter, als “Themenhopper”, der je nach Interesse mal UP, MuC und DeLFI-Vorträge gehört hat. Schwerpunkt lag für mich auf DeLFI und UP-Vorträgen, da dort doch die meisten Interessen lagen. Leider liegen in diesen Bereichen auch die größten Wissensdefizite. Ich denke dennoch, einen Einblick in diese Themen habe ich gewonnen und kann nun viel besser eine Entscheidung für die Zukunft treffen. In einem Jahr ist das duale Studium mit einem wahrscheinlich guten Bachelor abgeschlossen, die Deutsche Post IT schließt ihre Standorte außer Bonn und Darmstadt. Interesse für Usability- und Designthemen und weniger Lust auf Account Management sondern ehr kreative und produktive Tätigkeiten, wo am Ende selbst etwas greifbares geschaffen wird… ich denke die Tendenz ist schon klar, ich muss mir nur etwas Gedanken über das wo und wie machen. Als Einblick, zum Aufzeigen von Optionen, und Orientierungshilfe war die Konferenz für mich auf jeden Fall ein voller Erfolg. Die DeLFI Vorträge geben Anlass zu Diskussionen mit einigen Dozenten und es entstehen sicher einige Projektideen für folgende Jahrgänge. Vielleicht kommt das eine oder andere auch als Anstoß für meine Bachelorthesis in Frage, das wäre aber mit der Firma auszuloten.

Ich denke, die Konferenz wird mich noch eine weile beschäftigen, ich werde auch über einige Vorträge noch weiter nachdenken, Aposdle im Auge behalten und über meine neuen Erkenntnisse berichten.
Ich frage mich, ob ich irgendwie an die Folien der Vortragenden herankomme, es gab auch einige Vorträge die ich auf Grund von Überschneidungen nicht sehen konnte, da würde ich gerne die Folien lesen, auch von gesehenen wären die Folien sicher hilfreich.

An dieser Stelle auch noch einmal Dank an “Chi”, in dessen Blog ich hier meinen Senf zur Vielmehr schreiben durfte.