Mein bisher längstes Zeitrafferfilmi

Der Film selber ist gar nicht so lang, aber die Herstellung dauerte lange.

Wie aufmerksame MitleserInnen wissen, versuche ich während den Arbeitszeiten [1] Wissenschaft zu betreiben. Das hat zur Folge, dass die erzielten Resultate der Öffentlichkeit zugänglich gemacht werden sollten, nachdem die Auswertung erfolgreich gelungen ist.

Mit den Tomografie-Daten, die unter anderem während meiner Doktorarbeit entstanden, sollen neue Erkenntnisse über das nachgeburtliche Wachstum der Lunge erzielt werden. Die Methode, wie wir einzelne funktionale Einheiten der Lunge, die sogenannten Acini aus den Datensätzen extrahiert haben und diese anschliessend nach allen Regeln der Kunst analysiert haben, beschreiben wir in der Publikation “Visualization and stereological characterization of individual rat lung acini by high-resolution X-ray tomographic microscopy“, die kürzlich im Journal of Applied Pyhsiology erschienen ist.

Jedes von mir erstellte Dokument welches ein Bild enthält und länger als eine Seite ist, schreibe ich in LaTeX [2], das macht es möglich, dass ich mit Subversion [3] eine sogenannte Versionenkontrolle mache, d.h. ich halte immer mal wieder den gegenwärtigen Zustand des Textes fest, bevor ich daran weiterarbeite. Später kann dann, falls nötig, auf eine alte Version zurückgegriffen werden, oder nachvollzogen werden, wer was wann geschrieben hat.

Vor fast einem Jahr las ich auf FlowingData, wie ein Wissenschaftler den Verlauf seiner Publikation in einem Zeitraffer-Film zeigt, das dachte ich, das kann ich auch, ich hab’ ja jede Version auf dem Code-Server der Uni Bern [4] gespeichert.

Mit einem Python-Skript habe ich jede einzelne Version aus dem Subversion-Archiv in ein einzelnes Unterverzeichnis geladen. Mit einem zweiten Skript habe ich aus jeder Version ein PDF gemacht, und alle Seiten dieses PDFs als Bild gespeichert. Mit etwas Nachbearbeitung in iMovie ist dann unten eingebundenes Zeitraffer-Filmli entstanden: Die lange Arbeit an einem Paper visualisiert in 45 Sekunden.

Damit mensch überhaupt etwas sieht, habe ich den Film mal in voller Grösse zu youtube hochgeladen und in halber Grösse hier eingebunden.

[1]: Und manchmal ausserhalb der normalen Arbeitszeiten
[2]: Oder in Markdown mit Umweg über pandoc zum Zielformat
[3]: Oder neuerdings ausschliesslich git
[4]: Besser gesagt, ein Subversion-Server auf der virtuellen Serverfarm der Uni Bern, den schlussendlich nur ich gebraucht habe…

Mein “Review” der Pebble-Uhr

Letzthin konnte ich einen Neuzuwachs in meiner Sammlung spezieller Uhren machen und hab’ mir eine Pebble gekitscht.

Der Webflaneur hat mich daraufhin gebeten, ob ich für die Berner Zeitung ein paar Zeilen dazu schreiben möchte, was ich gerne tat. Nachdem nach der Sommerflaute mal genug Blätter in die Druckerpresse eingespannt wurden, ist der Text zu meiner neuen Uhr erschienen. Eine PDF-Kopie ist unten eingebunden, für alle diejenigen, die letzte Woche die Ausgabe auf totem Holz verpasst haben.

Wer sich dafür interessiert, was die Grundlage für die redaktionelle Arbeit von This war, findet hier die Ausgangslage.

Die Swiss Light Source im 2012

Wer meinen flickr-Stream etwas im Auge behält, weiss, dass ich im 2012 jeden Monat ein Panorama im Innenhof der Swiss Light Source gemacht habe.
Die Panoramas zeigen die Rundum-Sicht im imposanten Innenhof, teilweise bei schönem Wetter, teilweise bei weniger schönem.

Damit ich mit den Bildern etwas dynamischer den Jahresverlauf zeigen kann, habe ich mir ein kleines Python-Skript geschrieben [1], welches die 12 stereographischen Panoramen nimmt, ineinander überblendet und die ganze Sache nadisna um 360° rotiert.
Das Skript ist unten eingebunden und kann in meinem Python-GitHub-Repository geforkt und kopiert werden, wenn Bedarf daran besteht.
Ich habe versucht, das Skript grosszügig zu kommentieren, so dass die interessierte Leserschaft sieht, was wie gemacht wird :)

Mit der Hilfe der AppStore-Neuentdeckung Zeitraffer habe ich die jeweils 100 Bilder jeder Monats-Überblendung zu einem Film zusammengesetzt und mit iMovie noch etwas Titelei dazugemacht.
Das Endprodukt dieses ganzen Vorgangs ist der unten eingebundene Film: das Jahr 2012 im Innenhof der SLS in einer Minute.

[1]: In den letzten Monaten programmierte ich etwas häufiger als auch schon, dabei habe ich die Einfachheit von Git kennengelernt. Mittlerweilen habe ich einen grossen Teil meines (öffentlichen) Programm- und Skript-Codes bei Github deponiert.

Sprachexperiment

Ich bin ein grosser Freund von Webcomics, xkcd von Randall Munroe hat es mir sehr angetan. Vor einiger Zeit hat er eine Beschreibung der Saturn V-Mondrakete veröffentlicht, bei der er nur die 10 100 häufigsten Wörter in Englisch gebraucht hat (1000 ist nicht dabei, deshalb 10 100 :).

Das ziemlich lustige Sprachexperiment xkcd 1133 hat einen anderen Geek dazu verleitet, einen Text-Editor zu schreiben, der einem Texte schreiben lässt, bei denen nur die 10 100 häufigsten Englischen Wörter vorkommen können: The Up-Goer Five Text Editor

Ein paar weitere Geeks und Geekettes hat das animiert, ihre tägliche Arbeit in 10 100 Wörter zu fassen und mittlerweilen gibt es sogar ein ein Tumbler-Blog zu Ten Hundred Words of Science.

Heute Abend im Zug hab’ ich versucht, zu schreiben, was die Forschungsgruppe, in der ich am PSI arbeite, so den ganzen Tag macht. Herausgekommen ist dies, upgoerfive-style:

I work at the ‘XRay’ ‘Tomography’ group at the largest house in my land where people think, we do look at things with the help of strange light. It goes like this: In a very big ring in a building we make bits that power is made of go around very fast. If we force those bits around a turn, this makes a bright light which we then put onto really small, interesting things. This bright light goes through these things and is a bit darker than before at some points, because the thing is heavy inside at some points and not so heavy at other points. The form of this darker and brighter spots is made bigger (so we can look at very small things) and is written down in a computer in the end. While the small interesting thing turns around, we write down a lot of these forms of darker and brighter spots as pictures, up to several ten hundreds of these. Using more computers we can then change all these pictures so that we can look not only how the very small interesting thing looks from the front or back, but also from the inside. This is where the real work starts.

Irgendwie muss ich am Ende noch ein bisschen weiter-schreiben, aber dafür ist ja der Permalink da. Was machst du den ganzen Tag? Kannst du das mit den 10 100 häufigsten englischen Wörtern beschreiben? Wenn ja, mach einen Kommentar, ich würde die Beschreibung gerne lesen.

Trendy sein.

Herr Born, für den ich letzten Frühling etwas für die BZ geschrieben habe, hat mich auf den neuesten Trend aufmerksam gemacht, über die er als Journalist informiert wurde.

Offensichtlich hat Nikon vorgesehen, dass im 2013 360°-Panoramen im Trend liegen werden. Dank einem ausgeliehenen Objektiv von Herr Widmer war ich schon vor fast vier Jahren trendy, als ich das erste Mal erfolgreich einen kleinen Planeten fotografiert habe, vor dem Hauptgebäuder der Uni Bern. Mittlerweilen haben sich in meinem Planeten-Set 67 mehr oder weniger gelungene Planeten angesammelt, dies mit eigenem Fisheye-Objektiv.

Die Pressemitteilung von Nikon (unten eingebunden) verweist auf Sam Rohn, der einige tolle Panoramen auf Lager hat, schafft es aber leider, meine Lieblings-Software für Panoramen, hugin fälschlicherweise als Huginwork zu bezeichnen.

Trotzdem toll, dass ich schon vor Jahren diesen Trend mitgemacht habe, mal schauen, wie sich das im Trendjahr 2013 in diesem Sinne entwickelt :)

Neil Harbisson hört farbig

Neil Harbisson hört farbig, dennoch ist er kein Synästheth. Im klassischen Sinn ist er behindert, wurde er mit einer Erbkrankheit der Netzhaut geboren, das heisst, er ist nicht nur etwas farbenblind wie ca. 5% aller Männer, sondern komplett farbenblind, er sieht die Welt komplett monochrom. Mit 21 Jahren beschloss er, zu einem – wie er sagt – Cyborg zu werden und installierte sich einen Chip im Schädelknochen, der mit einem Spektrometer verbunden ist, welcher Farbinformationen in Töne umwandelt. Diese Töne kann er über Knochenschall hören und so Farben empfinden.

In seinem (unten eingebundenen) TED-Vortrag erzählt er davon, was er aus seiner Behinderung gemacht hat, was sehr spannend rüberkommt. Wunderschön finde ich den Moment in dem Neil farbige Stofffetzen vor seinen Sensor hält und die Farben beschreibt: Er spricht nicht von Grün, sondern von der Frequenz von Gras. Aber der bemerkenswerteste Moment in seinem Vortrag ist, als er beschreibt, dass er seine Kleidung (auf der TED-Bühne trägt er eine sehr coole Pink-Blau-Gelb-Kombination) nicht mehr so auswählt, dass es gut aussieht, sondern dass der Akkord zur Gelegenheit passt. Das hat zur Folge, dass er an einer Beerdigung in einer Kombination von Türkis, Violett und Orange auftauchen würde, weil dies einen traurigen b-Moll-Akkord ergibt.

Grandios ist, dass sich seine doch sehr einschränkende Behinderung in keinem Moment manifestiert, sondern Neil den Eindruck macht, durch sein Cyborg-Upgrade einen zusätzlichen Sinn und ein wunderschönes Leben zu haben.

“Bullet Time” an den Olympischen Spiele 2012

Ich schaue ja nicht wirklich bei den Olympischen Spielen zu, aber in der Berichterstattung ist mir aufgefallen, dass bei den gymnastischen Sprungbewerben Bullet Time-Effekte (wie bei den Matrix-Filmen) eingesetzt [1].

In einem Video sieht das so aus


Mit minimalen Nachforschungen [2] bin ich auf das i3DLive-Projekt der BBC-Forschungsabteilung gestossen. Das i3DLive-System nimmt mit einer hochaufgelösten Kamera die gesamte Szene auf und rekonstruiert durch die Bilder einigen zusätzlichen Kameras die dreidimensionale Ansicht der gezeigten Sequenz. Dieser kurze Clip hier (kann leider nicht eingebunden werden) zeigt etwas den Hintergrund des Projektes. i3DLive wurde laut der BBC im April 2011 eingestellt, über das Nachfolgeprojekt (Origami) finden sich wenig bis gar keine Infos im Netz.Nichtsdestotrotz beschleicht mich das Gefühl, dass das verwendete System eine Weiterentwicklung ist. Jedenfalls so cool, dass ich vielleicht doch noch den einen oder anderen Gymnastik-Event schaue, und nicht nur Beachvolley [3].

[1]: Eigentlich war’s Nina, die mir davon erzählte, aber der Spannungsbogen passt so besser :)
[2]: reddit.com sei Dank
[3]: via @viergrad

Sonderzeichen-Probleme

Als ich letzthin jemandem das Filmli über Terry Pratchett zeigen wollte, hab’ ich im Archiv hier gegraben. Dabei ist mir aufgefallen, dass mein ganzes WordPress-Archiv von einem komischen Sonderzeichen-Käfer befallen war, alle Sonderzeichen wurden nicht mehr in der UTF8-Codierung angezeigt, sondern jedes ä, ö und ü war durch ä, ö und ü ersetzt.

Nach einer kürzeren Suche nach möglichen Problem-Ursachen hab’ ich dank der Hilfe von Mastblau rausgefunden, dass ich mit einer Datenbank-Befehl alle fehlerhaften Einträge korrigieren kann. Mit der Hilfe von Sequel Pro hab’ ich untenstehende Änderungen an meiner WordPress-Datenbank gemacht, so dass das Archiv wieder mit korrekten Umlauten dargestellt werden sollte (und momentan wird). Falls jemand in der nächsten Zeit trotzdem irgendwelche Probleme bemerkt, soll er/sie sich bitte bemerkbar machen…

update wp_posts set post_content = replace( post_content,'ü','ü');
update wp_posts set post_content = replace( post_content,'ä','ä');
update wp_posts set post_content = replace( post_content,'ö','ö');
update wp_posts set post_content = replace( post_content,'ß','ß');
update wp_posts set post_content = replace( post_content,'Ãœ','Ü');
update wp_posts set post_content = replace( post_content,'Ä','Ä');
update wp_posts set post_content = replace( post_content,'Ö','Ö');
update wp_posts set post_title = replace( post_title,'ü','ü');
update wp_posts set post_title = replace( post_title,'ä','ä');
update wp_posts set post_title = replace( post_title,'ö','ö');
update wp_posts set post_title = replace( post_title,'ß','ß');
update wp_posts set post_title = replace( post_title,'Ãœ','Ü');
update wp_posts set post_title = replace( post_title,'Ä','Ä');
update wp_posts set post_title = replace( post_title,'Ö','Ö');
update wp_comments set comment_content = replace( comment_content,'ü','ü');
update wp_comments set comment_content = replace( comment_content,'ä','ä');
update wp_comments set comment_content = replace( comment_content,'ö','ö');
update wp_comments set comment_content = replace( comment_content,'ß','ß');
update wp_comments set comment_content = replace( comment_content,'Ãœ','Ü');
update wp_comments set comment_content = replace( comment_content,'Ä','Ä');
update wp_comments set comment_content = replace( comment_content,'Ö','Ö');
update wp_term_taxonomy set description = replace( description,'ü','ü');
update wp_term_taxonomy set description = replace( description,'ä','ä');
update wp_term_taxonomy set description = replace( description,'ö','ö');
update wp_term_taxonomy set description = replace( description,'ß','ß');
update wp_term_taxonomy set description = replace( description,'Ãœ','Ü');
update wp_term_taxonomy set description = replace( description,'Ä','Ä');
update wp_term_taxonomy set description = replace( description,'Ö','Ö');
update wp_tags set tag = replace( tag,'ü','ü');
update wp_tags set tag = replace( tag,'ä','ä');
update wp_tags set tag = replace( tag,'ö','ö');
update wp_tags set tag = replace( tag,'ß','ß');
update wp_tags set tag = replace( tag,'Ãœ','Ü');
update wp_tags set tag = replace( tag,'Ä','Ä');
update wp_tags set tag = replace( tag,'Ö','Ö');

Das Rolex Learning Center an der EPFL in Lausanne, revisited

Vor ein paar Wochen war arbeitsmässig wieder mal an einer Sitzung in Lausanne. Wie schon das letzte Mal hat mich das Rolex Learning Center in seinen Bann gezogen, dieses Mal hatte ich aber meine Panorama-Ausrüstung dabei, und nicht wie das letzte Mal nur mein Telefon.

Dabei ist die Einsicht unten entstanden.

Die geneigte Leserin und der geneigte Leser wird merken, dass das Panorama direkt von meinem eigenen Webserver kommt (genauer von panoramas.davidhaberthür.ch) und nicht von 360cities oder so.
Kürzlich hat Matthew Petroff auf der hugin-Panorama-Mailingliste von seinem neuesten Goodie erzählt, er hat nämlich einen modernen Panoramaviewer programmiert; Pannellum.
Pannellum ist ein kleines Skript, welches auf den eigenen Server kopiert Panoramas ohne mühsames Flash-Plugin immersiv darstellt. Das heisst, das Panorama wird mit der Hilfe von neuen Web-Standards (HTML5,  WebGL, etc.) aufgebaut und dem User ausgeliefert, und sollte in jedem modernen Browser funktionieren. Je nach Browser muss der WebGL-Support eingeschaltet werden (in Safari hab’ ich’s so gemacht, für andere Browser geht’s so), leider geht’s momentan auf iTelefonen und iTablets nicht.
Die Konfiguration und Bereitstellung eines Panoramas ist dank dem mitgelieferten Konfigurator relativ einfach, hat aber noch ein paar eingebaute Hindernisse. Da der Quellcode des Skriptes aber auf bitbucket offen zur Verfügung steht, werde ich versuchen, diese Hürden für mich abzubauen und Matthew davon zu berichten, so dass weitere User diese Hürden nicht überwinden müssen.
Wer die restlichen Panoramas, die ich in Lausanne gemacht habe sehen will, soll seinen Browser hierhin dirigieren.

D’Schütz isch da

Am Dienstag beim Heimfahren sehen, dass d’Schütz da isch. Am Mittwoch Abend mit der Kamera dort eine Zeitlang rumstehen und dann den Kompi (Luminance HDR/Quicktime Pro/iMovie) etwas rechnen lassen. So entstand das HDR-Zeitrafferfilmli unten.

Weil ich mich nicht entscheiden konnte, ob mir die Resultate des Mantiuk- oder des Fattal-Operators besser gefallen, hab’ ich im unten eingebundenen Filmli grad beide Varianten aneinandergehängt.

Wohin gehen all die Kommentare, visualisiert

Herr Leu hat letzthin davon geschrieben, dass das Kommentar-Volumen auf seinem Blog in der letzten Zeit ziemlich abgenommen hat, während die Reaktionen auf die Beiträge in anderen Kanälen stattfinden.

Dies ist mir auch schon lange aufgefallen, ich konnte es aber nicht wirklich mit Zahlen belegen. Da Herr Leu auch grad noch eine handliche MySQL-Abfrage zur Abfrage der Zahlen mitlieferte, hab’ ich mir mit Sequel Pro die Zahlen aus meiner Blog-Datenbank geholt.

Für mich sieht das Resultat der obigen Abfrage so aus:

Year Count Average
2003 157 0.3057
2004 316 0.6108
2005 197 1.2589
2006 144 1.4375
2007 140 2.8143
2008 146 2.5685
2009 93 3.7419
2010 90 3.1333
2011 73 1.3973
2012 17 0.4706

Ein Peak im Jahr 2009 ist klar erkennbar, danach sinken die Kommentarzahlen absolut und im Durchschnitt. Da ich aber der visuelle Mensch bin, hab’ ich mir gedacht, dass sich diese Zahlen (genau wie bei Herr Leu übrigens) doch in eine schöne Grafik verpacken lassen sollten.

Deshalb hab’ meinen Lieblingseditor gestartet und untenstehendes Python-Skript geschrieben. Das Skript liest die Zahlen aus einem Text-File und stellt die durchschnittlichen Kommentare normiert als Plot über die Jahre dar. Das einlesen aus einem Text-File hab’ ich gemacht, damit sich nicht nur meine Zahlen, sondern auch diejenige visualisieren lassen, welche andere in den Kommentaren bei Herr Leu angegeben haben.

#! /opt/local/bin/python

import optparse
from pylab import *

# Use Pythons Optionparser to define and read the options, and also
# give some help to the user
parser = optparse.OptionParser()
usage = "usage: %prog [options] arg"
parser.add_option('-n', dest='Name', metavar='Fridolin')
(options, args) = parser.parse_args()

# show the help if no parameters are given
if options.Name==None:
	parser.print_help()
	print ''
	print 'Example:'
	print 'The command reads the comment from "comments_sepp.txt"'
	print 'and plots them nicely.'
	print ''
	print 'comments.py -n sepp'
	print ''
	sys.exit(1)
print ''

Data = genfromtxt('comments_' + str(options.Name) + '.txt',skip_header=True)

MaxAverage = 0
for line in Data[:,2]:
	MaxAverage = max(MaxAverage,line)

ax = plt.subplot(111)
ax.plot(Data[:,0],Data[:,2]/MaxAverage)
ax.axis([2003,2012,0,1])
ax.xaxis.set_major_formatter(FormatStrFormatter('%d'))
title('Normalized comments for ' + str(options.Name))
savefig(str(options.Name) + '.png')

Als ich das kleine Skript mit den angegebenen Zahlen laufen liess, entstehen untenstehende Plots. Schön ist zu sehen, dass der Kommentarhöhepunkt bei allen (Markus, Robert, Roger, Manuel [1] und mir) teilweise deutlich überschritten scheint. Ich persönlich bewege mich nicht (mehr) auf Twitter und Facebook, erhalte also auch von dort keine Rückmeldungen.

habi.png markus.png robert.png roger.png sprain.png


Um’s genau wie Herr Leu zu sagen: Auch wenn ich das ganze als Python-Fingerübung benutzt habe, wünsche ich mir mehr Kommentare hier, auch – oder gerade wenn – ein Beitrag nicht gefällt, oder du eine andere Meinung hast.

[1]: der mich übrigens mit dem “wenn auch auf tieferem Niveau” in seinem Kommentar drüben bei Herr Leu dazu gebracht hat, die durchschnittlichen Kommentare zu normalisieren.

LunaMod

Vor einigen Monaten hab’ ich im damals aktuellen Makezine die Bastelanleitung für den LunaMod gesehen. Wie’s dann so geht mit Projekten, hast ein paar Wochen gedauert, bis wir uns hinter die Teileliste gesetzt haben und alles notwendige bestellt hatten. Kurz vor Weihnachten haben Bastian und ich endlich die Zeit gefunden, uns hinzusetzten und unsere Lötkünste zu trainieren.

Nach kürzerem Soft- und Hardware-Debugging hörten wir tatsächlich zum ersten Mal Sound aus unseren Kopfhörern. Ich hab’s dann beim Einbau in das Holzkistli aus der Brocki geschafft, zwei wichtige Kabel abzureissen, so dass die Spielfreude gerade wieder getrübt wurde. Aufgrund vieler Faktoren hab’ ich es erst dieses Wochenende geschafft, einen neuen Druckschalter einzubauen und die Platine und alle Kabel schön in einem Holzkistli zu verpacken.

Schlussendlich sieht dann das Ding gar nicht so schlecht aus, wenigstens von aussen. In der Kiste drin sieht’s ein bisschen weniger aufgeräumt aus, aber ich bin schon etwas stolz, dass trotz meinen zwei linken Händen das Kästchen lustige Töne von sich gibt. Diese sind unten zu hören, falls sich jemand für 8bit-Lärm interessiert :)

DSC_0474.JPG

IMG_0477.JPG

Gehirnakrobatik

Ich find’s immer wieder erstaunlich, wie einfach sich unser Gehirn täuschen lässt.

Die Herren Tangen, Murphy und Thompson haben entdeckt (doi:10.1068/p6968), dass sich Gesichter, die auf Augenhöhe ausgerichtet und in schneller Folge präsentiert werden, grotesk verformen.
Wenn Gesichter von doch recht hübschen Damen in schneller Abfolge nebeneinander präsentiert werden, fallen dem Gehirn nur die Unterschiede auf, die dann im visuellen System stark übertrieben werden, so dass die Gesichter aussehen, als kämen sie aus einem Horrorfilm.
Doch seht selber, unten ist ein Film eingebunden, welcher den Effekt zeigt.

Video via Reto Hugi, irgendwie per Google Buzz.
Google Buzz wird zwar von mir nicht mehr wirklich benutzt, ich schalte mittlerweile jeden einzelnen Kontakt auf stumm dort, denn wenn ich Email lesen will, will ich Emails lesen und mich nicht in einem Social Stream verlieren.
Reto entging dem bis jetzt.
Ich hoffe, solche Sachen tauchen dann in Zukunft bei Google+ auf :) Einladungen dafürr gibt’s immernoch, wenn jemand will.

Das Eisenbahnviadukt in Gümmenen

Am Montag Abend habe ich ein kleines Velofährtli gemacht um mal das Eisenbahnviadukt neben Gümmenen im Abendlicht zu fotografieren. Mit dem 8mm Fischauge-Objektiv, dass ich momentan zur Evaluation von Martin Bichsel ausgeliehen habe, entstanden dann einige schöne Fotos des Viaduktes. Dank dem extrem weitwinklichen Objektiv konnte ich mit 6 Fotos (ohne Stativ) komplette Rundumansichten des Viaduktes machen.

Laupen Viadukt Fused.jpg

Nach kürzerer Nachbearbeitung entstand aus diesen Rundum-Ansichten des Viaduktes eine stereographische Ansicht, ein sogenannter kleiner Planet. Einer der vier Planeten, die am Montag Abend entstanden sind, ist untendran zu sehen, den Rest (und die anderen Rundumansichten) gibt’s drüben bei flickr im Set zum Eisenbahnviadukt zu sehen.

Laupen Viadukt stereographic.jpg

Wer’s gerne ganz immersiv hat, findet die Fotos auch bei 360°Cities, nämlich hier in der Fused-Variante und hier in der Variante im Schatten, also auf der Rückseite des Viaduktes.

Google Summer of Code 2011: Hugin participates and looks for Students

Readers of this blog might know that I’m an avid user of hugin. Like every year since 2007, hugin participates in the Google Summer of Code, a global program that offers student developers stipends to write code for various open source software projects. In the past years Yuval Levy and Alexandre Prokudine [0] spearheaded the GSoC effort for hugin.

Since I’m no programmer I wanted to give back something to the community and will act as this years main admin, while Bruno Postle will act as a backup.

So, if you know a student that would like to participate in a neat, C and C++-based project this summer, let her or him know about our mentoring page for GSoC: Hugin – Panorama Photo Stitcher

And just to be complete: The text below just went to the hugin mailing list, the call for Students.

[0]: Now of darktable-fame, as seen here.

—-

Dear prospective Students

Hugin has been accepted as a mentoring organization in the upcoming Google Summer of Code 2011. This email is the official call for students:

As Yuval already described in a blog post [1], would-be participants need to get to work soon. The earlier, the better.

Familiarize yourself with the hugin codebase, think of an itch that bothers you and how you could help to get rid of that itch. You need to work on your application, voice up and introduce yourself to the mailing list. We have a dedicated page on the panotools wiki that describes the way to go [2].

Remember, the deadline for your application is April 8 19:00 UTC, this is in two and a half weeks!

Looking forward to hear from you

For the whole hugin-team

Habi, GSoC-Admin

[1]: http://wp.me/paLeH-xE

ZTE Blade oder Orange San Francisco im Test

Letzthin konnte ich für This wieder mal ein kleines Textli in der BZ schreiben: Ich habe über ca. 2 Wochen das Andriod-Telefon ZTE Blade, auch bekannt als Orange San Francisco getestet.

Vor einiger Zeit habe ich dank meinen Online-Kollegen mitbekommen, dass Valora in der Schweiz ein Android-Telefon prepaid für sagenhaft günstige 100.- verkauft. Da ich erst nächsten Herbst bei meinem Anbieter den Vertrag verlängern kann und solange noch offiziell mit dem iPhone 3GS telefoniere, habe ich mir gedacht, dass das ein gutes Mittel sei, um mal ein anderes Gerät zu testen [1]. Ich muss sagen, das Gerät beeindruckte mich deutlich mehr, als ich dem Ding für 100.- zugetraut hätte. Trotzdem bin ich nach dem Testzeitraum wieder zu meinem iPhone zurückgekehrt, das hat aber mehr mit einer Tasse Tee und dem doch nicht ganz wasserdichten ZTE Blade und meiner Musikhör-Einrichtung im Büro zu tun als mit dem erstaunlich guten ZTE Blade.

Wer sich für den Kurztest, welcher in der BZ erschienen ist, interessiert, findet den Artikel hier auf der BZ-Website oder hier als PDF oder kann den Artikel unten direkt eingebunden lesen.

Wenn noch Fragen zum Telefon auftauchen, kann ich diese gerne in den Kommentaren hier beantworten.

[1]: Wenn mensch sich ein wenig mit diesem ZTE Blade beschäftigt, findet mensch auch Möglichkeiten, den Prepaid-SIM-lock sagenhaft einfach zu umgehen, dies aber nur so nebenbei erwähnt. Dazu gebe ich keine Auskunft, sondern überlasse dies als Übung dem geneigten Leser oder der geneigten Leserin.

Meine neue Uhr: MONOCHRON [inkl. Timelapse] [update]

Vor ein paar Monaten habe ich meine Uhrensammlung erweitert: ich hab’ mir bei Adafuit Industries [1] eine MONOCHRON-Uhr gekauft (nachdem ich im Make darüber gelesen habe).

Bis jetzt hat die Uhr in Ihren Einzelteilen auf meinem Pult auf den Zusammenbau gewartet. Für This, der letzthin wieder mal einen Citizen Journalism-Artikel in der BZ über digitale Gadgets angezettelt hat, habe ich ein kurzes Textli über diese Uhr geschrieben. Das PDF dieses Artikels kann hier gelesen werden, oder ist per Viewer unten eingebunden [2].

Letzten Sonntag habe ich mich dann endlich hingesetzt und das erste Mal in meinem Leben mehr als zwei Drähte aneinander gelötet. Nach einer halben Stunde Lötarbeit war ich dann schon ziemlich stolz, als die Uhr zum ersten Mal gepiepst hat, nach einer Stunde hat sie dann auch die Zeit angezeigt. Die zusammengebaute Version der Uhr zeigte die Zeit ganz normal an, was an sich schön ist, aber nicht das von mir gewünschte Resultat war.

Nach einer weiteren halben Stunde Gebastel (inklusive Wiederauseinandernehmen des Gehäuses und einlöten des USB-Adapters, den ich vergessen hatte) konnte ich dann die gewünschte Pong-Firmware auf die MONOCHRON laden und habe jetzt eine schöne neue Uhr in meiner Sammlung (die bis jetzt neben der MONOCHRON-Uhr aus einer Verbarius, einer Manifold Clock und einer Phosphor E-Ink Clock besteht, Hinweise auf weitere Uhren sind willkommen!).

Die MONOCHRON-Uhr spielt mit sich selber Pong, das linke Paddle spielt extrem schlecht, so dass der rechte “Spieler” pro Minute einen Punkt macht, der linke “Spieler” währenddessen nur einen Punkt pro Stunde. Will heissen: der Punktestand des autonomen Pongspiels zeigt mir immer die aktuelle Uhrzeit an:


Wer mir beim Zusammenbau der Uhr über die Schulter gucken will, kann dies in untenstehendem Video tun:

[1]: Adafruit Industries verkauft einiges an sogenannten Kits, elektronische Gadgets, die selber zusammengebaut werden müssen. Ein Grossteil der Kits ist Open Source Hardware, das heisst, die Pläne sind frei verfügbar und könnten auch selber erstellt werden. Einfacher ist es aber, auf der Webseite ein Kit zu bestellen, so dass mensch nicht 20 verschiedene Läden abklappern muss…
[2]: Es hat etwa eine halbe Stunde gedauert, bis ich denn rausgefunden habe, dass der Google Docs Viewer scheinbar nicht mit mehreren Bindestrichen im Filenamen umgehen kann…

update: Mein Filmli hat’s übrigens bis aufs adafruit-blog gebracht!

Surfen ohne Flashplayer funktioniert auf OS X wunderbar

Seit der Neuvorstellung des MacBook Airs vor ein paar Wochen ist mir aufgefallen, dass die neuen Laptops von Apple zwar mit Flash, aber ohne Flash ausgeliefert werden. In den Hintergrundberichten dazu war zu lesen, dass dies unter anderem wohl aus softwarepolitischen Überlegungen gemacht wurde, wichtiger ist aber, dass die Laptops dadurch im Surf-Betrieb stabiler und stromsparender laufen, da der Flash Player prozessorintensiv und nicht ganz fehlerfrei programmiert ist. Schon seit sehr langer Zeit surfte ich mit ClickToFlash durch die Weiten des Internetzes, um dem Problem entgegenzuwirken. Dieses Plugin verhinderte aber nicht, dass der Flash Player im Hintergrund trotzdem geladen wird und Speicher sowie Prozessorzeit verbraucht.

Vor ein paar Tagen habe ich bei Herr Gruber drüben gelesen, wie einfach die Entfernung des Adobe Flash Players unter Mac OS X ist. Eine solche Entfernung (oder genauer Deaktivierung) ist nicht nur einfach, sondern – wie mein Praxistest in den letzten 10 Tagen zeigt – dank neuen Netztechnologien erstaunlich schmerzlos.

Seit 10 Tagen surfe ich fast ausschliesslich Flash Player-frei durch das Internet. Gemacht habe ich das nach Herr Grubers Anleitung so:

  • Im Ordner /Library/ einen neuen Ordner “Internet Plugins (disabled)” erstellen und aus dem Ordner “Internet Plugins” die Dateien Flash Player.plugin, flashplayer.xpt und NP-PPC-Dir-Shockwave rüberverschieben. Dies deaktiviert den Flash Player. Aus- und wieder einloggen oder neu starten aktiviert diese Einstellungen.
  • Youtube auf HTML5 umstellen, das aktiviert den HTML5-Player auf YouTube
  • Vimeo auf HTML5 umstellen
  • Die Safari-Extension Youtube5 installieren, damit auch eingebundene YouTube-Videos ohne Flash Player angezeigt werden.

So bewege ich mich nun seit 10 Tagen durchs Netz und habe nur ein paar Einschränkungen bemerkt. Entweder weil ich (noch) keinen Vimeo Pro Account habe oder weil die Youtube5-Extension nicht korrekt funktioniert werden die eingebetteten Videos von mir nicht als HTML5 ausgeliefert. Teilweise werden Videos von anderen Seiten als Youtube und Vimeo nicht als HTML5-Alternative ausgeliefert (z.B. Spiegel.de oder NewsNetz). Flashgames (z.B. die witzigen der Nothing Agency) funktionieren nicht und die Flickr-Diashows werden auch nicht angezeigt. Diese Probleme sind aber sehr einfach lösbar. Und wie ich im vorhergehenden Eintrag geschrieben habe, ist ohne Flash Player der Link zum Einbinden von issuu.com-Dokumenten zwar kurz sichtbar, führ aber nach einem Klick und der Anzeige des Einbett-Codes direkt zum Dokument.

Für solche Spezialfälle greife ich auf Google Chrome zurück. Google Chrome hat seinen eigenen Flash Player eingebaut, der nach dem Beenden des Browsers auch sauber wieder aus dem Speicher gelöscht wird und so nach dem Anschauen eines Videos oder einer Diashow keine weiteren Probleme macht.

Fazit: Der Flash Player ist dank neuen Netztechnologien heute nicht mehr zwingend notwendig. HTML5 FTW!