Keine ‘recommended readings’ mehr

In naher Zukunft wird es hier keine ‘recommended readings’ mehr geben.
Irgendwas am Zusammenspiel der verschiedenen Komponenten funktioniert nicht mehr.

Ich vermute mal, dass der Hauptteil der Schuld bei del.icio.us liegt, denn mein RSS-Feed dort funktioniert nicht mehr.
Das heisst auch, dass das IFTTT-Rezept oder das WordPress-Plugin nichts mehr machen können.
Und ohne die Automatisierung ist mir das Ganze dann doch etwas zu aufwändig.

Wer weiterhin wissen will, was ich gerne gelesen habe, findet drüben bei Instapaper die Zusammenstellung. Ich bin auch dankbar für Tipps, um die Automatisierung wieder zu beleben, gerne auch mit einem anderen Dienst als del.icio.us. Das scheint nämlich schon länger auf dem absteigenden Ast zu sein…

Einfache Probleme, völlig over-engineered

Ich weiss, ich hab’ schon lange versprochen, ich schreibe mal über meine neue Arbeit. Was ich letzte Woche mal so nebenbei gemacht habe, gibt mir die Gelegenheit dazu. 3 Dinge kommen zusammen, die diesen Blog-Eintrag ausmachen: Die neue Arbeit, 3D-Drucker und ein Flug zurück von Marokko.

Seit Juni arbeite ich nicht mehr am PSI, sondern wieder an der Uni Bern, speziellerweise im selben Haus, in dem ich die Doktorarbeit geschrieben habe. Ich beschäftige mich immer noch mit hochauflösender Röntgen-Tomographie, einfach nicht mehr mit einer Synchroton-Röntgenquelle und einem krassen Aufbau auf einem Labortisch, sondern arbeite an zwei kommerziell erhältlichen Tisch-MikroCT-Geräten. Da kommt es z.B. mal vor, dass ein kleiner Fisch genauer angeschaut wird…

Coolerweise haben wir dort einen primasuprigen 3D-Drucker, mit dem ich einiges an angepassten Probenhaltern ausgedruckt habe, damit wir allerlei verschiedene Proben in unseren Geräten mikro-tomografieren können.

Und eben, letzthin waren wir in Marokko in den Ferien. Das war wunderbar, auch mit der Kleinen. Beim Rückflug ist an unserem Kinderwagen ein Kleinteil abgebrochen, irgendwo beim Ein- oder Ausladen, oder bein Zusammenlegen oder Auseinanderklappen, spielt ja keine Rolle…

Und jetzt kommt alles zusammen: Glücklicherweise ist das Kleinteil symetrisch an unserem Kinderwagen vorhanden. Also habe ich vom noch ganzen Teil im MikroCT eine Röntgentomographie-Aufnahme gemacht. Mit etwas Bildbearbeitung entsteht aus dieser Tomografie-Aufnahme das untenstehende Bild.
Phil und Teds-Stück, animiert
Dieser Datensatz kann dann in ImageJ als STL-Datei exportiert werden, ein Datenformat, welches der 3D-Drucker versteht. Nach gut 2 Stunden Warten sieht das Ding dann – frisch aus dem Drucker – so aus.

Fertiger print, 1
Fertiger print, 2

Farblich nicht ganz passend, aber von der Form her passt’s perfekt. Nachdem die Stützstrukturen entfernt wurden kann das Ding endlich montiert werden und sieht dann so aus. Alles viel einfacher als das Ersatzteil im Laden besorgen, oder?

Montiert

Also, Herr Chm, falls bei Ihnen dasselbe Teil abbricht, melden Sie sich, ich kann’s gerne nochmals ausdrucken…

Der Rückblick auf mich selbst im 2015

Hier ein weiterer meiner Jahresrückblick 2015-Posts. Die anderen sind unter dem Tag jahresrückblick15 zu finden.

Wie im 2014 habe ich mit der Everyday App praktisch jeden Tag ein Selfie von mir gemacht. Mit minimalsten Anpassungen hab’ ich das Skript von leztem Jahr über meine 338 Selfies laufen lassen. Zusammengesetzt mit der Zeitraffer-App kommt schlussendlich dieses Video hier raus.

Knapp die Hälfte der Tage dachte ich daran beim Arbeitsschluss im Treppenhaus ein Foto zu machen [2]. Dadurch ist der Hintergrund und die Beleuchtung in diesen Bildern etwas konstanter, was das Ganze etwas schöner zum anschauen macht.

So seh’ ich aus, wenn mensch den Durchschnitt aus allen 338 ausgerichteten Bildern macht. Mein durchschnittliches Gesicht im 2015.

Habis average face for 2015

[1]: Oder war auswärts am arbeiten. Oder nicht am arbeiten.

So entstehen meine ‘Recommended readings’

Seit einiger Zeit versuche ich immer Anfangs Monat ein Blogpost mit Texten und Videos zu machen, die mir letzten Monat gut gefallen haben.
Nachdem letzthin auch schon andere darüber geschrieben haben, wie ihre Linksammlung entsteht, dachte ich, ist es an der Zeit, zu erzählen, wie ich es mache.

Der allergrössten Teil meiner Nicht-Bücher und Nicht-Magazine lese ich via Instapaper, das ich von überallhin z.B. mit einem Bookmarklet befülle.
Instapaper ist extrem gut geeignet, um immer etwas zum Lesen dabei zu haben, sei es direkt auf dem Mobiltelefon oder z.B. auf dem Kindle, der normalerweise irgendwo in meiner Tasche oder in meinem Rucksack rumliegt.
Irgendwann hat mensch dann immer etwas Zeit, um den einen oder anderen Artikel dort zu lesen.

Die Artikel, die bei Instapaper mit einem Herzli markiere, werden mit einem IFTTT-Rezept [1] zu meinem del.icio.us-Account gezügelt.
Mit einem WordPress-Plugin, welches ich einmal im Monat laufen lasse, werden diese Einträge dort abgeholt und in ein Blogpost abgefüllt.
Dieses wird dann händisch noch etwas aufgeräumt und sortiert, bevor ich dann auf den ‘publizieren’-Knopf drücke und die Blogposts wiederum unter dem instapaper-Tag hier landen

Das Ganze liesse sich – wie bei Bastian – noch deutlich hübscher gesamt-automatisieren, damit z.B. auch die Herkunft des Links vermerkt wird.
So funktioniert es aber im Moment einigermassen gut.

[1]: IFTTT “is the bee’s knees“, wie mensch auf Englisch so schön sagt. Mit dem leuchtet zum Beispiel meine Schreibtischlampe auf, sobald ich heimkomme (oder blinkt rot, wenn die ISS obendrüber fliegt), werden speziell getaggte Fotos von flickr in Blogposts hier umgewandelt und einige andere Dinge für mich automatisiert.

Arq: Backup einfach!

Unter anderem, weil Philip grad von Backups schrieb.
Und weil’s am Ende des Blog-Eintrages etwas etwas günstiger gibt.

Seit längerer Zeit mache ich zusätzlich zu meinem TimeMachine-Backup auf einer Festplatte in der Schreibtisch-Schublate ein sogenanntes Offsite-Backup meiner wichtisten Daten (Fotos und Dokumente).

Das Offsite-Backup wird mit Hilfe von Arq bei Amazon gespeichert, so dass ich für ein Backup von gut 300 GB Daten im Monat knapp 8$ zahle und mir sicher sein kann, dass diese wichtisten Daten selbst dann sicher sind, wenn mir mein Schreibtisch mit dem Laptop drauf und der TimeMachine-Festplatte drin explodiert.

Seit neuerem kann Arq Backups auch zu Microsoft OneDrive (15 GB kostenlos) und Google Nearline (0.01 $ pro GB) sichern. Ich bin daran, meine Daten zu Google Nearline zu migrieren, dann zahl’ ich für mein Backup nur noch etwa 3$ im Monat…

Wer bis jetzt noch keine saubere Offsite-Backup-Lösung hat, kann mit dem Code 0FRFGFPLSCYH2HS2 bis zum 15. April Arq 10% günstiger kaufen, von mir aus gesehen eine absolut lohnenswerte Investition.

Nicht dass es schampar wahrscheinlich wäre, aber damit kann auch die ganze Wohnung mit dem Schreibtisch mit der Backup-Festplatte drin abbrennen und mensch kann immernoch auf seine Daten zugreifen, z.B. auf die ersten Fotos der Tochter :)

Kommentare sind wohl wirklich tot

Dies ist der vierte und letzte meiner Jahresrückblick 2014-Posts. Die anderen sind unter dem Tag jahresrückblick14 zu finden.

Wie schon voremene Zitli nahm es mich letzthin wunder, wie’s denn heutzutage so mit den Kommentaren hier aussieht.

Dafür hab’ ich mein Skript zur Kommentar-Visualisierung ausgegraben, minimalst aufgehübscht und liess es über meine WordPress Datenbank laufen.

Wie früher auch schon klar ersichtlich, hat die Kommentar-Zahl sowohl die Posting-Zahl abgenommen. Die Posts haben sich in der Region von ca. anderthalb Posts pro Woche eingependelt, während seit ein paar Jahren ein Post von mir im Schnitt höchstens noch einen Kommentar generiert.

Aber wie schon das letzte Mal soll nicht unerwähnt bleiben, dass das hier ja mehr so ein halbwegs visuelles Tagebuch meiner coolen Erlebnisse ist und ich nicht auf die Kommentare angewiesen bin. Interessieren würde mich aber schon, wie das bei anderen (WordPress)-Bloggern aussieht. Wenn ihr einen solchen Plot macht, macht doch einen Kommentar oder Trackback hierhin, damit wir ein paar Datenpunkte mehr haben.

Jahresrückblick auf mich selbst

Das ist der dritte meiner Jahresrückblick 2014-Posts. Die anderen sind unter dem Tag jahresrückblick14 zu finden.

Im 2014 lernte ich Git lieben, hab’ viel Bildverarbeitung mit Python gemacht und gelernt, dass Gesichts-Erkennung mit OpenCV in ein paar Zeilen Code möglich ist.

Gesichtserkennung, mit Augen

Dazu kam, dass ich praktisch jeden Tag ein Selfie von mir machte, mit der Everyday App. Eigentlich wollte ich diese beiden Dinge verbinden, fand dann aber irgendwann im Herbst raus, dass ich nicht der erste bin, der daran gedacht hat [1]. Rob Lourens hat ein Python-Skript geschrieben, das Bilder nimmt, auf diesen Gesichter und Augen erkennt und die Bilder zueinander ausrichtet.
Mit minimalen Anpassungen liess ich das Skript über meine 339 Selfies aus 2014 laufen. Zusammengesetzt mit der Zeitraffer-App mit 1 Woche pro Sekunde kommt schlussendlich dieses Video hier raus.

Knapp die Hälfte der Tage dachte ich daran beim Arbeitsschluss im Treppenhaus ein Foto zu machen [2]. Dadurch ist der Hintergrund und die Beleuchtung in diesen Bildern etwas konstanter, was das Ganze etwas schöner zum anschauen macht. Dieser Film ist so zusammengesetzt, dass eine Arbeitswoche einer Sekunde entspricht.

Wer die beiden Videos genau anschaut, sieht, dass ich im 2014 5 Mal die Haare und 18 Mal den Bart geschnitten habe. Und diesen Pickel an der Backe nur mit Bildbearbeitung los geworden bin, aber das ist ein guter Vorsatz im neuen Jahr :)
Und, weil’s grad so gäbig geht, und chli zu Rumänien passt. So seh’ ich aus, wenn mensch den Durchschnitt aus allen 339 ausgerichteten Bildern macht. Habis durchschnittliches Gesicht im 2014.

Habis average face for 2014

[1]: Ich sag’ immer: Es gibt fast nichts, das nicht schon jemand mal auch schon als Problem hatte, das schwierige daran ist nur, die Lösung trotzdem herauszufinden.
[2]: Oder war auswärts am arbeiten. Oder nicht am arbeiten.

Where was I in 2014

This is the first second of some of my look back on 2014 posts. To see the other ones, take a look at the jahresrückblick14-tag

Introduction

I tracked my location data with OpenPaths since the beginning of 2014. OpenPaths comes as an application for your phone, which tracks its location, uploads it to the OpenPath servers, where you can donate your data for scientific research, and look at the data yourself.

To do this, we grab a .CSV file with the location data. Log in to OpenPaths, and click on CSV under Download my data, which gives you a comma separated list of your location data, which can then visualize with R, which is what we’ve done here.

Data

We want to plot the location points on a map, which we can do with the wonderful ggmap library. First, we load the CSV file and display a summary of the data.

library(ggmap)
data summary(data$lat)
summary(data$lon)
summary(data$alt)
## lat
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 34.6 46.9 47.2 46.0 47.5 53.6

## lon
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 4.76 7.50 8.20 21.80 8.22 141.00

## alt
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## -48 353 380 463 546 2670

In 2014 I was somewhere in woods somewhere in Romania in the mean, and somewhere in Beromüster as the median.

summary(data$device)
summary(data$os)
## device
## iPhone4,1 iPhone6,2
## 13453 1093

## os
## 7.0.4 7.0.6 7.1 7.1.1 7.1.2 8.0 8.0.2 8.1 8.1.1 8.1.2
## 829 261 2238 2065 1551 145 6095 479 449 434

We see that in 2014 I changed from an iPhone 4S (iPhone4,1) to an iPhone 5S (iPhone6,2) and went through 10 different iOS version numbers.

Location data

Extremes

Interesting points in our data are

  • The minimal and maximal latitudes of 34.601 and 53.5866, South and North.
  • the minimal and maximal longitudes of 4.762 to 141.1744, East and West.
  • as well as the altitude, which ranges from -48 AMSL to 2671 AMSL.

We can get the extreme points out of the data pretty easily. To do so, we subset the data depending on the value we want to have, build a Location from these points, grab the map from that location, display this map and add a pointer.

For the most northern point, this goes like so:

NLocation = c(lon = subset(data, lat == max(data$lat))$lon[1], lat = subset(data,
lat == max(data$lat))$lat[1])
mapImage zoom = 15)
ggmap(mapImage) + geom_point(aes(x = subset(data, lat == max(data$lat))$lon[1],
y = subset(data, lat == max(data$lat))$lat[1]), alpha = 0.5, color = "darkred",
size = 10) + ggtitle("Northmost point in 2014")

where_is_the_northmost_point_

We see that in 2014 I was in Hamburg, which is the northmost point. Correctly, the northmost point would be in Oslo, where I spent New Years Eve 2013/2014, but I’ve only really started to use OpenPaths in mid-January 2014…

The rest of the extremes can be extracted accordingly.

where_are_the_other_cardinal_direction_extremes_1
where_are_the_other_cardinal_direction_extremes_2
where_are_the_other_cardinal_direction_extremes_3

The most eastern point was (unsurprisingly) in Japan, the southmost point in Cyprus and the most eastern point in Amsterdam (while flying to Japan).

The highest peak I reached in 2014 was the Bettmerhorn, probably while skiing. The lowest point at -48 AMSL was at home and is probably a fluke in the GPS data :)

where_is_the_highest_point_

Where was I in Switzerland?

To plot the obtained data on a map, we have to center the resulting map location. Since I only want to show the data points in Switzerland, we center the map on that. Afterwards, we can simply plot all the data points on top of that image, and you can see where I was in Switzerland in 2014.

HomeBase zoom = 8)
AllPoints ggmap(HomeBase) + geom_point(aes(x = lon, y = lat), data = AllPoints, size = 3,
alpha = 0.25)

Swiss_Locations

If you’d like to see the full R code (in R Markdown), you can take a look at the OpenPaths.Rmd on my GitHub account.

Mailbox Beta-Einladungen

Vor längerem hab’ ich mal die Mailbox-App auf meinem Telefon installiert gehabt.
Auch wenn ich nicht wirklich damit warm geworden bin, war ich interessiert, ob die App auf dem Desktop funktioniert.
Letzte Woche erhielt ich die Einladung [^1], mich an der Beta-Version für OS X zu versuchen.
Weil die App nur mit Gmail– und iCloud-Accounts funktioniert, konnte ich die App aber leider nicht testen [^2].

Langer Rede kurzer Sinn; Ich hab’ nun drei zwei eine drei Einladungen zu verschenken, für jemanden, der die App testen und benutzen will (wie gesagt: OS X, Gmail oder iCloud).
Wer so eine Einladung möchte, kommentiert unten oder sendet mir ein Mail.

[^1]: Offensichtlich sind gestaffelte Beta-Einladungen gefühlte hundert Jahre nach deren Einführung immer noch ein Ding.
[^2]: Also können schon, nur hab’ ich in den letzten Monaten meine Mails von Google weg zu meinem eigenen Server gezügelt. Und nur für’s testen das wieder rückgängig zu machen, erschien mir dann doch zu mühsam.

update:
Ich bekam wieder ein paar Einladungen, aktuell sind noch fünf zu haben.

Einladungen ginen raus an

Das Mitmach-Web ist tot!

Vor fast zwei Jahren haben das Thema schon mal diskutiert; und befunden dass bei verschiedenen Blogs bei den Kommentaren die Peaks überschritten sind.

Letzthin fiel mir ein, dass ich das doch mal wieder anschauen wollte, ob sich daran etwas geändert hat. Nach kurzer Analyse komm ich zur Aussage, dass das Mitmach-Web tot ist, jedenfalls aus meiner Sicht. Auf meinem Blog hier hab’ ich den letzten drei Jahren Kommentarzustände wie 2006, also im Schnitt ca. anderthalb Kommentare pro Eintrag.
Dafür kann es mehrere Gründe geben, der offensichtlichste ist, dass das was ich schreibe generell wenig Reaktionen hervorruft. Ein anderer Grund ist, dass sich kein Schwein für das interessiert, was ich schreibe. Oder dass generell nicht mehr so kommentiert wird, wie vor einigen Jahren.

Das tönt jetzt etwas griesgrämig, ist aber nicht wertend gemeint. Wenn ich das, was ich hier mache nur machen würde, um Rückmeldungen abzuholen, bin ich sowieso auf der falschen Schiene. Das Blog hier dient schon über 10 Jahren (jawoll) als öffentliches Tagebuch, zum festhalten von Eindrücken und Dingen, die mich bewegen.

Und schliesslich sind Blogs nur noch für 40-jährige mit Kindern, wie Herr Kottke letzthin schrieb. Beide Eigenschaften treffen (noch) nicht wirklich auf mich zu, ihr wisst aber schon, worauf ich raus will.

Langer Rede kurzer Sinn; ich hab’ mich mal wieder hinter die Tastatur geklemmt und versucht, ein kleines Skript zu schreiben, welches mir die Arbeit abnimmt, die Aussagen aus der Datenbank zu knübeln, damit ich das Gegreine oben mit Zahlen belegen kann.

Ich hab’ das Skript von vor zwei Jahren etwas ausgebaut, so dass das Datenbank-Gepfriemel und die Anzeige in einem Rutsch gehen. Und zwar so.

Dank MySQL Connector/Python wird die Datenbank von WordPress direkt angezapft, mit optparse werden dem Skript ein paar Vorgaben (Server, Datenbank, Username und Passwort) dazu übergeben.

Die Datenbank-Abfrage (ursprünglich von Herr Leu) wird direkt übergeben.

Anschliessend wird mit den abgefragten Daten etwas jongliert und diese dann ausgegeben,

Und schlussendlich wird mit matplotlib das ganze visuell dargestellt und als Bild gespeichert, Dank iWantHue in einer optimalen Farbkombination.
.

Wer das ganze für sich selber auch anschauen möchte, sei herzlichst eingeladen, das Skript hier herunterzuladen und im Terminal zu starten. Ohne Parameter gibt’s mal eine Hilfe, ich verrate schon, dass mensch die Angaben wie Server, Datenbank-Name, -User und -Passwort bereithalten sollte. Wenn du das grad nicht mehr weisst, findest du diese Angaben in deiner wp-config.php-Datei.

Issues und Pull Requests sind herzlich willkommen, genauso wie Kommentare mit den Bildern von euch.

habi_gna_ch.png

Roboter, übernehmen Sie

Die Jungs und Mädels von Bot & Dolly montierten auf mehrere Industrieroboter zwei Leinwände, Projektoren und eine Kamera (was auch Ihr Business ist).
Mit ausgeklügelter Software und sogenannten Projektions-Mapping (genauso wie beim Rendezvous auf dem Bundesplatz) werden dann auf diese Leinwände Bilder projiziert, während sich diese (Leinwände und Bilder) bewegen. Alles direkt gefilmt, ohne digitale Nachbearbeitung am Computer (aber langer digitaler Vorbereitung).

Was rauskommt, ist unglaublich beeindruckend anzusehen, und ich glaube es ist fast nicht übertrieben, eines der drei Gesetze von Herr Clarke zu zitieren: “Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden”.

Nebenbei lohnt es sich auch noch ein-zwei andere Videos der Bot & Dolly-Crew anzugucken.
Wenn ich einen Film drehen würde und zuviel Geld hätte, würde ich mir einen Scout oder eine Iris von denen zulegen…

[via nerdcore.de]

Mein bisher längstes Zeitrafferfilmi

Der Film selber ist gar nicht so lang, aber die Herstellung dauerte lange.

Wie aufmerksame MitleserInnen wissen, versuche ich während den Arbeitszeiten [1] Wissenschaft zu betreiben. Das hat zur Folge, dass die erzielten Resultate der Öffentlichkeit zugänglich gemacht werden sollten, nachdem die Auswertung erfolgreich gelungen ist.

Mit den Tomografie-Daten, die unter anderem während meiner Doktorarbeit entstanden, sollen neue Erkenntnisse über das nachgeburtliche Wachstum der Lunge erzielt werden. Die Methode, wie wir einzelne funktionale Einheiten der Lunge, die sogenannten Acini aus den Datensätzen extrahiert haben und diese anschliessend nach allen Regeln der Kunst analysiert haben, beschreiben wir in der Publikation “Visualization and stereological characterization of individual rat lung acini by high-resolution X-ray tomographic microscopy“, die kürzlich im Journal of Applied Pyhsiology erschienen ist.

Jedes von mir erstellte Dokument welches ein Bild enthält und länger als eine Seite ist, schreibe ich in LaTeX [2], das macht es möglich, dass ich mit Subversion [3] eine sogenannte Versionenkontrolle mache, d.h. ich halte immer mal wieder den gegenwärtigen Zustand des Textes fest, bevor ich daran weiterarbeite. Später kann dann, falls nötig, auf eine alte Version zurückgegriffen werden, oder nachvollzogen werden, wer was wann geschrieben hat.

Vor fast einem Jahr las ich auf FlowingData, wie ein Wissenschaftler den Verlauf seiner Publikation in einem Zeitraffer-Film zeigt, das dachte ich, das kann ich auch, ich hab’ ja jede Version auf dem Code-Server der Uni Bern [4] gespeichert.

Mit einem Python-Skript habe ich jede einzelne Version aus dem Subversion-Archiv in ein einzelnes Unterverzeichnis geladen. Mit einem zweiten Skript habe ich aus jeder Version ein PDF gemacht, und alle Seiten dieses PDFs als Bild gespeichert. Mit etwas Nachbearbeitung in iMovie ist dann unten eingebundenes Zeitraffer-Filmli entstanden: Die lange Arbeit an einem Paper visualisiert in 45 Sekunden.

Damit mensch überhaupt etwas sieht, habe ich den Film mal in voller Grösse zu youtube hochgeladen und in halber Grösse hier eingebunden.

[1]: Und manchmal ausserhalb der normalen Arbeitszeiten
[2]: Oder in Markdown mit Umweg über pandoc zum Zielformat
[3]: Oder neuerdings ausschliesslich git
[4]: Besser gesagt, ein Subversion-Server auf der virtuellen Serverfarm der Uni Bern den schlussendlich nur ich gebraucht habe…

Mein “Review” der Pebble-Uhr

Letzthin konnte ich einen Neuzuwachs in meiner Sammlung spezieller Uhren machen und hab’ mir eine Pebble gekitscht.

Der Webflaneur hat mich daraufhin gebeten, ob ich für die Berner Zeitung ein paar Zeilen dazu schreiben möchte, was ich gerne tat. Nachdem nach der Sommerflaute mal genug Blätter in die Druckerpresse eingespannt wurden, ist der Text zu meiner neuen Uhr erschienen. Eine PDF-Kopie ist unten eingebunden, für alle diejenigen, die letzte Woche die Ausgabe auf totem Holz verpasst haben.

Wer sich dafür interessiert, was die Grundlage für die redaktionelle Arbeit von This war, findet hier die Ausgangslage.

Die Swiss Light Source im 2012

Wer meinen flickr-Stream etwas im Auge behält, weiss, dass ich im 2012 jeden Monat ein Panorama im Innenhof der Swiss Light Source gemacht habe.
Die Panoramas zeigen die Rundum-Sicht im imposanten Innenhof, teilweise bei schönem Wetter, teilweise bei weniger schönem.

Damit ich mit den Bildern etwas dynamischer den Jahresverlauf zeigen kann, habe ich mir ein kleines Python-Skript geschrieben [1], welches die 12 stereographischen Panoramen nimmt, ineinander überblendet und die ganze Sache nadisna um 360° rotiert.
Das Skript ist unten eingebunden und kann in meinem Python-GitHub-Repository geforkt und kopiert werden, wenn Bedarf daran besteht.
Ich habe versucht, das Skript grosszügig zu kommentieren, so dass die interessierte Leserschaft sieht, was wie gemacht wird :)

Mit der Hilfe der AppStore-Neuentdeckung Zeitraffer habe ich die jeweils 100 Bilder jeder Monats-Überblendung zu einem Film zusammengesetzt und mit iMovie noch etwas Titelei dazugemacht.
Das Endprodukt dieses ganzen Vorgangs ist der unten eingebundene Film: das Jahr 2012 im Innenhof der SLS in einer Minute.

[1]: In den letzten Monaten programmierte ich etwas häufiger als auch schon, dabei habe ich die Einfachheit von Git kennengelernt. Mittlerweilen habe ich einen grossen Teil meines (öffentlichen) Programm- und Skript-Codes bei Github deponiert.

Sprachexperiment

Ich bin ein grosser Freund von Webcomics, xkcd von Randall Munroe hat es mir sehr angetan. Vor einiger Zeit hat er eine Beschreibung der Saturn V-Mondrakete veröffentlicht, bei der er nur die 10 100 häufigsten Wörter in Englisch gebraucht hat (1000 ist nicht dabei, deshalb 10 100 :).

Das ziemlich lustige Sprachexperiment xkcd 1133 hat einen anderen Geek dazu verleitet, einen Text-Editor zu schreiben, der einem Texte schreiben lässt, bei denen nur die 10 100 häufigsten Englischen Wörter vorkommen können: The Up-Goer Five Text Editor

Ein paar weitere Geeks und Geekettes hat das animiert, ihre tägliche Arbeit in 10 100 Wörter zu fassen und mittlerweilen gibt es sogar ein ein Tumbler-Blog zu Ten Hundred Words of Science.

Heute Abend im Zug hab’ ich versucht, zu schreiben, was die Forschungsgruppe, in der ich am PSI arbeite, so den ganzen Tag macht. Herausgekommen ist dies, upgoerfive-style:

I work at the ‘XRay’ ‘Tomography’ group at the largest house in my land where people think, we do look at things with the help of strange light. It goes like this: In a very big ring in a building we make bits that power is made of go around very fast. If we force those bits around a turn, this makes a bright light which we then put onto really small, interesting things. This bright light goes through these things and is a bit darker than before at some points, because the thing is heavy inside at some points and not so heavy at other points. The form of this darker and brighter spots is made bigger (so we can look at very small things) and is written down in a computer in the end. While the small interesting thing turns around, we write down a lot of these forms of darker and brighter spots as pictures, up to several ten hundreds of these. Using more computers we can then change all these pictures so that we can look not only how the very small interesting thing looks from the front or back, but also from the inside. This is where the real work starts.

Irgendwie muss ich am Ende noch ein bisschen weiter-schreiben, aber dafür ist ja der Permalink da. Was machst du den ganzen Tag? Kannst du das mit den 10 100 häufigsten englischen Wörtern beschreiben? Wenn ja, mach einen Kommentar, ich würde die Beschreibung gerne lesen.

Trendy sein.

Herr Born, für den ich letzten Frühling etwas für die BZ geschrieben habe, hat mich auf den neuesten Trend aufmerksam gemacht, über die er als Journalist informiert wurde.

Offensichtlich hat Nikon vorgesehen, dass im 2013 360°-Panoramen im Trend liegen werden. Dank einem ausgeliehenen Objektiv von Herr Widmer war ich schon vor fast vier Jahren trendy, als ich das erste Mal erfolgreich einen kleinen Planeten fotografiert habe, vor dem Hauptgebäuder der Uni Bern. Mittlerweilen haben sich in meinem Planeten-Set 67 mehr oder weniger gelungene Planeten angesammelt, dies mit eigenem Fisheye-Objektiv.

Die Pressemitteilung von Nikon (unten eingebunden) verweist auf Sam Rohn, der einige tolle Panoramen auf Lager hat, schafft es aber leider, meine Lieblings-Software für Panoramen, hugin fälschlicherweise als Huginwork zu bezeichnen.

Trotzdem toll, dass ich schon vor Jahren diesen Trend mitgemacht habe, mal schauen, wie sich das im Trendjahr 2013 in diesem Sinne entwickelt :)

Neil Harbisson hört farbig

Neil Harbisson hört farbig, dennoch ist er kein Synästheth. Im klassischen Sinn ist er behindert, wurde er mit einer Erbkrankheit der Netzhaut geboren, das heisst, er ist nicht nur etwas farbenblind wie ca. 5% aller Männer, sondern komplett farbenblind, er sieht die Welt komplett monochrom. Mit 21 Jahren beschloss er, zu einem – wie er sagt – Cyborg zu werden und installierte sich einen Chip im Schädelknochen, der mit einem Spektrometer verbunden ist, welcher Farbinformationen in Töne umwandelt. Diese Töne kann er über Knochenschall hören und so Farben empfinden.

In seinem (unten eingebundenen) TED-Vortrag erzählt er davon, was er aus seiner Behinderung gemacht hat, was sehr spannend rüberkommt. Wunderschön finde ich den Moment in dem Neil farbige Stofffetzen vor seinen Sensor hält und die Farben beschreibt: Er spricht nicht von Grün, sondern von der Frequenz von Gras. Aber der bemerkenswerteste Moment in seinem Vortrag ist, als er beschreibt, dass er seine Kleidung (auf der TED-Bühne trägt er eine sehr coole Pink-Blau-Gelb-Kombination) nicht mehr so auswählt, dass es gut aussieht, sondern dass der Akkord zur Gelegenheit passt. Das hat zur Folge, dass er an einer Beerdigung in einer Kombination von Türkis, Violett und Orange auftauchen würde, weil dies ein trauriger b-Moll-Akkord ergibt.

Grandios ist, dass sich seine doch sehr einschränkende Behinderung in keinem Moment manifestiert, sondern Neil den Eindruck macht, durch sein Cyborg-Upgrade einen zusätzlichen Sinn und ein wunderschönes Leben zu haben.