köln süd | 50 m hoch, rundum

rundum panorama köln südstadt

das panorama ist aus 50 metern höhe aufgenommen und hat einen kleinen näh-fehler (stitching problem), der aber nicht tragisch ist. wir sehen den dom, den deutschlandfunk, die severinsbrücke, die nord-südfahrt, die severinstraße, den waidmarkt. etwas näher das friedrich-wilhelm-gymnasium, das hotel mercure und die baustelle des eingestürzten stadtarchivs. diese baugrube wird in einem jahr völlig anders aussehen. let me keep you posted. ich rate zum betrachten auf vollbildmodus zu gehen.

unten dasselbe panorama, diesmal in der → little planet-projektion. weil ich immer wieder gefragt werde, warum man ein panorama nicht „ordentlich“ auf papier bringen kann, erinnere ich an den weltatlas. der verzerrt so ungemein, eben weil es immer verzerrt, wenn man etwas dreidimensionales auf papier oder bildschirm bringt.

little planet version des obigen panoramas

complex stitching | defects

this is photoshop’s helplessness with stitching non-trivial panoramas. the error message in german translates to: some images could not be automatically put together because of missing elements in between. what PS instead does is arrange the images in a useless vertical row:

helpless photoshop stitching

adobe lightroom which usually handles standard panaroma stitching with ease fails often with more complex panoramas. plus: it does not detect vertical shots where the drone moves in X/Y axis. lightroom tries to interpret the images as perspective, cylindrical or spherical shots. only with a preselection it did a decent job. the original image below is 9,000 pixels wide.

lightroom stitching – nice try. lots of things missing

microsoft ICE is very robust. instead of leaving unknown/uncovered areas blank it invents its own landscape:

creative stitching with ICE. inventing structures

the image shows things in the top left corner which the other tools just ignored. in the top right area, however, ICE did some remarkable interpretations. here in detail: my car would run right into the river, roads fall into the lake etc. actually quite lovely.

errant stitching makes funny farmland.

i think next time i need to pre-programme the flight using waypoints, to that nothing is missed out.

when i took these photos for stitching i thought about the legal situation. i was flying across a poisoned lake. it was poisoned because of the chemical industry factory nearby. does the chemical industry own the lake where under normal circumstances the local people would swim in summer? i don’t think so. they own as much of the lake as of the air they pollute and which we all breathe.

did i spy out anything? see the image which ICE put together. it shows premises at the top right which are certainly „private“. from a legal standpoint in most european countries us drone pilots must avoid flying over private premises. we may fly close, tilt the camera and have an almost vertical look down, but the straight vertical shot is so-so-ish.

in practical reality nothing can be spied out with drones flying at 100 or so meters altitude – because satellelites do that all the time, and services like google maps or google earth provide those insights (oversights) for free, and free of legal punishment.

the tricky thing is when amateur drone pilots fly low across private property, invoking irritation, rage and lots of negative feelings against ALL drone pilots.

dimension planning for mavic | drone

how many meters wide is this scenery? 100? 500?

i’ve struggled with taking vertical panoramas. a vertical panorma means flying the drone at an exact altitude across a certain area, stopping at regular intervals in order to take photos by looking straight down, and finally stitching them all together. with some drone apps such as litchi you can create exact flight patterns using waypoints, and you can tell the drone what to do at certain waypoints, such as taking a vertical photograph before flying to the next programmed spot. i did that the other day and found that the distances i had planned were to long, so that the panorama software ran into stitching problems.

so i looked into distances: what diemension long and wide can the DJI mavic pro lens cover from an altitude of exactly 100 meters? i could have looked up the focal length of the drone’s camera and started the calculation from there, but instead i chose a section of a lake i had photographed recently. i opened google maps in satellite view and checked the dimensions of the water: 50 meters.

google maps says: this is 50 meters.

i compared the dimensions my mavic shot and came to the conclusion that the lens covers about 160 x 80 meters on the ground if it flies 100 meters high. the phantom pro lens has a slighter wider angle and covers a bit more. in order to stay safe for taking vertical panoramas you should stop at every 100 meters in one axis and at 50 meters in the other dimension.

safe dimensions for vertical shots (alt: 100 m)

i give you a few prominent examples: the brooklyn bridge is about 600 m long, from coast to coast. for a panorama you need to take 6 photos to cover the whole bridge.

brooklyn bridge is 600 meters long.

can we cover the leaning tower of pisa in one shot? with ease! the → st. peter’s square in rome? no way! we need at least 6 photos to create a satellite-like hi res map of it.

side topic: when i took some photos for stitching (see → here) i thought about the legal situation in different countries. in most western states it’s prohibited to fly over private property such as a garden or a factory. in practical reality nothing new can be spied out with drones flying at 100 or so meters altitude. nothing „new“, because satellelites do that all the time, and services like google maps or google earth provide those insights (oversights) for free, and free of legal punishment. the tricky thing is when amateur drone pilots fly low across private property, invoking irritation, rage and lots of negative feelings against ALL drone pilots.

Immendorfer Baggerseen in | 360°

baggerseen zwischen → immendorf und → meschenich

sie liegen südlich von köln, nördlich von bonn und sind wegen ihrer schadstoffbelastung nicht zum angeln und zum schwimmen geeignet. ich überflog sie abends (oranger himmel = westen) mit meiner drohne bei 100 metern höhe. wir sehen immendorf im süden, godorf im osten und meschenich im westen. unten dasselbe material, aber mit → little planet projektion. süden ist unten. man erkennt daran das problem, eine räumliche aufnahme auf eine ebene zu projizieren. sie führt immer dann zu einer verzerrung, wenn der fotograf die kamera um ihre eigene achse dreht. von der satellitenaufnahme von sehr weit oben abgesehen wäre die einzige verzerrungsfreie alternative das abfliegen der seen bei konstanter höhe und konstantem objektiv-blick nach unten, quasi als raster. habe ich noch nicht probiert, kommt noch.

immendorfer baggerseen als little planet projektion. foto: ms

höhenprofile auf google | earth

mich hat interessiert, wie man flugrouten mit drohnen planen kann. in google earth (und zwar nur in der → app am PC oder mobil, nicht aber in der browserversion) kann man wegpunkte einzeichnen, wie hier im tal zwischen garmisch und der zugspitze. ich habe die kurve mit der maus gezeichnet und dann angegeben, dass ich eine relative höhe vom boden fliegen möchte, nämlich 88 meter. tatsächlich erledigt google earth diesen job gut. ich könnte die daten des pfads dann exportieren und in die drohnen-app importieren. selbstverständlich ist so eine route viel zu weit und mit vielen einschränkungen verbunden, sodass man sie nicht realisieren könnte. aber im prinzip geht es so.

höhenprofil 88m über grund

riesengroßer little | planet

little planet panorama. foto: ms/dpa

wenn man viele bilder zu einem gesamtwerk vernäht, wie bei einem panorama üblich, entstehen große dateien. in diesem fall zwang das in microsoft ICE zusammengesetzte bild meinen rechner in die knie. das stitching (vernähen) selbst ging noch einigermaßen flott vonstatten, aber der import in photoshop dauerte ewig, lightroom lehnte das panorama von haus aus ab, weil zu groß.

ich sah also nach und fand die verblüffende bildauflösung mit übe 50.000 pixeln breite. das bild belegte in photoshop 5 GB arbeitsspeicher, und weil mein rechner zuhause „nur“ 4 GB hat, scharrte sich das programm mühsam speicher auf der festplatte zusammen. jeder bearbeitungsschritt dauerte gefühlt 5 minuten.

anyway. hier oben ist es, gezähmt. → little planet, aufgenommen gestern. und unten ein detail aus dem → nadir (bildzentrum), um die auflösung besser beurteilen zu können.

little planet übrigens: da gibt es immer den tipp, ein paar schön hohe objekte zu haben und nur minimal über den horizont zu gucken. das habe ich hier versucht, indem ich die drohne niedrig fliegen ließ, etwa 3 meter, und nah an den zwillingsbäumen.

detail aus dem nadir des obigen panoramas

 

konvergenz | kostet

wenn adidas seine schuhsohlen mit 3D-druckern printet und die dafür verwendeten CAD-daten später beim verkauf online stellt, damit der kunde sich über den konfigurator seinen individualschuh zusammenstellt, heißt das konvergenz. diverse expertenschichten des betriebs konvergieren, fügen sich hier zusammen zu einem, und der kunde freut sich über das verkaufserlebnis eines individualisierten schuhs, während man ihn an die marke bindet wie nie zuvor.

dieser prozess ist in der fertigungsindustrie nicht selbstverständlich. der schuhmacher hat ja zunächst nicht viel mit dem CSS-programmierer gemein.

bei diesen in der größeren industrie weitgehend abgeschlossenen konvergenzprozessen fällt auf, dass sich die hierarchien innerhalb der firmen verschoben und wieder zurückverschoben. in zeiten, als die „mulitmedialität“ ein buzzword war, waren die online-experten die kings. die anderen abteilungen, typischerweise die fertigung und der vertrieb, beknieten die onliner, doch bitte dies und das für sie zu tun, weil man merkte, das gesicht des ladens wird von außen durchs internet wahrgenommen, nicht mehr durch flugblätter, prospekte und fernsehwerbung.

die journalistischen medien kämpfen seit langem mit der multimedialität, die sie heute gern  „trimedialität“ nennen, wobei TRI bei print bedeutet print + bild + film, beim rundfunk ton + bild + film – oder so ähnlich. „konvergenz“ ist schicker, meint aber dasselbe.

die new york times hat vor einigen jahren videos eingeführt, die anfangs bisschen hemdsärmlig produziert waren, seit langem aber professionell aussehen, sogar (correct me if i’m wrong) colour matching zu nutzen, also die stimmige farbgebung von film zu film. gefühlt zwei jahre ist es her, dass die NYT erstmals virtual reality-filme anbot. die redakteureInnen, die die tollen artikel schreiben und dafür ausgebildet und eingestellt wurden, können das gar nicht. also heuerte man firmen an, die das können. das stellte sich als preiswerter heraus als die in-house-produktion. eine konvergenz hat die times dennoch nicht geschafft. sie ist im prinzip eine zeitung aus papier mit viel text und einigen bildern gewesen, und jetzt ist sie eine internetseite/app mit etwas anderem text, vielen vielen bildern und noch mehr kommentaren von lesern. die abrufe der videos spielen sich im marginalen bereich ab. konvergenz misslungen.

im moment setzt die new york times auf das magazinhafte und hat dann glücklicherweise profifotografen, die, man glaubt es kaum, gut texten können. siehe zum beispiel ivor pricketts bild/text-strecke über die tragik des zurückeroberten mosuls. statt die videos als videos auf die hauptseite zu stellen, promotet man artikel, die mit reichem anders-medialen content angefüttert sind, wie hier: → wasserkraftwerk am columbia river. fotos/filme von chang w. lee, text von jemandem anderen, kirk johnson.

wenn sich eine zeitung im internet präsentiert, ist das ähnlich, wie wenn sich ein fernsehprogramm im internet präsentiert. man muss das medium dafür nicht neu erfinden: das was im TV in realtime läuft, sieht im internet genauso aus, es ist nur on demand abrufbar. die fernsehsendung im internet hat ähnlich dürre textbeigaben wie der gute alte videotext. im prinzip ist fernsehen so wenig konvergent wie print – da muss nichts groß konvergieren, man muss es nur transferieren. in den führungsetagen der sender heißt das auch: „mehrere ausspielwege bedienen“.

beim hörfunk, der ins internet geht, ist die lage qualitativ anders, weil webseiten zwar töne abspielen können; aber im prinzip sind webseiten eben seiten, also dinge zum angucken, und radio ist etwas, wo man eigentlich nichts angucken muss. das ist ja das tolle und ewig merkwürdige am rundfunk, dass man beim morgens zähneputzen oder in die arbeit fahren nichts spezielles angucken muss, wenn aus dem radio oder radioplayer die informationen am morgen oder die mäßigen witze von 1live schallen.

https://upload.wikimedia.org/wikipedia/commons/5/5a/Girl_listening_to_the_radio_%E2%80%93_ca._1938_-_FDR-library_27-0755M.jpg

mädchen guckt radio. quelle: wiki commons

weil aber immer mehr leute googeln, hat sich das hörverhalten geändert. viele leute suchen nach einem thema und finden dann hörfunkbeiträge auf webseiten, ohne das programm je gehört zu haben, ja ohne von dem sender jemals gehört zu haben. das fing ganz zart an: wenn jemand vor 20 jahren nach „ausländer“ googelte, stieß er ziemlich sicher auf das ZDF, weil das ZDF eine der ersten öffentlich-rechtlichen webseiten überhaupt hatte und man dann einen hinweis auf eine „ausländer“-sendung fand und das manuskript per post anfordern konnte. die webseite war fast 20 jahre nicht viel mehr als ein begleittext zum programm. bald wird kaum jemand mehr das ZDF angucken, immer mehr nutzen die mediathek – diesen zweiten ausspielweg.

wenn heute jemand nach brexit googelt, beginnt hinter den kulissen ein konkurrenzkampf, wer seinen brexit-content bei google nach oben schieben kann. wer hier gar nicht dabei ist, weil er zwar tolle radiobeiträge über den brexit macht, aber keine schillernde webseite dazu generiert, die viel „traffic“ zieht, gilt als digital abgehängt. die aktuelle suche nach brexit präsentiert ganz groß zwei fernsehredaktionen und eine zeitung:

webseite von google bei suche nach brexit

interessant daran ist übrigens die konvergenz der tagesschau: „vor 40 minuten“ wurde gar keine tagesschau ausgestrahlt, aber die online-redaktion hat offenbar einen artikel dazu geschrieben. wenn wir darauf klicken, freut sich der NDR über den klick, vor allem aber freut sich google.

direkt darunter auf der suchseite von google setzt sich das hickhack fort. warum steht wohl zeit.de ganz oben, und warum kommen unter den ersten 10 keine öffentlich-rechtlichen rundfunkanstalten vor, die wikipedia und web.de aber schon?

weitere brexit-konkurrenz auf google

die „währung“, die dahinter steckt, ist die der aufmerksamkeit. wenn die aufmerksamkeit nicht mehr über die UKW-skala erfolgt, sondern verstärkt über google, ist das die währung, und daher kommt der konvergenzdruck – auch beim öffentlich-rechtlichen rundfunk.

dabei steht nirgends im rundfunkstaatsvertrag geschrieben, dass sich der rundfunk im www platzieren muss. er könnte das auch unterlassen, würde dann aber schnell allenfalls zum geheimtipp werden, zum geheimtipp auf UKW, und wenn UKW abgeschaltet wird, zum noch geheimeren tipp auf DAB+. denn die musik spielt nicht mehr lange über antenne, sondern im internet.

bei adidas rechnet sich die konvergenz, bei spiegel online und zeit.de wegen page impressions und werbeeinnahmen natürlich auch. beim öffentlich-rechtlichen rundfunk aber muss draufgezahlt werden.

was im moment in allen häusern passiert, ist eine bewegung des programms ins internet, wobei die online-redaktionen gestärkt werden, wie früher bei adidas – eigentlich eine verdrehung der tatsachen. die journalisten erzeugen den content, die online-kollegInnen stellen den content gut aus. den content gäbe es auch ohne internet.

die konvergenz erzeugt druck und tut weh. es knirscht, und spähne fliegen. denn die kernkompetenz des radiojournalisten, rundfunkmoderators  und -redakteurs ist das radiohandwerk, nicht das anfertigen von markengerechten fotos und videos. die fernsehleute können traditionell gut filme drehen und schneiden, aber nicht gut texten; die hörfunkleute sind gute texter, aber die meisten haben keine ahnung davon, wieviel video-footage man braucht, um einen fünfminüter hinzukriegen – sehr viel! texten für twitter funktioniert anders als teaser-texte, pressetexte oder online-texte zu schreiben. man kann sich jetzt auf den standpunkt stellen, die früher „sekretärinnen“ genannten heutigen „produktionsassistenten“ müssten sich halt in alle stufen der produktion einbringen – aber sollen sie den redakteuren ihre kernarbeit abnehmen, gut zu recherchieren und zu texten?

wären sie adidas oder IBM, wäre das gut durchfinanziert – und erledigt. aber im öffentlich-rechtlichen bereich muss alles „kostenneutral“ durchgeführt werden; die sender bekommen ja keinen cent mehr an rundfunkgebühren. jetzt müssen sie ein artfremdes medium bedienen, mit viel verschließ intern. denn kostenneutral heißt eben, dass die redaktionen das erleben, was in die arbeitsstatistiken nicht eingeht, nämlich eine arbeitsverdichtung wie nie zuvor. es ist eine ganz grundsätzliche gesellschaftliche frage, ob man jemandem eine menge zusatzarbeit innerhalb seiner regulären arbeitszeit aufhalsen darf, nur weil er/sie es „irgendwie“ kann – oder können muss. und das jeden tag. und dann der frust: die online-kollegen haben das ganze material umgestellt, falsch beschriftet usw. verschleiß, zumindest in der konvergenzphase.

typische dachmarkenstruktur. grafik: gnom/credibilty wikicommons

in den konvergenzgremien schwirrt das wort „marke“ umher, immer häufiger hört man auch „dachmarke“ – beides begriffe aus einem bereich, der dem neutral berichtenden gewerbe des journalismus geradezu artfremd ist, eben der werbung. werbung blendet bekanntlich, sie kann auch betriebsblind machen. ich kann mich gut erinnern, wie in einzelnen öffentlich-rechtlichen rundfunkanstalten die konkurrenz zwischen einzelnen wellen-„marken“ (XX1 bis XX5) unheimlich viel raum einnahm, also die abgrenzung der submarken untereinander, der klassischen musik vom gesprochenen wort vom schlager vom hiphop vom sport von den nachrichten. das führte zu großem verschleiß bei redakteuren wie freien mitarbeitern, die jahrlang, während diese ansage galt, „wellengerecht“ beiträge einkaufen und sie wellengerecht darbieten mussten. dann kamen die phasen, als man auf einmal, und am besten ab sofort, die dachmarke stärken sollte usw. was für ein verschleiß! mich fragte kürzlich jemand, ob der deutschlandfunk jetzt eine vierte welle hat, nämlich DLF24? gute frage.

es kann gut sein, dass es in 5 jahren twitter nicht mehr gibt, dass dann keiner mehr auf webseiten geht, sondern alles in apps auf smartphones abläuft. das wäre dann konvergenz pur. es kann gut sein, dass es in 10 jahren statt 50 öffentlich-rechtlichen rundfunkwellen in deutschland nur noch 15 gibt, weil es in zeiten der konvergenz irrelevant ist, ob ich BR 4 Klassik in bayern oder in niedeersachsen höre, und den DLF in berlin oder toronto. das wäre eine konvergente entwicklung des föderalen rundfunksystems. ob man’s haben will, sei dahingestellt, es wird alles betriebsintern teuer und muss alles kostenneutral abgewickelt werden. im moment bahnt sich die wellenkonvergenz bereits an: es gibt features und hörspiele, die ARD-weit gesendet werden und sich als submarken präsentieren. in den nachtprogrammen finden zusammenschaltungen statt. vor allem aber, und das merken inzwischen auch die hörer, werden in allen wellen, vom deutschlandfunk abgesehen, rundfunkbeiträge so stark reduziert, dass oft stundenlang fast nur musik zu hören ist, auch wenn die sendung noch das label des „kulturmagazins“ trägt. wellen, die fast nur noch aus musik bestehen, kann man abschaffen. über spotify kann ich mir meine musikauswahl selbst zusammenstellen (lassen).

so, und jetzt konfiguriere ich mir bei adidas.com den nächsten super konvergenten superstar.

little planet step by | step

the sequence below shows you how to create a little planet projection from a 360° series of photographs using microsoft’s ICE. 1) shows the stiching process finished and displays a spherical projection. 2) instead of spherical, stereographic is being applied. 3)-5) shows adjustment of the projection coordinates, until in 6) both right and left ends meet, and we reach a circle. the picture 7) is post production: adjustment of colour and rotation.
dies ist ein rezeptbuch zur erstellung von little planet-panoramen mit microsoft’s ICE. das panorama besteht aus 34 einzelaufnahmen und wird von ICE zunächst als sphärische projektion dargestellt (1). wählen wir die stereografische projektion, sieht es schon anders aus (2). die bilder 3–5 zeigen das verändern der koordinaten vertikal mit der maus, bis sich das rechte und linke ende des bilds treffen und einen kreis bilden. in 6) ist das little planet-panorama fertig. bild 7) zeigt noch nachbearbeitungen in einer bildbearbeitungs-app mit leichter farbanpassung und drehung.

little planet how-to. → wiki commons

my first little | planet

little planet cologne west. photo: ms/dpa

i created this image in four steps:

  • i positioned the drone somewhere in the air, 15 meters high in this case.
  • i let the drone app take 34 photos around its hovering spot
  • i used microsoft’s excellent → „ICE“ stitching software to put the 34 images together
  • i rendered the stitched image as stereoscopic and saved it.

the original is more than 20,000 pixels wide.

the image below is just another interpretation of the same 34 footage images:

same scene as above, different projection method

drone video for | wikipedia

drone timelapse video for wikipedia

i shot the video above for wikipedia and wanted to inspire drone pilots to use this way of distribution for their stills and videos. i’ll show you which technical steps i followed to get the video from the drone into the realm of the → creative commons.

firstly, i edited the video by speeding it up, adding some contrast and slightly adjusting the white balance. this is not needed. the first crucial step is to convert the video to a free format. you cannot upload videos with a propriatory format such as apple’s mov or microsoft’s avi. the best, cost-free and politically correct way to do the conversion is by using an open source piece of software like → VLC. download the app for your platform, windows and mac in my case, and run it.

ich habe das video oben für die → wikipedia aufgenommen und möchte drohnenpiloten anregen, auch diesen verbreitungsweg für ihre fotos oder filme zu nutzen. hier zeige ich die wesentlichen schritte, um das video aus der drohne in einen wikipedia-artikel zu bringen, in diesem fall in den über die autobahn A4.

ich habe zunächst das video beschleunigt, etwas im farbton und in der sättigung verändert; aber das tut nichts zur sache. der erste wesentliche schritt ist, den film von seinem proprietären in ein freies format umzuwandeln, denn formate wie mov oder mp4 or avi werden von der wikipedia nicht akzeptiert. ich rate zur umrechnung zu dem politisch korrekten videoplayer → VLC. das programm kostet nichts und erledigt den job prima.

conversion dialog in VLC

the screenshot above is from the german version of VLC. use the first menu or the keyboard shortcut ctrl-R. it will open the dialog on thr right. in the top you enter the location of your original video. then you click „convert“ – which does not directly start the conversion process.

zunächst ruft man im ersten menü oder mit ctrl-R den konvertierungs-dialog auf. dann füttert man das obere fenster mit dem zu konvertierenden film, in diesem fall meine mov-datei. wenn man dann auf „konvertieren“ klickt, geht der prozess noch nicht los, aber fast.

choose video theora + vorbis ogg here!

thats the crucial export dialogue: select video → theora + vorbis (ogg). then give the target file a name and start the conversion. VLC won’t brag about it, it will just show you a black window with a slowly moving dot in the time bar at the buttom. once it’s reached the right side of the screen, youre done. you’ll find that the converted file is of good quality and only a small percentage of the original. in my case it shrank from 3 GB to 70 MB!

es folgt der entscheidende dialog: wir wollen a) video, b) theora + vorbis, was zu c) ogg führt. jetzt noch einen namen für die zieldatei angeben, und los geht’s. VLC rechnet im stillen um, man sieht nur einen fortschrittsbalken unten langsam wandern. wenn er rechts angekommen ist, ist der film umgerechnet. in meinen fall schrumpfte er ohne großen qualitätsverlust auf einen bruchteil: von 3 GB auf 70 MB.

ogg is much smaller than the uncompressed original.

now that you have your ogg file, you can go to → wiki commons. create an account for yourself. it’s wise to choose your real name because the standard license urges the users of your video to credit you. if they don’t, you can sue them. at the left side of the wiki commons page you find the upload option. i usually use the „upload wizard“ which takes you through three steps: which file you want to upload, the confirmation that you are the author, and filling in descriptions in the languages of your choice, including keywords („categories“).

mit dem ogg-film geht man nun zur webseite des medienpools der wikipedia, den → wiki commons. wer da noch kein konto hat, sollte eins erstellen, möglichst – aber nicht zweingend – mit dem realnamen, denn später muss der von jedem, der das video benutzt, genannt werden, sonst wird’s für den anderen teuer. auf der linken seite der wiki commons-seite ist der eintrag datei hochladen. darauf folgt ein dialog, wo ich am liebsten den upload wizard wähle, der mich in drei schritten durch den hochladeprozess leitet.

wiki commons upload process

once that process is completed, you can leave it there, or you can use the links given to notify your friends and followers on social networks and, more delightful, insert the video into wikipedia articles related to your topic. the one about the autobahn #4.

so, und jetzt kann man mit den links, die der wizard am schluss präsentiert, das video in sozialen netzen verbreiten oder, und das ist natürlich das eleganteste, es in bestimmte wikipedia-artikel einzubauen, wo der film von relevanz sein könnte. meinen habe ich zum beispiel in den englischen und deutschen artikel über die → autobahn A4 eingebaut.

the video enriches a wikipedia article.

of course there’s no reason to not load the video up to youtube. in the settings for the video you can select „creative commons“ as opposed to „standard youtube license“.
und klar kann man das video auch zu youtube hochladen. sogar ganz praktisch, wenn man schon die kleine ogg-datei vorliegen hat. in den einstellungen des videos sollte man dann „creative commons“ anwählen, statt der standard youtube lizenz.

kommunikationsmuseum | depot

 

teil der depot-crew. foto: ms

die museumsstiftung post und telekommunikation ist ein juwel in der deutschen archivlandschaft. neben den damit verbundenen museen in berlin, frankfurt und nürnberg gibt es das so genannte „depot heusenstamm“ südlich von offenbach. dort arbeiten zahlreiche fachleute (archivare, historiker, restauratoren etc.) und halten die archivalien in schuss, entwickeln konzepte für neue ausstellungen etc. im depot landen zahlreiche objekte von privatsammlern, aber auch die unterlagen der frühen deutschen postgeschichte sind da temperaturgerecht aufbewahrt. wenn es öffentliche führungen gibt, ziehen die größeren fahrzeuge die größte aufmerksamkeit auf sich. mich dagegen ziehen dinge an, die weit hinten versteckt sind, etwa das → hier gepostete journal der schweizer rundfunker von 1923.

oben abgebildet ist ein postbus typ LAO 328 (L wie Lastwagen, A wie Allrad und O wie Omnibus) von 1963, der vornehmlich in unzugänglichen voralpengegenden aktiv war. es gab ihn nur in vier exemplaren. das hier, mit synchrongetriebe und vierradantrieb, ist das einzig funktionsfähige. hier ein auszug aus dem datenblatt:

Der allradgetriebene Kraftpostbus war von 1963 bis 1973 bei der Deutschen Bundespost im Voralpenland im Einsatz. Dabei betrieb die Bundespost dort ab 1960 zusammen mit der Firma Komm Mit-Reisen A. Morent in Hindelang, Landkreis Sonthofen einen Gemeinschaftsverkehr, der alle Linien des Oberallgäus einschließlich Kempten, Kleinwalsertal sowie einige Linien ins Tannheimer Tal sowie einige Linien bis Hohenschwangau, Oberammergau und Lindau umfasste.

1973 veräußerte die Bundespost das Fahrzeug an Komm Mit-Reisen, die es bis 2003 weiterhin im Linienverkehr nutzten (zuletzt nur noch sporadisch bzw. in der Wintersaison zum Transport von Skifahrern).

Der Daimler-Benz LAO 328 verfügt über 29 Fahrgastplätze und zusätzlich 19 Stehplätze. Der Allradantrieb mit einem Hubraum von 5070 ccm leistet 81 kW / 110 PS und erreicht eine Höchstgeschwindigkeit von 73 km/h.

die aufnahme oben, mit einem teil des heusenstammer depot-teams, ist mit einer drohne entstanden, die ich auf etwa 4 metern über und vor dem ensemble in der luft stehen ließ. die originalaufnahme ist raw und 4k, also von brachialer auflösung und kontrast.

ich war schon mehrfach in dem archiv, jetzt zur erforschung der frühen deutschen rundfunkgeschichte. bei einer meiner letzten besuche nahm ich, assistiert von der expertin lioba nägele, fotos wie diese auf: