toon rendering with a | swing

my 3D animation package has a built-in toon renderer. it is slightly out of age, but for rendering 3D scenes for a cartoon-like look, it’s just fine. here is the → tutorial for insiders, and below a screenshot of a single rendered frame. it has the typical look of flat shading (in this case only two colours per object)

character animation with toon shading

the original 3D scene looks sobering:

3D work area

liebes- | at

ich wollte eigentlich einen effekt ausprobieren, nämlich wie man geometrie in 3D verändert, indem man eine → NURBS-kurve auf sie wirken lässt. dann, beim einfügen eines farbverlaufs von rot über rosa nach weiß fiel mir auf, dass das nach online-dating aussieht, wo das ein oder andere schief laufen kann. vielleicht bisschen weit hergeholt, aber irgendwie muss man die sachen ja verschlagworten (↓ uff, was für ein wort).

die szene hat nur zwei lichtquellen, ein flächiges licht von links, und ein diffuses mit sehr geringer lichtstärke. wegen der vielen reflexionen brauchte die grafik etwa eine halbe stunde auf einem standard-PC, um in 5000 pixel breite gerendert zu werden.

Love @. grafik: ms/dpa

rundum meditation | waidmarkt

dieses video ist mein erster ernsthafter härtetest der neuen ricoh theta V rundum-kamera. das gerät ist sehr handlich und setzt die videos der vorder- und hinterseite in 4k-auflösung unmerklich schnell und praktisch makellos zusammen. der schwachpunkt aller 360°-aufnahmen ist das, was exakt unten passiert. der effekt (dicke finger, die den gesamte unteren bereich  belegen) wird mit einem selfiestick abgemildert. ich stand also an der abbruchstelle neben dem ehemaligen und 2009 eingestürzten kölner stadtarchiv und sah dem bagger und den menschen zu. es passiert nichts besonderes, es ist einfach ein zeitdokument.

➡️ beim betrachten scrollen oder smartphone drehen!

ambient | occlusion

ambient occlusion is a rendering technique which delivers amazing results in minimal time. from the rendering perspective it’s a variation of the much more costly global illumination method. i rendered this image in 9 seconds – and after half a second it was already ready for evaluation.

ambient occlusion. rendering: ms

dynamic MASH | network

MASH is a relatively new module in autodesk maya, the leading 3D computer animation software package. i just published my third or forth → tutorial about MASH in maya, demonstrating its basic behaviour in context with dynamic simulation of a thousand little cubes.

MASH interacts with a torus and the surface. rendering: ms

 

the tutorial is not about rendering. but (solid angle) arnold renders MASH scenes fast and reliably. here even with the always cool and somewhat delicate effect namend “motion blur”. pixar, by the way, holds the patent for the first motion blur algorithms. it pays the pension of several employees there.

handmaid’s tale | drohne

im april lief die US-serie → a handmaid’s tale in den USA an (MGM television). im herbst, so die deutsche telekom auf der IFA in berlin, wird sie exklusiv auf entertain laufen. schon in den ersten 80 sekunden nehmen drohnenaufnahmen einen großen platz ein. das schöne daran: man nimmt den kameramann auch bei drohnenaufnahmen praktisch nicht wahr. also: gut gemacht. das untere bild ist nur eine sekunde lang, dient also als orientierungs-zwischenschnitt und funktioniert auch hier gut. das obere bild zeigt die fahrt des volvos vor seinem crash. ein riskanter, aber sicher gut geplanter flug, denn die drohne flog hier sehr nah an bäumen (links) und überlandleitungen (rechts).

handmaid’s tale drohnenaufnahmen am anfang der serie

maya 2018 | tutorials

here’s my diary for tutorials on autodesk maya 2018. i’ve written → several books on maya over a decade ago, and i enjoy reviewing the new features in each new version. there’s a free to play → educational version which is a jewel. my instructive videos are not for total beginners. you have to know how to navigate within maya, move objects, but not much more. we start with a  polygon object new in maya 2018: a gear. in order to make use of it, we add another gear and use solid body dynamics to make the first one drive the second one.
]vor einem jahr habe ich zahlreiche videos über das damals frisch erschienene 3D computeranimationsprogramm maya 2017 erstellt. siehe zum beispiel → hier. es war ein test, ob die deutschsprachige community das auf deutsch braucht. die nachfrage war gut, aber die nachfrage, warum ich das nicht in englisch mache, war größer. deswegen hier der tagebuch-pool für die maya 2018-video-tutorials. sie können mit der brillianten, kostenlosen → student edition nachvollzogen werden und brauchen nur geringe vorkenntnisse. man sollte wissen, wie man sich im raum bewegt und objekte skaliert und dreht. → hier übrigens meine inzwischen steinalten bücher über computeranimation mit maya. im ersten tutorial geht es um das neue polygonobjekt “zahnrad”. wir nutzen rigid body dynamics, um das rechts zahnrad das linke antreiben zu lassen.

 

interacting “rigid” gears

 

in the second tutorial i’m hopefully not getting too emotional ;-) i just love the new super shapes in maya 2018. take off by reading the wikipedia article about the → superellipse.
im zweiten video geht es um super shapes. kann nur schwärmen. und bitte nachlesen, weil die mathematik dahinter so elegant ist: → die superellipse.

super shapes

 

tutorial #3 covers the new polygon modeling command “circulize”. obvious, what it does.
das dritte tutorial handelt vom neuen polygon-modellierungsbefehl “circulize”. klarer fall, was er bewirkt.

 

circulizing sharp edges

tutorial #4 covers the new polygon selection commands to grow and shrink ALONG loops. straight forward and simple.
das vierte tutorial handelt von einem neuen befehl, um ausgewählte polygon-strukturen zu erweitern oder einzuschränken, und zwar neuerdings ENTLANG der ausgewählten loops. klingt komplizierter als es ist.

 

selection: grow along a loop

tutorial #5 covers a feature new in maya 2017 – rendering a sequence. new in 2018 is only the icon. still, interesting to inspect and use as an alternative to the batch renderer (which operates in secrecy, while render sequence shows every frame it renders.
tutorial #5 stellt “render sequence” vor, ein befehl, der schon in maya 2017 zu finden war, jetzt aber ein icon hat. nichts groß neues also, aber wert, es sich mal anzusehen.

 

 

render sequence

 

#6: texture deformer + ocean waves

 


#7: Bifröst Water Basics

d

adobe premiere | deinstalliert

ich kenne dieses programm noch aus urzeiten, habe es aber, seit es final cut pro gibt, aus den augen verloren und jetzt als testversion wieder installiert. grausig. wie blende ich audio aus? wie kriege ich die schwarzen balken rechts und links von einem video weg? was soll die ewig lange effektliste rechts, wenn ich sie nicht anwenden kann? wie umständlich ist das kopieren von effekten eines clips auf 3 andere? ist mir alles mehr oder weniger nicht gelungen. unten das etwas deprimierende resultat dieses frustrierenden schnellschnitts. ich weiß, premiere kann dinge, die andere programme nicht können. aber wenn es so unsexy daherkommt, muss ich es ganz ganz schnell wieder deinistallieren.

wo, premiere, ist der weißabgleich?

konvergenz | kostet

wenn adidas seine schuhsohlen mit 3D-druckern printet und die dafür verwendeten CAD-daten später beim verkauf online stellt, damit der kunde sich über den konfigurator seinen individualschuh zusammenstellt, heißt das konvergenz. diverse expertenschichten des betriebs konvergieren, fügen sich hier zusammen zu einem, und der kunde freut sich über das verkaufserlebnis eines individualisierten schuhs, während man ihn an die marke bindet wie nie zuvor.

dieser prozess ist in der fertigungsindustrie nicht selbstverständlich. der schuhmacher hat ja zunächst nicht viel mit dem CSS-programmierer gemein.

bei diesen in der größeren industrie weitgehend abgeschlossenen konvergenzprozessen fällt auf, dass sich die hierarchien innerhalb der firmen verschoben und wieder zurückverschoben. in zeiten, als die “mulitmedialität” ein buzzword war, waren die online-experten die kings. die anderen abteilungen, typischerweise die fertigung und der vertrieb, beknieten die onliner, doch bitte dies und das für sie zu tun, weil man merkte, das gesicht des ladens wird von außen durchs internet wahrgenommen, nicht mehr durch flugblätter, prospekte und fernsehwerbung.

die journalistischen medien kämpfen seit langem mit der multimedialität, die sie heute gern  “trimedialität” nennen, wobei TRI bei print bedeutet print + bild + film, beim rundfunk ton + bild + film – oder so ähnlich. “konvergenz” ist schicker, meint aber dasselbe.

die new york times hat vor einigen jahren videos eingeführt, die anfangs bisschen hemdsärmlig produziert waren, seit langem aber professionell aussehen, sogar (correct me if i’m wrong) colour matching zu nutzen, also die stimmige farbgebung von film zu film. gefühlt zwei jahre ist es her, dass die NYT erstmals virtual reality-filme anbot. die redakteureInnen, die die tollen artikel schreiben und dafür ausgebildet und eingestellt wurden, können das gar nicht. also heuerte man firmen an, die das können. das stellte sich als preiswerter heraus als die in-house-produktion. eine konvergenz hat die times dennoch nicht geschafft. sie ist im prinzip eine zeitung aus papier mit viel text und einigen bildern gewesen, und jetzt ist sie eine internetseite/app mit etwas anderem text, vielen vielen bildern und noch mehr kommentaren von lesern. die abrufe der videos spielen sich im marginalen bereich ab. konvergenz misslungen.

im moment setzt die new york times auf das magazinhafte und hat dann glücklicherweise profifotografen, die, man glaubt es kaum, gut texten können. siehe zum beispiel ivor pricketts bild/text-strecke über die tragik des zurückeroberten mosuls. statt die videos als videos auf die hauptseite zu stellen, promotet man artikel, die mit reichem anders-medialen content angefüttert sind, wie hier: → wasserkraftwerk am columbia river. fotos/filme von chang w. lee, text von jemandem anderen, kirk johnson.

wenn sich eine zeitung im internet präsentiert, ist das ähnlich, wie wenn sich ein fernsehprogramm im internet präsentiert. man muss das medium dafür nicht neu erfinden: das was im TV in realtime läuft, sieht im internet genauso aus, es ist nur on demand abrufbar. die fernsehsendung im internet hat ähnlich dürre textbeigaben wie der gute alte videotext. im prinzip ist fernsehen so wenig konvergent wie print – da muss nichts groß konvergieren, man muss es nur transferieren. in den führungsetagen der sender heißt das auch: “mehrere ausspielwege bedienen”.

beim hörfunk, der ins internet geht, ist die lage qualitativ anders, weil webseiten zwar töne abspielen können; aber im prinzip sind webseiten eben seiten, also dinge zum angucken, und radio ist etwas, wo man eigentlich nichts angucken muss. das ist ja das tolle und ewig merkwürdige am rundfunk, dass man beim morgens zähneputzen oder in die arbeit fahren nichts spezielles angucken muss, wenn aus dem radio oder radioplayer die informationen am morgen oder die mäßigen witze von 1live schallen.

https://upload.wikimedia.org/wikipedia/commons/5/5a/Girl_listening_to_the_radio_%E2%80%93_ca._1938_-_FDR-library_27-0755M.jpg

mädchen guckt radio. quelle: wiki commons

weil aber immer mehr leute googeln, hat sich das hörverhalten geändert. viele leute suchen nach einem thema und finden dann hörfunkbeiträge auf webseiten, ohne das programm je gehört zu haben, ja ohne von dem sender jemals gehört zu haben. das fing ganz zart an: wenn jemand vor 20 jahren nach “ausländer” googelte, stieß er ziemlich sicher auf das ZDF, weil das ZDF eine der ersten öffentlich-rechtlichen webseiten überhaupt hatte und man dann einen hinweis auf eine “ausländer”-sendung fand und das manuskript per post anfordern konnte. die webseite war fast 20 jahre nicht viel mehr als ein begleittext zum programm. bald wird kaum jemand mehr das ZDF angucken, immer mehr nutzen die mediathek – diesen zweiten ausspielweg.

wenn heute jemand nach brexit googelt, beginnt hinter den kulissen ein konkurrenzkampf, wer seinen brexit-content bei google nach oben schieben kann. wer hier gar nicht dabei ist, weil er zwar tolle radiobeiträge über den brexit macht, aber keine schillernde webseite dazu generiert, die viel “traffic” zieht, gilt als digital abgehängt. die aktuelle suche nach brexit präsentiert ganz groß zwei fernsehredaktionen und eine zeitung:

webseite von google bei suche nach brexit

interessant daran ist übrigens die konvergenz der tagesschau: “vor 40 minuten” wurde gar keine tagesschau ausgestrahlt, aber die online-redaktion hat offenbar einen artikel dazu geschrieben. wenn wir darauf klicken, freut sich der NDR über den klick, vor allem aber freut sich google.

direkt darunter auf der suchseite von google setzt sich das hickhack fort. warum steht wohl zeit.de ganz oben, und warum kommen unter den ersten 10 keine öffentlich-rechtlichen rundfunkanstalten vor, die wikipedia und web.de aber schon?

weitere brexit-konkurrenz auf google

die “währung”, die dahinter steckt, ist die der aufmerksamkeit. wenn die aufmerksamkeit nicht mehr über die UKW-skala erfolgt, sondern verstärkt über google, ist das die währung, und daher kommt der konvergenzdruck – auch beim öffentlich-rechtlichen rundfunk.

dabei steht nirgends im rundfunkstaatsvertrag geschrieben, dass sich der rundfunk im www platzieren muss. er könnte das auch unterlassen, würde dann aber schnell allenfalls zum geheimtipp werden, zum geheimtipp auf UKW, und wenn UKW abgeschaltet wird, zum noch geheimeren tipp auf DAB+. denn die musik spielt nicht mehr lange über antenne, sondern im internet.

bei adidas rechnet sich die konvergenz, bei spiegel online und zeit.de wegen page impressions und werbeeinnahmen natürlich auch. beim öffentlich-rechtlichen rundfunk aber muss draufgezahlt werden.

was im moment in allen häusern passiert, ist eine bewegung des programms ins internet, wobei die online-redaktionen gestärkt werden, wie früher bei adidas – eigentlich eine verdrehung der tatsachen. die journalisten erzeugen den content, die online-kollegInnen stellen den content gut aus. den content gäbe es auch ohne internet.

die konvergenz erzeugt druck und tut weh. es knirscht, und spähne fliegen. denn die kernkompetenz des radiojournalisten, rundfunkmoderators  und -redakteurs ist das radiohandwerk, nicht das anfertigen von markengerechten fotos und videos. die fernsehleute können traditionell gut filme drehen und schneiden, aber nicht gut texten; die hörfunkleute sind gute texter, aber die meisten haben keine ahnung davon, wieviel video-footage man braucht, um einen fünfminüter hinzukriegen – sehr viel! texten für twitter funktioniert anders als teaser-texte, pressetexte oder online-texte zu schreiben. man kann sich jetzt auf den standpunkt stellen, die früher “sekretärinnen” genannten heutigen “produktionsassistenten” müssten sich halt in alle stufen der produktion einbringen – aber sollen sie den redakteuren ihre kernarbeit abnehmen, gut zu recherchieren und zu texten?

wären sie adidas oder IBM, wäre das gut durchfinanziert – und erledigt. aber im öffentlich-rechtlichen bereich muss alles “kostenneutral” durchgeführt werden; die sender bekommen ja keinen cent mehr an rundfunkgebühren. jetzt müssen sie ein artfremdes medium bedienen, mit viel verschließ intern. denn kostenneutral heißt eben, dass die redaktionen das erleben, was in die arbeitsstatistiken nicht eingeht, nämlich eine arbeitsverdichtung wie nie zuvor. es ist eine ganz grundsätzliche gesellschaftliche frage, ob man jemandem eine menge zusatzarbeit innerhalb seiner regulären arbeitszeit aufhalsen darf, nur weil er/sie es “irgendwie” kann – oder können muss. und das jeden tag. und dann der frust: die online-kollegen haben das ganze material umgestellt, falsch beschriftet usw. verschleiß, zumindest in der konvergenzphase.

typische dachmarkenstruktur. grafik: gnom/credibilty wikicommons

in den konvergenzgremien schwirrt das wort “marke” umher, immer häufiger hört man auch “dachmarke” – beides begriffe aus einem bereich, der dem neutral berichtenden gewerbe des journalismus geradezu artfremd ist, eben der werbung. werbung blendet bekanntlich, sie kann auch betriebsblind machen. ich kann mich gut erinnern, wie in einzelnen öffentlich-rechtlichen rundfunkanstalten die konkurrenz zwischen einzelnen wellen-“marken” (XX1 bis XX5) unheimlich viel raum einnahm, also die abgrenzung der submarken untereinander, der klassischen musik vom gesprochenen wort vom schlager vom hiphop vom sport von den nachrichten. das führte zu großem verschleiß bei redakteuren wie freien mitarbeitern, die jahrlang, während diese ansage galt, “wellengerecht” beiträge einkaufen und sie wellengerecht darbieten mussten. dann kamen die phasen, als man auf einmal, und am besten ab sofort, die dachmarke stärken sollte usw. was für ein verschleiß! mich fragte kürzlich jemand, ob der deutschlandfunk jetzt eine vierte welle hat, nämlich DLF24? gute frage.

es kann gut sein, dass es in 5 jahren twitter nicht mehr gibt, dass dann keiner mehr auf webseiten geht, sondern alles in apps auf smartphones abläuft. das wäre dann konvergenz pur. es kann gut sein, dass es in 10 jahren statt 50 öffentlich-rechtlichen rundfunkwellen in deutschland nur noch 15 gibt, weil es in zeiten der konvergenz irrelevant ist, ob ich BR 4 Klassik in bayern oder in niedeersachsen höre, und den DLF in berlin oder toronto. das wäre eine konvergente entwicklung des föderalen rundfunksystems. ob man’s haben will, sei dahingestellt, es wird alles betriebsintern teuer und muss alles kostenneutral abgewickelt werden. im moment bahnt sich die wellenkonvergenz bereits an: es gibt features und hörspiele, die ARD-weit gesendet werden und sich als submarken präsentieren. in den nachtprogrammen finden zusammenschaltungen statt. vor allem aber, und das merken inzwischen auch die hörer, werden in allen wellen, vom deutschlandfunk abgesehen, rundfunkbeiträge so stark reduziert, dass oft stundenlang fast nur musik zu hören ist, auch wenn die sendung noch das label des “kulturmagazins” trägt. wellen, die fast nur noch aus musik bestehen, kann man abschaffen. über spotify kann ich mir meine musikauswahl selbst zusammenstellen (lassen).

so, und jetzt konfiguriere ich mir bei adidas.com den nächsten super konvergenten superstar.

drone video for | wikipedia

drone timelapse video for wikipedia

i shot the video above for wikipedia and wanted to inspire drone pilots to use this way of distribution for their stills and videos. i’ll show you which technical steps i followed to get the video from the drone into the realm of the → creative commons.

firstly, i edited the video by speeding it up, adding some contrast and slightly adjusting the white balance. this is not needed. the first crucial step is to convert the video to a free format. you cannot upload videos with a propriatory format such as apple’s mov or microsoft’s avi. the best, cost-free and politically correct way to do the conversion is by using an open source piece of software like → VLC. download the app for your platform, windows and mac in my case, and run it.

ich habe das video oben für die → wikipedia aufgenommen und möchte drohnenpiloten anregen, auch diesen verbreitungsweg für ihre fotos oder filme zu nutzen. hier zeige ich die wesentlichen schritte, um das video aus der drohne in einen wikipedia-artikel zu bringen, in diesem fall in den über die autobahn A4.

ich habe zunächst das video beschleunigt, etwas im farbton und in der sättigung verändert; aber das tut nichts zur sache. der erste wesentliche schritt ist, den film von seinem proprietären in ein freies format umzuwandeln, denn formate wie mov oder mp4 or avi werden von der wikipedia nicht akzeptiert. ich rate zur umrechnung zu dem politisch korrekten videoplayer → VLC. das programm kostet nichts und erledigt den job prima.

conversion dialog in VLC

the screenshot above is from the german version of VLC. use the first menu or the keyboard shortcut ctrl-R. it will open the dialog on thr right. in the top you enter the location of your original video. then you click “convert” – which does not directly start the conversion process.

zunächst ruft man im ersten menü oder mit ctrl-R den konvertierungs-dialog auf. dann füttert man das obere fenster mit dem zu konvertierenden film, in diesem fall meine mov-datei. wenn man dann auf “konvertieren” klickt, geht der prozess noch nicht los, aber fast.

choose video theora + vorbis ogg here!

thats the crucial export dialogue: select video → theora + vorbis (ogg). then give the target file a name and start the conversion. VLC won’t brag about it, it will just show you a black window with a slowly moving dot in the time bar at the buttom. once it’s reached the right side of the screen, youre done. you’ll find that the converted file is of good quality and only a small percentage of the original. in my case it shrank from 3 GB to 70 MB!

es folgt der entscheidende dialog: wir wollen a) video, b) theora + vorbis, was zu c) ogg führt. jetzt noch einen namen für die zieldatei angeben, und los geht’s. VLC rechnet im stillen um, man sieht nur einen fortschrittsbalken unten langsam wandern. wenn er rechts angekommen ist, ist der film umgerechnet. in meinen fall schrumpfte er ohne großen qualitätsverlust auf einen bruchteil: von 3 GB auf 70 MB.

ogg is much smaller than the uncompressed original.

now that you have your ogg file, you can go to → wiki commons. create an account for yourself. it’s wise to choose your real name because the standard license urges the users of your video to credit you. if they don’t, you can sue them. at the left side of the wiki commons page you find the upload option. i usually use the “upload wizard” which takes you through three steps: which file you want to upload, the confirmation that you are the author, and filling in descriptions in the languages of your choice, including keywords (“categories”).

mit dem ogg-film geht man nun zur webseite des medienpools der wikipedia, den → wiki commons. wer da noch kein konto hat, sollte eins erstellen, möglichst – aber nicht zweingend – mit dem realnamen, denn später muss der von jedem, der das video benutzt, genannt werden, sonst wird’s für den anderen teuer. auf der linken seite der wiki commons-seite ist der eintrag datei hochladen. darauf folgt ein dialog, wo ich am liebsten den upload wizard wähle, der mich in drei schritten durch den hochladeprozess leitet.

wiki commons upload process

once that process is completed, you can leave it there, or you can use the links given to notify your friends and followers on social networks and, more delightful, insert the video into wikipedia articles related to your topic. the one about the autobahn #4.

so, und jetzt kann man mit den links, die der wizard am schluss präsentiert, das video in sozialen netzen verbreiten oder, und das ist natürlich das eleganteste, es in bestimmte wikipedia-artikel einzubauen, wo der film von relevanz sein könnte. meinen habe ich zum beispiel in den englischen und deutschen artikel über die → autobahn A4 eingebaut.

the video enriches a wikipedia article.

of course there’s no reason to not load the video up to youtube. in the settings for the video you can select “creative commons” as opposed to “standard youtube license”.
und klar kann man das video auch zu youtube hochladen. sogar ganz praktisch, wenn man schon die kleine ogg-datei vorliegen hat. in den einstellungen des videos sollte man dann “creative commons” anwählen, statt der standard youtube lizenz.

drohnenflug live im | DLF

facebook-seite zur sendung

heute drehte sich die sendung “marktplatz” um den boom der drohnen am himmel. → hier nachzuhören. das foto oben hat jan-martin altgeld von der DLF-onlineredaktion aufgenommen. ich war in der ersten halben stunde südöstlich vom funkhaus auf einer öffentlichen wiese und startete von dort. dies ist der unbearbeitete film dieses flugs:

live in der sendung “marktplatz” heutemorgen

das video zeigt den flug live während der sendung. der ton aber ist nicht der sendungston, sondern der lokale mitschnitt meines smartphones. weil es in den controller eingespannt ist, hört man das surren des ventilators des controllers in meiner hand. unten das video, das jan-martin aus eigenem und meinem drohnenmaterial zusammengefügt hat:

facebook-post vom deutschlandfunk

bike, drone | sunset

a calm evening after a rainy day. good for the garden, great for the park. so i jumped on my bike and looked around —at 100 metres altitude. what the drone saw was magic. i hovered back and forth and filmed until the battery moaned. the original video, unedited, is over 24 minutes, a single shot. the condensed piece is less than 2 minutes. enjoy!

bike, drone, sunset. video & music: ms

the following photo was taken by the drone after its safe landing in not too high grass. it‘s one of a handful of valuable shots by the grounded drone. of course, i could have put my DSLR on the ground, but the drone‘s camera sits there by default, and i can shoot via the controller in my hand!

the drone shoots from the ground.

oben hui, unten | pfui

drohnenflug voller ruhe. video: ms

dieser einfach nur meditative film von 4 minuten, aufgenommen aus 40 m, am ende etwa 60 m höhe, hat einen soundtrack. man hört den kühlungsventilator für die drohnenfernsteuerung unten in meiner hand. und einen kurzen dialog mit zwei passanten. der ist nur mit dieser info zu verstehen: mich nervte beim drohnensteuern ein schwan, der sein territorium verteidigte und mir dauernd nachlief, wenn ich mich paar schritte entfernte, wo mein fahhrad (mit dem rucksack) stand. er kam mir sehr nah, und ich hatte mühe, ihm zu versichern, dass ich wichtigeres zu tun hatte und mich konzentrieren musste. 😉