detektor.fm-Interview zu Sci-Hub und Open Access

Gestern wurde ich von detektor.fm zu Sci-Hub und dessen Auswirkung auf die Open-Access-Bewegung interviewt. Ursprünglich wurde bei Matthias angefragt, der das Gespräch aber leider zeitlich nicht unterbringen konnte. Dank geht an Christopher van der Meyden für die Redaktion und Konrad Spremberg für das Führen des Interviews.

Radio muss im Vergleich zum Podcast auf Grund des straffen Zeitrahmens wie auch des breiten Publikum immer stark filtern und lässt nicht viel Raum für Nachbesserungen und große Klarstellungen. Daher will ich hier noch ein wenig Information nachreichen und ein paar Dinge präzisieren.

Ich finde meine Kernaussage wurde besonders im zugehörigen Artikel sehr gut herausgearbeitet: Sci-Hub bietet eine praktische (juristische aber problematische) Lösung um die Paywall von Wissenschaftsverlagen zu umgehen und erleichtert somit dem Zugang zu Wissen. Mein Befürchtung ist allerdings, dass diese Alternative Druck aus dem System nimmt und der Unmut über die momentane Situation nicht den nötigen Wandel hin zu sauberen goldenen Open-Access verstärkt. Auf der anderen Seite ist der momentane große Rummel (Zeit, Spektrum, Atlantic um nur ein paar Medien zu nennen) um Sci-Hub der Sache hoffentlich zuträglich, da somit der breiten Öffentlichkeit vor Augen geführt wird, wie kaputt das wissenschaftliche Publikationswesen ist und wer davon profitiert. Mike Taylor sprich von einem klaren Fall von Steisand-Effekt und meint, dass sich Elsevier mit der Anzeige gegen Sci-Hub keine Gefallen getan hat. Ich kann nur zustimmen. Vielen Leuten außerhalb der Wissenschaft ist die bizarre Situation bisher nicht bekannt und viele Wissenschaftler haben sich leider daran gewöhnt bzw.  wollen ihre Karriere nicht unkonventionelle Publikationsmethoden gefährden. Aber noch einmal ein kurz Rekapitulation des wissenschaftlichen Publikationsprozess, um das Problem darzustellen: Ein Wissenschaftler (in meinem Alltag i. a. eine Gruppe von Wissenschaftlern, aber wir wollen es hier einfach halten) betreibt mit Hilfe von Steuergeldern Forschung und kommt zu Ergebnissen, die er der wissenschaftlichen Fachwelt wie auch der Allgemeinheit mitteilen möchte. Daher geht er zu einem Fachjournal. Dort schaut ein Editor ob das Manuskript den Ansprüchen des Journals genügt. Diese Editor ist entweder vom Verlag bezahlt oder aber ein  Wissenschaftler, der diese Funktion unentgeltlich neben seiner Forschung betreibt. Befindet der Editor den Artikel für ausreichend gut wird er zum Peer-Review, der Begutachtung, an andere Wissenschaftler aus dem Feld geschickt (je nach Journal ~ 1-3). Auch diese Wissenschaftler begutachten unentgeltlich. Der Peer-Review-Prozess kann in mehreren Interationen stattfinden, d. h. es wirden Verbesserungvorschläge gestellt die vom Einreichenden adressiert werden müssen. Am Ende wird das Manuskript auf Basis der Empfehlungen der Peers vom Editor abgelehnt oder angenommen. Wird es angenommen überträgt der einreichende Autor das Copyright an den Verlag des Journal. Das Manuskript wird dann formatiert und gedruckt und/oder online veröffentlicht. „Veröffentlicht“ ist aber Euphemismus. Denn der Artikel landet eigentlich hinter einer sogenannten Paywall. Das heißt nur wer zahlt kann den Artikel lesen. Dies läuft meisten über die Universitätsbibliotheken. Diese verhandeln dazu mit den Verlagen Preise und zahlen dafür, dass ihre Wissenschaftler Zugang zu den Fachzeitschriften haben (offline und/oder online). Kurz: Die Früchte öffentlich finanzierter Forschung werden an eine kommerzielle Entität en abgetreten und der Zugang zu diesem Wissen wieder mit  Steuergeldern teuer erkauft. Unglaublich wie sich diese System etablieren konnte und halten lässt. Für die Verlage ist es enorm lukrativ und Gewinnmargen um die 40% sind nicht unüblich. Das Gegenmodell ist Open-Access, das i.a.  darauf beruht, dass der publizierende Wissenschaftler zahlt, dafür den Großteil der Rechte an der Publikation behält (durch die Nutzung von Creative-Commons-Lizenzen) und das Endprodukt der Allgemeinheit zugänglich ist (und zudem noch weiter verwendet werden kann – ein weiteres spannendes Thema das ich hier aber nicht erläutern werde). Als Gegenargument wir häufig aufgeführt, dass Open-Access-Pulikationen zu teuer seien (~ mehrere hunderte bis tausende USD). Eine Studie der Max Planck Digital Library (MPDL) hat aber vorgerechnet, dass klassisch publizierte Artikel (also mit Subkriptionsgebühr) der Gesamtgesellschaft auch 3000 – 5000 USD kosten. Die Studie zeigt, dass ohne Mehrkosten (ggf. sogar mit Einsparungen) eine Transition zu einer Open-Access-Verfügbarkeit aller wissenschaftlicher Artikel möglich wäre. Ich bin der festen Überzeugung, dass das angestrebt werden muss. Letztendlich ist es  „nur“ eine Änderung des Geschäftsmodells der Verlage. Das im Interview genannte Journal PeerJ ist ein gute Beispiel wie günstiges Open-Access stattfinden kann.

Es gibt allgemein ein riesiges Spektrum an Möglichkeiten von Publikationen, die für den Autoren gänzlich kostenlos sind (elife) bis hin zu Journalen mit Hybridgeschäftsmodellen.  Man kann aber auch noch weiterdenken und fragen, ob kommerzielle Verlage per se überhaupt nötig sind oder ob nicht staatlich Infrastruktur geschaffen werden sollte, die eine moderne Publikationsform günstig gewährleisten kann. Beispiele dafür gibt es bereits.

Dieser Artikel wird schon sehr viel länger als ich es zu Beginn geplant hatte und ich merke wie sich mit jedem Satz neue Bereiche auftun, die eigentlich näher erklärt werden müssten. Das Thema wissenschaftliche Puplikationswesen ist sehr komplex und ich möchte Interessierte einladen, sich an der Diskussion zu ihrer Zukunft zu beteiligen. Ein guter Startpunkt ist sicher der Podcast Open Science Radio, den Matthias Fromm gestartet hat und den wir nun seit einiger Zeit zusammen betreiben. Weitere  Anlaufstelle ist die AG Open Science, in der wir uns mit verschiedenen Aspekten zur Öffnung der Wissenschaft auseinandersetzen.

Open Science Radio 28 (OSR028) – Unseminars mit Aidan Budd

Das neue Jahr starten wir mit erhöhter Podcastfrequenz und so folgte heute die neuste Episode von Open Science Radio der vorherigen mit nur 10 Tagen Abstand (ich habe keine Ahnung wie Matthias das immer so schnell zusammenmischt). Wir haben diesmal wieder einen Gast eingeladen. Aidan Budd, der zur gleichen Zeit wie ich am EMBL promoviert hat, erzählt aus den Unconference/Unseminar/Un-*-Nähkästchen. Als Organisator der Heidelberg Unseminars in Bioinformatics (HUB) hat er reichlich Erfahrungen mit diesen offeneren Formaten für Konferenzen und Seminare gesammelt und konnte daher einen guten Überblick über das Thema geben. Ich selber war bisher nur Teilnehmer von derartigen Veranstaltungen (ein paar Barcamps und einem Treffen im Open-Space-Technology-Format). Aber das Gespräch mit Aidan hat richtig Lust gemacht, selber eine Unseminare-Serie in Würzburg a la HUB zu starten. Wenn es konkreter wird, werde ich hier darauf hinweisen (Interessierte können sich schon jetzt gerne bei mir melden).

Update: Das in der Episode erwähnte Opinion-Paper zum Thema Unkonferenz-Planung ist gerade in PLOS Computational Biology erschienen

Artikelsammlung zum Thema „Wissenschaftsprekariat“

In der letzten Zeit gab es in verschiedenen (größeren) Medien Artikel zu den Missständen an deutschen Universitäten. Schwerpunktmäßig ging es um die unstetigen Beschäftigungverhältnisse für Wissenschaftler und die daraus resultierende unsicheren Zukunftsaussichten für den Großteil der Forscher in Deutschland.

In einem FAZ-Artikel zeigten Björn Brembs und Axel Brennicke, wie ein aufgeblähter Verwaltungsapparat Resourcen für die eigentliche Wissenschaft frisst.

Das Laborjournal griff den Artikel auf und erweiterte ihn um ein paar Aspekte. So wurde unter anderem vorgeschlagen von den großen Wissenschaft-Projekten (als Beispiel wurde das als Millionengrab kritisierten ENCODE-Projekt genannt) Abstand zu nehmen und stattdessen mehr kleinere Projekte zu finanzieren.

Die Zeit lud „[e]lf der besten Nachwuchsforscher“ ein ihr Leid zu klagen.

Auch die taz ging das Thema an und schilderte die Probleme mit und durch die Zeitverträge, auf denen Wissenschaftler vornehmlich sitzen.

Matthias und ich haben gestern eine neue Folge Open Science Radio aufgenommen, die wahrscheinlich im Laufe des Abends online gehen wird. Dabei wies er mich darauf hin, dass unsere Podcast-Kollegen von Methodisch Inkorrekt auch Ihre persönlichen Meinungen zu diesem Thema zum besten geben haben. Man darf sich auf ein paar Schmankerl zu bürokratiebedingte Hürden im Forscheralltag freuen.

Es lebt!

Nach über 4 Jahren Pause möchte ich dieses Blog wieder zum Leben erwecken und thematisch noch breiter aufstellen. Der geneigte Leser wird mit (wahrscheinlich recht kurzen) Einträgen zu verschiedenen Themen bedacht werden. Hauptsächlich dient das Blog meiner Gedankenhygiene. Ich hoffe auch meine englischsprachigen Blogs komplementär wieder ein wenig Leben einzuhauchen. Technisch gab es eine kleine Änderung. Ich habe das Blog von Habari auf WordPress migriert. Leider sehe ich bei Habari nicht den Drive und Fortschritt den das Projekt mir anfangs versprochen habe. Ich bin daher auf den Platzhirsch gewechselt.

OpenGov und OpenData in Darmstadt – Teil 3 – Abt. Statistik und Stadtforschung

Wie im vorherigen Post erwähnt, unterhält die Stadt Darmstadt ein Amt für Wirtschaft und Stadtentwicklung mit einer Abteilung „Statistik und Stadtforschung“. Nachdem ich im Zuge meiner Recherche auf der Darmstädter Webseite über diese Abteilung gestolpert bin, habe ich kurzfristig einen Termin ausgemacht und habe die Abteilung aufgesucht. In einem sehr netten und informativen Gespräch weihte mich der Leiter, Herr Bachmann, der mit vier Kollegen in der Abteilung arbeitet, in deren Aufgaben und Prozesse ein. Herr Bachmann erzählte, dass sein Aufgabenbereich wie auch dessen Grenzen durch zwei Gesetze scharf definiert wird: dem Hessischen Landesstatistikgesetz (HessLStatG) und dem Hessischen Datenschutzgesetz (HDSG). Die Abteilung kooperiert mit vielen unterschiedlichen Ämtern und Institutionen um Daten zu akkumulieren und auszuwerten. Nicht nur die deskriptive Statistik der Daten steht dabei auf dem Programm, sondern auch die Abschätzung der Auswirkung der zugrunde liegenden Fakten auf die Stadtentwicklung, wie der zweite Teil des Namens der Abteilung andeutet.

Die regelmäßige Erstellung von statistischen Berichten, die sowohl in gedruckter als auch in digitaler Form (als PDF-Datei) den Bürgern bereitgestellt werden, ist ein wichtiger Aufgabenbestandteil der Abteilung. Ich war positiv überrascht wie reichhaltig und vielfältig diese Publikationen sind. So umfasst der halbjährig erscheinende „Statistische Bericht“ unter anderem Daten aus den Bereichen Umwelt, Bevölkerung, Arbeitsmarkt, öffentliche Sicherheit und Finanzen. Auch die zeitliche und räumliche Auflösung lag für viele Datenbestände über meinen Erwartungen. Für den OpenGov-Interessierten sei anzumerken, dass die darin publizierten tabellarischen Daten nicht automatisch online publiziert werden, aber von Interessierten ohne Problem und mit geringer Latenzzeit auf Anfrage als Excel- oder CVS-Datein erhalten werden können. Herr Bachmann erwähnte das von diesem Angebot vielfach gebraucht gemacht wird. So erlangte Daten können weiterpubliziert werden, wenn die entsprechenden Quellen korrekt angegeben werden (also so in etwa wie es die Creative-Common-Attribution-Lizenz fordert). Ein automatische Bereitstellung aller Daten in dieser Form ist momentan aus Kostengründen nicht geplant. Zudem gebe es im allgemeinen nur an einem kleinen Teil der Daten Interesse, sagte Herr Bachmann. Rohdaten können aus datenschutztechnischen Gründen nur an ausgewählte Entitäten e.g. Forschungsgruppen geben werden.

Sollte ein Parlamentarier oder ein Bürger Interesse an Daten zu einer bestimmten Sachlage haben, die bisher noch nicht zur Verfügung stehen, muss er oder sie sich an den Oberbürgermeister wenden. Dieser wird dann in Absprache mit der Abteilung „Statistik und Stadtforschung“ und unter Abwägung der Kosten und Nutzen möglicherweise eine entsprechende Erhebung in Auftrag geben.

Alles in allem sehe ich in hier einen guten Startpunk für die dateninteressierte Bürgerin. Der Datenfundus ist reichhaltig und die Bereitschaft zur Hilfe mindestens ebenso.

OpenGov und OpenData in Darmstadt – Teil 2 – Bestandsaufnahme

Nachdem ich das Thema OpenGov und OpenData kurz umrissen habe, möchte ich nun den status-quo in Darmstadt diesbezüglich behandeln. Natürlich kann ich keine Garantie für Vollständigkeit geben. Bevor ich auf Darmstadt eingehe, sei erwähnt, dass das Thema in Deutschland allgemein ziemlich am Anfang steht und hinter dem Angebot der USA und UK liegen. Als erste Ansätze sind die Webseite des Statistische Bundesamtes oder der Petitionsserver des Deutschen Bundestages zu nennen. Zudem gibt es private Initiativen wie abgeordnetenwatch.de, offener Haushalt oder Bundestagger. Auf Verwaltungsebene gibt es ein eingeschränktes Angebot an Online-Services.

Darmstadt Matthildenhöhe Die Darmstädter Webseite finde ich persönlich sehr gut aufgebaut und navigierbar. Für allgemeine Nachrichten gibt es einen RSS-Feed. Auf der Seite sind zahlreiche Informationen gut strukturiert plaziert – Darmstadt scheint auf Transparenz wert zu legen. So findet unter anderem eine Offenlegung von Bauleitplänen online statt. Wahlergebnisse, wirtschaftliche Kennzahlen, Ausschreibungen, Termine der Stadtverordneten-Versammlung wie auch die komplette Haushaltsplanung kann man hier einsehen. Die Abteilung Statistik und Stadtforschung im Amt für Wirtschaft und Stadtentwicklung trägt einen riesigen Fundus an verschiedensten Daten zusammen (ich werde in einem weiteren Post näher auf diese Abteilung eingehen). Leider werden die bisher genannten Daten ausschließlich in Form von PDF-Dateien (ein paar wenige Ausnahmen als HTML) veröffentlicht. Die Inhalte scheinen nicht unter einen freien Lizenz zur stehen, so dass es bei der Weiterverwertung auch juristische Hürden gibt. Zudem sind nur relativ aktuelle Daten verlinkt – ein Archiv sucht man vergebens.

Wer an Umweltdaten interessiert ist, hat mehr Glück. Das Hessische Landesamt für Umwelt und Geologie zeichnet zahlreiche chemische, biologische und physikalischer Werte auch für Darmstadt auf und stellt diese zeitnah in verschiedenen Formaten zum Download und teilweise auch zur direkten graphischen Darstellung zur Verfügung. So lässt sich z.B. auf dieser Seite die Konzentration von Luftschadstoffen wie Ozon oder Schwefeldioxid für einen frei wählbaren Zeitraum visualisieren. Leider konnte ich auch hier keine Lizenzangaben finden.

Von der Verwaltungsseite bietet die Stadt ein paar wenige Online Dienste wie ein virtuelles Fundbüro an. In der Rubrik Bürgerdialog sind hauptsächlich Verweise zu andere Unterseiten und ein Kontaktformular zu finden. Eine Email von mir an den Bürgerbeauftragten ist seit einigen Tagen unbeantwortet. Zur Verteidigung sei zu sagen, dass ich nach der Position der Stadt zum Thema OpenGov/OpenData gefragt habe und eine Antwort wahrscheinlich erst durch verschiedene Instanzen gehen muss.

Auch über die Aktivitäten der Stadtverordnetenversammlung – dem Parlament der Stadt – kann man Informationen erhalten. Dazu bietet das Parlamentsinformationssystem eine Anlaufstelle. So kann man hier Vorlagen und Beschlüsse herunterladen – leider wieder nur in Form von PDF-Dateien. Allgemein scheint mir diese Plattform nicht mehr Stand der heutigen Technik zu sein. Besonders auf Seiten der User Experience sehe ich Mängel. Wahrscheinlich könnte ein Content-Management-System von der Stange nach geringer Modifikation und Erstellung entsprechender Workflows mehr leisten. Da ich nicht den kompletten Funktionsumfang des momentanen Systems kenne, ist dies aber vorerst eine unbewiesene Vermutung. Inhaltlich blieb dieses Informationssystem ebenfalls hinter meiner persönlichen Erwartung: Weder Anwesenheits- oder Abstimmungslisten noch genau Gesprächsprotokolle sind vorhanden. Ob es hierzu keine Aufzeichnungen gibt oder diese nicht eingebunden sind, kann ich momentan nicht sagen.

Als Beispiel für den Versuch den Dialog zum Bürger online zu suchen ist mir die Meldeplattform Radverkehr aufgefallen. Diese wird von der ivm GmbH für den ganzen Bereich Region Frankfurt Rhein-Main betrieben. Man kann dort Mängel an Fahrradwegen eintragen. Generell eine schöne Idee, aber leider handelt es um eine informationelle Einbahnstraße: Die dort gesammelten Daten sind nicht für die Öffentlichkeit einsehbar. Das ist sehr schade. Es wäre leicht möglich, anderen Nutzern die Möglichkeit zu geben, bereits eingegebene Orte zu bewerten und zu kommentieren. Dies könnte entscheidend helfen, Prioritäten für die Behebung der Mängel zu setzen.

Summa summarum: In der Darmstädter Verwaltung und Regierung scheint es einen großen, permanent wachsenden Schatz an Informationen zu geben, der allerdings noch nicht OpenGov/OpenData-Ansprüchen (siehe Ten Principles for Opening Up Government Information) entsprechend aufbereitet ist. Für diese Daten stehen weder Online-Archive noch Schnittstellen zur Verfügung. Nur vereinzelnd werden Bürger-Services der Verwaltung online Angeboten. Es gibt also noch viel zu tun.

Fehlt etwas? Solltest Du der Meinung sein, dass ich etwas wichtiges übersehen habe würde ich mir über Kommentare und Nachrichten freuen.

OpenGov und OpenData in Darmstadt – Teil 1 – Motivation

Manchmal braucht man eine Deadline um den Hintern hochzubekommen: Obwohl mich das Thema Open Government / Open Data schon lange interessiert hat, bin ich in dem Bereich nicht wirklich aktiv geworden. Als jemand, der sich beruflich viel mit Datenanalyse auseinandersetzt (heutzutage ist der Begriff „Data scientist“ dafür hip geworden), finde ich die OpenGov-Bewegung, die Ihre Wurzeln in den USA und UK hat, ein sehr spannendes Phänomen. Nach meiner Anmeldung zum BarCamp Darmstadt 2010, das dieses Wochenende stattfinden wird, war die Zeit reif, mit dem Thema auf Tuchfühlung zu gehen. Ich postete einen kurzen Sessionvorschlag zum Thema „Open Goverment in Darmstadt“ und begann mit meiner Recherche. Ob die Session wirklich stattfindet, kann ich auf Grund der Natur der BarCamps noch nicht sagen (das Programm wird von den Teilnehmer vor Ort zusammengestellt). Von den online abgegeben Bewertungen her zu schätzen, scheint es allerdings genug Interessenten zu geben.

Aber erst einmal einen Schritt zurück. Was ist Open Government (auch OpenGov – mit oder ohne Leerzeichen) und Open Data? Es geht darum öffentliche Daten wie Ausgaben, Bevölkerungszahlen, aber auch Sitzungsprotokolle der breiten Öffentlichkeit mit möglichst geringen Barrieren zugänglich machen. Es soll mehr Transparenz und Interaktion zwischen Bürger, Regierenden und Verwaltung geschaffen werden. Das Web bietet dazu ein hervorragendes Medium. Es muss dabei nicht immer in fertigen Services oder Produkten gedacht werden. Wichtiger ist das Bereitstellen von Schnittstellen und Daten auf Basis von offenen Standards und Lizenzen wie auch machienenlesbaren Formaten. So geschaffene offene Plattformen bieten Interessierten die Möglichkeit, eigene Applikationen und Lösungen für sich und andere zu generieren. Die erhöhte Transparenz soll Vertrauen an und Interesse in die Politik und Verwaltung fördern wie auch Informations- und Machtgradieten reduzieren. Das zweite Anliegen ist die Erhöhung von politischer Partizipation und Mitbestimmung der Bürger. Auch hier können neue Technologien Barrieren abbauen und somit den Einstieg erleichtern. Beispiele wären das öffentliche Einsenden von Vorschlägen und die Online-Diskussion von Beschlüssen.

Ich denke neben Schaffung von Transparenz und Begünstigung von Partizipation, kann OpenGov aber noch weiter ausgelegt und ausgebaut werden. Mir schweben die Stichworte „Simulation“ und „Modell-basiertes Entscheiden“ vor. Was meine ich damit? Es scheint, dass Entscheidungen zu häufig relativ kurzsichtig und aus Interessen weniger gefällt werden. Das Gesamtsystems mit allen Facetten wird zu selten betrachtet und wenn nicht quantitativ. Schön wäre es, wenn ein mathematisches Gesamtmodell (e.g. einer Stadt) erstellt und transparent diskutiert werden würde. Diese Modell müsste ständig verbessert und mit Daten unterlegt werden. Es könnte dann in Entscheidungsprozessen genutzt werden um Folgen und Implikationen einzelner Entscheidungen auf das Gesamtsystem abzuschätzen. Meines Wissens werden solche Simulationen momentan nur für Teilbereiche (e.g. Bevölkerungzahl) genutzt. Das mag einerseits daran liegen, das viele Parlamentarier keine naturwissenschaftlich-mathematische Ausbildung haben (e.g. im deutschen Bundestag sind hauptsächlich Juristen anzutreffen) und sich somit dieser Art von Problemlösung nicht bewusst sind. Zudem handelt es sich schon bei einer Stadt um ein sehr komplexes System und eine Quantifizierung und Simulation ist nicht trivial. Dennoch sollte man den Versuch wagen. Wahrscheinlich wird schon viel Forschung in dem Bereich betrieben, aber hat noch keinen Einzug in die tatsächliche Politik gefunden. In Anlehnung zur System-Biologie fiel mir hier der Begriff „System-Politik“ ein. Sollte es einen etablierten Begriff geben, würde ich mich über Hinweise freuen. Dies gilt für die ganze Thematik: Ich bin ein hobbymäßiger Quereinsteiger, der über sich Kritik und Feedback zu kleinen Fehler und groben Schnitzer seinerseits freut.

In den folgenden Einträgen werde ich die Ergebnisse meiner Recherche zum Status von OpenGov und OpenData auf Städteebene am Beispiel von Darmstadt dokumentieren. Dies wird in den nächsten Tagen stattfinden und soll als Grundlage für die Diskussion auf dem oben genannten BarCamp dienen, deren Ergebnisse ich hier ebenfalls festhalten möchte. Wer sich darüber hinaus in die Themen Open Goverment und Open Data einlesen möchte sei auf das Open Data Network und den deutschen Zweig der Open Knowledge Foundation verwiesen. Auch der Katalog „Ten Principles for Opening Up Government Information“ der Sunlight-Foundation ist lesenswert.

Konichiwa, hier kommt Birnen-Bonsai!

Schon seit langer Zeit habe geplant neben meinen anderen Blogs eines mit Schwerpunkt Gesellschaft und Politik in deutscher Sprache zu starten. Jetzt ist es soweit. Hier möchte ich gerne Informationen, Ideen und Rechercheergebnis veröffentlichen, die hoffentlich auch andere Menschen interessieren.

Ich weiß selber nicht mehr genau wie ich auf den Namen „Birnen-Bonsai“ kam, finde aber, dass er genug Interpretationsspielraum gibt. Also, los geht’s!