Moralisch verwerflich?

von Christoph

Ich lese ja regelmäßig die Wirtschaftswoche (WiWo). Die Meinungsartikel triefen oft neoliberal und sind entsprechend schwer zu ertragen. Der Journalismus hat aber hin und wieder einen Lichblick - womöglich Brotkrumen, die beim paywall-vernagelten Handelsblatt runterfallen. Jedenfalls lese ich dort dieses Jahr das hier:

Die Organisation "Moral Rating Agency" führt eine Liste mit dem Namen "Dirty Dozen" – zwölf Konzerne, die sich angeblich aus Russland zurückgezogen haben, die aber in Wirklichkeit nach Informationen der "Moral Rating Agency" aber ein Großteil ihrer Geschäfte weiterlaufen lassen. Darunter bekannte Namen wie Unilever, Procter & Gamble, PepsiCo und Nestlé. Auch die Yale Universität führt eine "Liste der Schande".

Ui, ui, ui. Harte Worte: Moral, schmutzig, aber, aber, Schande. Naja, denke ich mir, Wirtschaftswoche eben. Aber Moment mal! Die vier Namen darin, die kommen mir doch irgendwie bekannt vor: Unilever, Procter & Gamble, PepsiCo und Nestlé. Woher nur? Aber ja! Das sind Konsumgüter Value-Aktien. Wenn man irgendetwas Robustes in seinem Depot haben wollte, das sich auch in Krisenzeiten stabil hält, dann würden die vermutlich in die engere Wahl kommen. Einen Sicherheitsanker habe ich ja selber. Also ganz genau gesagt, über die letzten 10 Jahre, vier Sicherheitsanker, nämlich: Unilever, Procter & Gamble, PepsiCo und Nestlé.

Tja. Zufälle gibts! Zu meiner Verteidigung kann ich sagen, dass sie dieses Jahr nicht über-performed haben. Ich habe also nicht übermäßig von Gierflation und Schande profitiert. Daher ja auch Sicherheitsanker (andere Erwartungshaltung).

Die wenigen Einzelwerte, die ich aus Spaß noch halte, wollte ich unter 4% je Position laufen lassen. Da hat mir Growth (Technologie-Werte, allen voran Nvidia) aber einen Strich durch die Rechnung gemacht. Der Growth- und der Value-Anteil waren tatsächlich mal gleich groß bei jeweils ca. 15%. Nach dem Auseinanderlaufen wäre eigentlich ein Rebalancing fällig gewesen, aber ich war zu faul. Habe es einfach laufen lassen und nicht zu Gunsten von Schande oder ETF umgeschichtet.

Damit bin ich dieses Jahr 2023 mit +26,25% internem Zinsfuß rausgegangen. Nach dem extrem schwachen letzten Jahr pendelt sich der mehrjährige Schnitt wieder auf statistischem Mittelmaß ein. Erwartungsgemäß, möchte man sagen. Also alles gut im Depot und Grüße an Nvidia. Gute Arbeit, Leute!

Marktperformance 2022

von Christoph

Dies ist die Fortsetzung meines Marktrückblicks von 2021, der wiederum eine Fortsetzung des Marktrückblicks von 2020 ist. Ich hatte es letztes Jahr schon beschrien: die Börsenentwicklung war da so gut, dass statistisch gesehen mal deutlich etwas in Abwärtsrichtung passieren musste.

Und naja, was soll ich sagen? Wie niemandem entgangen sein dürfte, ging es abwärts. Bereinigt um Zu- und Abflüsse waren es in meinem Depot negative 19% Performance (exklusive Dividenden, die den Verlust noch leicht abmildern). Finanzmathematisch dürfte es sich bei meiner Berechnungsmethode um den internen Zinsfuß oder einen Verwandten davon handeln.

Gewinn-Verlust-Chart-2022

Wie üblich und auch schon beim Corona-Crash 2020 habe ich die Gelegenheit zum außerordentlichen Nachkaufen genutzt. Tatsächlich stehen in diesem Jahr ausschließlich Nachkäufe in der Bilanz. Keine neuen Positionen und auch keine Verkäufe. Ich habe nirgends das Vertrauen verloren. Es ist es mir auch lieber, dass es jetzt kracht als später, denn beim vermeintlich Unvermeidlichen bin ich ungeduldig (Achtung: ich rechne Geduld in Quartalen, nicht in Stunden oder Tagen). Jetzt müsste man nur noch wissen, wann es überstanden ist. Zusammen mit meinem alten Kumpel - der Statistik - gehe ich insgesamt von 6 bis 12 mauen Quartalen aus.

War 2022 also ein Reinfall, das erste von mehreren verlorenen Jahren? Nein. Abgesehen von der Beseitigung meines statistischen Unbehagens war es Kaufgelegenheit. Netto bin ich am Ende ungefähr bei 0 rausgekommen, das heißt ich habe Kursrückgänge durch Zukäufe kompensiert, jedoch nicht überkompensiert (dafür hatte ich dann doch nicht genügend Liquidität). Somit war es das erste Mal, dass mein Depot in absoluten Zahlen auf Jahressicht nicht gewachsen ist (ich bin seit 2014 an der Börse aktiv). Jedoch sehe ich die diesjährigen Zuflüsse als rabattierte Grundsteine für späteres Wachstum oder wie André Kostolany es ausdrückte: »Wer die Aktien nicht hat, wenn sie fallen, hat sie auch nicht, wenn sie steigen.«.

Marktperformance 2021

von Christoph

Dies ist die Fortsetzung meines Marktrückblicks von 2020. Es lief 2021 sehr gut. Beängstigend gut. So gut, dass statistisch gesehen die nächsten Jahre ziemlich mau ausfallen müssen damit der langfristige Mittelwert wieder passt. Ich habe lange überlegt, wie die Veränderung von 34% zu interpretieren ist. Wertsteigerung oder doch eher Kaufkraftverlust (Inflation)?

Da ich kein Volkswirt bin, muss ich mir hier mit einfacher Laienlogik helfen. Wertzuwachs hat für mich etwas von Leistung. Man hat eine besonders gute Strategie (Auswahl, Timing oder beides) und schlägt damit den Markt (dollargehandelter thesaurierender MSCI World dieses Jahr in € bei 32,6%). Inflation passiert einfach, egal was man macht. Bezüglich ersterem hatte ich ja letztes Jahr den tollen Plan, immer wieder nachzukaufen. Das war sicherlich richtig. Aber was man kauft, war im wesentlichen bedeutungslos. 2021 war es nur wichtig, breit investiert zu sein. War ich. Ergo handelte es sich um massive (Vermögenspreis-)Inflation.

Gewinn-Verlust-Chart-2021

Die Erkenntnis, dass Stock-Picking zu viel Aufwand für zu wenig Ertrag ist, reifte bei mir schon länger. Deswegen habe ich es dieses Jahr weitestgehend aufgegeben. Im Gegenteil, ähnlich wie bei Softwarekomplexität, glaube ich nun auch für mein Depot: einfacher ist besser. Werte, die zu lange unter-performed haben (und von denen ich nicht mehr überzeugt bin), habe ich deswegen in den MSCI World umgeschichtet. Einzelwerte, die gut liefen (zum Beispiel MSFT, NVDA, PG), habe ich natürlich laufen lassen. Ich bin jetzt aber auch nicht aktiver Rebalancer. Mein Plan für 2022 ist, den relativen Anteil der Einzelwerte durch Aufblähen der ETFs (via Zuflüsse) zu reduzieren. An den nun insgesamt 12 Positionen in meinem Depot will ich festhalten.

Ein paar Worte noch zu Anleihen. Ich habe das jetzt in 8 Jahren 4 mal probiert und bin nur einmal mit ganz wenig Gewinn da rausgegangen. Ok, die Verluste waren auch ganz wenig, aber nach meiner Erfahrung sind Anleihen keine sichere Kiste, die in jedes Depot gehören. Wenn eh Verluste nicht ausgeschlossen werden können, kann ich auch gleich defensive Aktien (Nestlé) oder ETFs nehmen. Also irgendwas habe ich hier nicht verstanden. Und ich geb's auch auf - Anleihen fasse ich nicht mehr an.

Marktperformance 2020

von Christoph

Auf meinem Raspberry Pi läuft jeden Morgen um 6:30 ein Cron-Job, der den Gesamtwert meines Aktien- und ETF-Depots bestimmt und in eine SQLite-Datenbank schreibt. Nach einem Jahr gibt es hier also 365 Einträge. Das zu betrachten wäre allerdings einigermaßen langweilig weil ich regelmäßig Transaktionen vornehme und die Performance sozusagen von außen verzerrt wird.

In der Datenbank pflege ich aber auch die Transaktionen (Käufe und Verkäufe) und nun wird es interessant. Die kann man nämlich herausrechnen. Im Jahr 2020 waren es 51. Das klingt für einen Buy-and-Hold-Ansatz nach sehr viel. 12 davon waren Sparpläne, die kommen also so oder so. Der Rest wurde von meinem Crash-Plan ausgelöst. Als die Börsen eingebrochen sind, habe ich regelmäßig an bestimmten Schwellenwerten nachgekauft. Da die Schwellenwerte sehr zügig gerissen wurden, waren die zeitlichen Abstände des Nachkaufens auch kurz. Doch zurück zum Herausrechnen von Transaktionen. Wir nehmen den Depotwert vom 1.1.2020 als Basis (baseline) und:

  • für jeden Kauf wird ab Kaufdatum jeder Depotwert um den Kaufpreis reduziert
  • für jeden Verkauf wird ab Verkaufsdatum jeder Depotwert um den Verkaufspreis erhöht

Damit sehen wir nur noch die Performance des Depots vom 1. Januar und Veränderungen, die direkt aus dem Depotbestand generiert wurden. Kursbewegungen von Zukäufen (Δ) gehen ein, nicht jedoch die Zukäufe. Und hier ist das Ergebnis, die bereinigte Veränderung in Prozent:

Gewinn-Verlust-Chart

Für ein Krisenjahr doch garnicht so schlecht. Der Einbruch im März tat weh, aber er war gedämpft. Während es im Allgemeinen auch mal 40% abwärts ging, traf es mich "nur" mit 25%. Trotzdem kein schönes Gefühl, gerade ein Viertel ärmer zu sein als noch einen Monat zuvor. Im kumulierten Chart war das allerdings nicht so krass sichtbar. Ich hatte ja den Plan und die Reserven. Tatsächlich sah es so aus, als wäre ich nur kurz maximal 5% im Minus weil ich das Depot immer wieder hochgekauft habe. In der Gewinnzone war ich erstmals wieder im September, stabiler ab November. So werde ich das Jahr mit Kursgewinnen von 6% verlassen (zuzüglich ein paar Dividenden). Da wird so mancher hochbezahlter Fonds-Manager schlechter abschneiden. Klar, berauschend ist das auch nicht (in Krisen werden Reiche gemacht), allerdings bin ich ja eher defensiv aufgestellt. Das begrenzt die Verluste - aber eben auch die Gewinne.

Announcing Geogen 4.0

von Christoph

Ich schrieb es bereits zum zehnjährigen von Geogen, dass ich mit der vierten Generation der Namenskartierungssoftware experimentiere. Vor drei Monaten war das hauptsächlich aus Spaß und ich wusste noch nicht genau, wo es hinführen sollte. Jetzt ist es immer noch Spaß, aber ich weiß, was das werden soll.

Die Version 4.0 ist öffentlich zugänglich. Sie ist Namenskartierung im modernen Gewand, mit besserer Übersicht und erhöhter Performance. Ich bin in den letzten Monaten ein Fan von Continuous Delivery geworden, d.h. ich habe kleine Features und Verbesserungen sofort nach bestandenen Tests auf das Live-System ausgerollt. Am letzten Wochenende war das zum Beispiel eine coole "Game of Thrones"-Animation der 3D-Karte. Womit ich auch schon bei den Details von Geogen 4.0 bin.

Die Software ist eine komplette Neuentwicklung. Ich habe wirklich keine einzige Codezeile der Vorversionen übernommen. Sie setzt auf aktuelle Webtechnologien und hier jeweils auf etablierte Hilfsbibliotheken. Das Grundgerüst ist HTML5 mit jQuery (was sonst?). Dazu kommen WebGL via three.js, Canvas und SVG via D3.js. Im Backend tummeln sich illustre Gäste wie MS SQL Server Compact, Json.NET und ZXing.Net.

Geogen 4.0 gibt es in zwei Fassungen:

Es gibt derzeit keine Bestrebungen Geogen 3.1 abzuschalten. Ich entwickle aber dort keine neuen Features mehr und deaktiviere höchstens Gadgets, die vor Jahren einfach schlecht implementiert wurden.

Update 07.03.2015: Ich habe begonnen, die neue Engine international parametrisierbar zu machen. Die Geogen-Konsole funktioniert jetzt auch für Österreich: http://geogen-at.stoepel.net/console.html und phonetische Namensgraphen gibt es ebenso.

10 Jahre Geogen

von Christoph

Ich habe mal die Backup-Festplatten und alten Quelltexte durchstöbert und dabei fiel mir auf: Geogen ist nun schon 10 Jahre alt.

Es fing in den Semesterferien 2004 mit einer normalen Desktop-Anwendung an, mit der ich mir hauptsächlich selbst Landkarten für Familiennamen erstellen wollte. Schnell stellte sich heraus, dass auch andere diesen Wunsch hatten. Es gab eine Lücke zu füllen, die Anzahl der Downloads war überwältigend. Einiges am Programm war noch nicht rund, weil mir als Student damals schlichtweg die Erfahrung fehlte. Die Lokalisierungsdatenbank als MS Access auszuliefern war sicherlich ein Fehler und brachte unzählige Support-Anfragen. Der Einsatz des damals noch sehr neuen .NET-Frameworks in der Version 1.1 war zumindest ambitioniert.

Ich doktorte einige Male an der Architektur der Software, stieg auf Sqlite zur Datenhaltung um, aber als Desktop-Anwendung war Geogen einfach nicht zu warten. Das Ding musste auf den Server!

Version 2 schrieb ich Ende 2005 komplett neu, jedoch immer noch in C# (ASP.NET 2.0). Auf meinem Server hatte ich das Deployment schließlich selbst im Griff und ab da lief es weitestgehend problemlos. Eine größere Überarbeitung des Layouts brachte Geogen 3 und danach folgten kleinere Wartungs-Releases, aber keine größeren Änderungen im Backend mehr. Es funktionierte einfach.

Eher aus Spaß habe ich in den letzen Wochen mit einem neuen Kern experimentiert. Mit nun 10 Jahren Erfahrung in Geogen und fast doppelt soviel in Software-Entwicklung wollte ich sehen, was so geht. Ergebnis: 10-15 mal schneller geht. Nun, das ist ein guter Wert, aber ich habe selten Performance-Probleme. Es gibt also keine Not für ein Upgrade. Interessanter ist die neue Technologie, zeitgemäße Architektur, neuer Spaß. Vielleicht gibt es auf dieser Basis mal ein Geogen 4.0. Solange bleibt die Subdomain Entwicklerspielwiese. Oder um einen bekannten Mann aus der Informatik zu zitieren: Just for fun.

Kartierung der Woche: Abiturienten

von Christoph

Das Statistische Bundesamt hat mal wieder die Zahlen über Schulabgänger veröffentlicht. Die aktuellsten betreffen das Schuljahr 2007/2008. Das könnte natürlich auch neuer sein, aber die Mühlen der Bürokratie arbeiten langsam. LANGSAM.

Seis drum. In jenem Jahr haben fast 230.000 Schüler ihre Pflicht mit dem Abitur (allgemeine Hochschulreife) abgeschlossen. Wie das linke Cartogram (flächentreu) zeigt, die meisten davon in Nordrhein-Westfahlen. Berlin ist erwartungsgemäß aufgrund seiner hohen Bevölkerung auch ziemlich groß vertreten. Im Gegensatz zu den Statistiken über Erwachsene ist Brandenburg hier auch nicht völlig aufgesogen, sondern kann sich noch mit eigenen Abiturienten behaupten. Die Landflucht in die Hauptstadt setzt demnach offenbar erst ab einem bestimmten Alter ein.

Abiturienten Schuljahr 07/98

Das rechte Cartogram ist eine neue Form. Hier habe ich die Zahl der Abiturienten mit der Zahl der Einwohner normalisiert. Mit der Zahl aller Einwohner - nicht der der Schulabgänger. Ein Bundesland mit ausbleibendem Nachwuchs hat einfach Pech gehabt und wird entsprechend verzerrt. Hier fällt besonders auf, dass Mecklenburg-Vorpommern an Größe zulegt. Das bedeutet, dass MVP im Verhältnis zu seinen Einwohnern den größten Output an Abiturbesitzern vorzuweisen hat. Die Erklärung dieses Phänomens sei dem geneigten Leser überlassen. Mir fällt dazu spontan nichts Plausibles ein.