Hallo allerseits,
in diesem Posting geht es darum, wie sich eine Ausfallrate für die zukünftigen Zahlungen auf den internen Zinsfuß (IRR) bei Projekten mit unterschiedlicher Laufzeit auswirkt.
Zuerst zwei Projekte A und B mit identischer IRR und unterschiedlich langer Laufzeit:
A
-100
+110
IRR= 10%
B
-100
+ 57,62
+ 57,62
IRR= 10%
Jetzt gehen wir davon aus, das die zukünftigen Zahlungen mit Unsicherheit behaftet sind. Wir gehen davon aus das für alle zükünftigen Zahlungen ein 5%iges Ausfallrisiko besteht und multiplizieren daher alle zukünftigen Zahlungen mit 0,95 (natürlich nicht die Anfangsinvestition)
A
-100
+104,5
IRR= 4,5%
B
-100
+ 54,74
+ 54,74
IRR= 6,26%
Das Ergebnis hat mich so erstaunt, dass ich es mit einigen anderen Beispielen durchgerechnet habe und immer das gleiche Ergebnis, obwohl die Projekte am Anfang eine identsiche IRR haben und auch die Ausfallrate gleich ist, hat das Projekt mit der längeren Laufzeit nach Adjustierung für die Ausfallrate eine höhere IRR. Wie kann das sein ? Schließlich ist die Ausfallrate ja eine prozentuale Adjustierung, die für beide Reihen gleich ist ?
viele Grüße