Assumptie: n onafhankelijke activa
r: verwacht rendement
s: standaardafwijking van activa (wat weinigen zich afvragen is of variantie een goede risk metric is) http://nl.wikipedia.org/wiki/Variantie
r(portfolio)=r
s(portfolio)=s/√(n)
Dus: als we 10000 onafhankelijke activa vinden, dan is het “risico” van de portefeuille één procent van de individuele activa
Realiteit: interdependentie tussen activa (in de echte wereld is er samenhang tussen rendementen van verschillende activa)
twee interdependente activa
r1, r2 , s1, s2 , s12 (covariantie rendement activa 1 en 2) http://nl.wikipedia.org/wiki/Covariantie
r (portfolio)=x1r1 +x2r2 =x1r1 +(1-x1)r2
dus: r-r2= (x1)(r1-r2)
of: x1=(r-r2)/(r1-r2)
s2 (portfolio)= (x1)2 (s1)2 +(x2)2(s2)2 +2x1x2s12
= (x1)2 (s1)2 +(1-x1)2(s2)2+ 2x1((1-x1) s12
Dus op basis van de bovenstaande rekenkunde toegankelijk tot elke leerling van het vierde/vijfde middelbaar in het Vlaams onderwijs, kan je voor elke waarde van x1 het rendement r en de variantie s2 uitdrukken en dus de investeringsopportuniteiten afwegen.
dus: s2 (portfolio)= ((r-r2)/(r1-r2))2 (s1)2 +(1-(r-r2)/(r1-r2))2(s2)2+ 2(r-r2)/(r1-r2)((1-(r-r2)/(r1-r2)) s12
Hiermee heb je alles om de zogenaamde efficiënte portfolio frontier af te beelden:
Een elegante theorie is mooi, maar goede data zijn uiteraard waar alles mee staat of valt GIGO (garbage in, garbage out). Als je je beperkt tot de laatste 25 jaar, ga je totaal andere allocatie van activa als efficient beschouwen dan dat je niet beperkt tot de grote moderatieperiode waar gemeten volatiliteit laag was omdat we in een superkrediet opbouwcyclus zaten. Als je wat meer meetpunten opneemt door de steekproef te verruimen naar verder in het verleden, gaat de gemeten variantie gemakkelijk verviervoudigen. Als je dus mensen adviseert over het beleggen van hun geld, ga je met die ruimere datapool, hen veel voorzichtiger laten beleggen. Dus voor een gegeven risicotolerantie (die weergegeven kan worden door een indifferentiecurve als functie van rendement en risico), ga je op andere allocaties komen. Dus wat ik wil weten als men mij adviseert om gegeven mijn risicoprofiel in een bepaald fonds te beleggen: wat voor historiek gebruiken ze om tot hun schattingen te komen van een standaarddeviatie. Wat volgens hen 6 sigma-event is, is misschien in een fatsoenlijk staal, slechts 2 sigma. Ingenieurs zullen opmerken dat zij bij het ontwerpen van een kerncentrale niet werken met historische risicometing omdat die data niets zeggen. Dan moet je uiteraard robuustheid inbouwen. Ik vrees dat daar heel oppervlakkig mee wordt omgesprongen in de financiële wereld (ergodiciteit blijft onbegrepen). De grote fysicus Max Planck stelde progressie in de wetenschappen gaat van graf tot graf: de oude krokodillen moeten eerst afsterven. Bovendien staan velen niet open voor nieuwe inzichten, maar beperken zich tot het oneindig overdragen van oude opvattingen.
PS: Deze theorie is interessant omdat je met zo weinig elementen al ver geraakt (de gemiddelde ingenieur zal zich terecht afvragen waar al de wind over wordt gemaakt), maar het wordt pas echt boeiend als je dieper graaft. Op heel het internet vind je honderden papers over tekortkomingen ervan. Voor elke middelbare scholier zal het al duidelijk zijn dat een statistische verdeling door veel meer gekenmerkt wordt dan door de eerste twee momenten (gemiddelde en variantie). En inderdaad zijn er al talloze stommiteiten gedaan door onbegrip van kurtosis... http://nl.wikipedia.org/wiki/Moment_(wiskunde)
Geen opmerkingen:
Een reactie posten