Lundaluppen tog som fredagsmys upp en frågeställning som
ligger mig varmt om hjärtat. Nämligen när en analys förvandlas till en
överanalys. Jag har funderat på att skriva om det här sedan Kenny tog upp
frågan för några månader sedan men inte riktigt haft tid och fokus. Med tanke
på att jag skriver bland de mest omfattande analyserna som finns tillgängliga
gratis på nätet kan man kanske även gissa på att min syn på ”lagom” innebär
ganska mycket information.
Det är ingen dum gissning men i praktiken tycker jag att det
handlar om vilken typ av analys man vill genomföra. För mig bygger
aktieintresset på en kombination av allmän nyfikenhet och att jag tycker om att
koppla ihop komplexa och oöverskådliga data till någonting hanterbart och
kvantitativt. Det här innebär att jag brukar utgå fråntips eller en sållning på
Börsdata och när jag hittar ett bolag kickar hjärnan igång för att utvärdera vad
jag kan komma fram till. I det första steget handlar det om en i stort sett omedveten
sållning där relevant information plockas fram från någonstans långt in i
bakhuvudet. Utifrån den här kunskapen tar jag sedan fram idéer och hypoteser
som jag bekräftar eller vederlägger med hjälp av internet och bekanta. Därefter
utvärderas informationen via min mer strukturerade analysmodell
(tillväxtpotential, finansiell stabilitet o.s.v.) vilket leder till slutsatser
och ett investeringsbeslut.
Min analys av DataRespons är ett bra exempel är lätt att
redogöra för. Utifrån Börsdata kunde jag se att grundläggande data såg bra ut men
med vissa frågetecken kring tillväxten. Dessutom vet jag sedan tidigare att
Internet of Things äntligen börjar leva upp till sin potential och att svenska
bolag som Enea och IAR Systems har gått mycket bra de senaste åren. Efter att
ha läst årsredovisningar och branschanalyser kunde jag därefter dra slutsatsen
att tillväxten som förväntat var mycket god i Sverige och Tyskland. Däremot
påverkas omsättningstillväxten av problem med sjöfart och olja vilket blir
särskilt relevant för Data Respons som är norskt och tungt viktade mot dessa
sektorer.
Om jag var skribent på exempelvis Börsveckan skulle jag
stryka det mesta av hur jag kom fram till den här informationen. Majoriteten av
informationen är svår att presentera på ett koncist sätt och läsarna betalar
för slutsatser snarare än funderingar. Som gratisarbetande gratisbloggare
struntar jag däremot i vad som är kommersiellt gångbart utan fokuserar på vad
jag själv vill diskutera och utvärdera. Därför blir det ett fokus på
branschanalyser och bolagsstrukturer i mina analyser innan jag går vidare till
den standardiserade analysmodellen. Den standardiserade delen är ganska tråkig
att skriva eftersom den är repetitiv och jag ofta har en idé om vad jag tycker
redan innan den skrivs ned. Men jag lägger ändå lägger stor vikt vid den är att
den är ett mycket värdefullt verktyg för att se när jag är på väg att lura mig
själv. I den ostrukturerade analysen är det lätt att snöa in på de positiva
delarna och potentialen. I de fördefinierade delarna tvingas jag däremot
fokusera på ”tråkiga” frågor som tillväxtens stabilitet, den finansiella
ställningen och om ledningen verkligen levererat vad de lovar.
Ett alternativ till min tidskrävande approach är att
utnyttja informationssamhället och fokusera på sin analysmodell istället för
att jaga mer svåråtkomliga data. Det finns tre stora fördelar med den här typen
av prioritering.
1) Det är lättare att kopiera en analysmodell än att kopiera
någons sätt att tänka. Jag tog till exempel min analysmodell från Lundaluppen
för fem år sedan och har ägnat minimalt med tid att modifiera den. Däremot har
jag spenderat fem år med att utvärdera vilka data jag ska stoppa in i modellen.
2) Det är tidseffektivt. Om man väljer en fungerande
analysmodell och hämtar data från www.borsdata.se kan man hitta nya bolag på
bara några minuter.
3) Det är väldigt skönt för egot. Det svider oerhört mycket
mer att erkänna att man tänkt fel än att konstatera att analysmodellen gav ett
dåligt utslag.
Den bloggare som är överlägset bäst på att fokusera på
analysmodellen och strunta i resten är Investerarfysikern (länk). Nackdelen är att
jag misstänker att han nog lägger lika mycket tid på att analysera modeller som
jag lägger på att analysera bolag. Ett lite mindre avancerat upplägg är att
göra som Lundaluppen vilket Kenny precis sammanfattade väldigt bra i
kommentatorsfältet på Lundaluppens blogg (länk).
Om jag får tolka edgen
som Lundaluppen-strategin har så är det att identifiera bra bolag som alltid
kommer tillbaks via diverse kvalitetskrav och med hjälp av marknadens
nyckfullhet och volatilitet köpa när marknaden är tillfälligt pessimistisk. Det
fungerar bra, ungefär som att köpa en indexfond men välja bort skräpet. Det
kommer att slå index över tid.
Anledningen till att jag valt att inte kopiera varken
Investerarfysikern eller Lundaluppen är främst mitt stora intresse för att
omvandla komplexa data till någonting som går att hantera. Men det handlar även
om ett visst mått av skepsis mot automatiserade modeller då oväntade
börscenarier kan förändra spelreglerna. Varje gång en automatiserad modell går
fel kan man lägga till nya regler som löser det gamla problemet. Men även om
det skapar en fantastisk avkastning i diverse backtests blir det omöjligt att
applicera i praktiken över längre tidsperioder. Någon gång i framtiden när jag
tycker marginalvärdet på min nuvarande analysmetodik är för lågt kan jag mycket
väl byta strategi men det är inte relevant i dagsläget.
En parallell med forskningen och vikten av transparens
Det stora problemet som jag ser det med mitt sätt att
hantera bolag är att man lurar sig själv. Man blir helt enkelt förälskad i ett
case och slarvar eller gör bort sig i hanteringen av de mer strikta
analyskriterierna. En modell kan dessutom alltid manipuleras för att ge precis
de resultat man själv önskar. Forskningsstudier har därför oftast bara några få
meningar som beskriver slutsatsen men åtskilliga sidor som beskriver hur man
kom fram till dessa slutsatser. Ett bra exempel på det här är
forskningsartikeln Orchestrating
Impartiality: The Impact of "Blind" Auditions on Female Musicians (länk) som en forskare med en fablesse för könskvotering skickade till mig för ett tag
sedan.
Slutsatsen som brukar
citeras i den här rapporten är:
Using data from actual auditions, in an
individual fixed-effects framework, we find that the screen increases the
probability a woman will be advanced and hired.
Om man läser korta sammanfattningar och abstract är det här
den slutsats som presenteras medan övriga 5 sidor negligeras. För den som är
intresserad framträder dock en bild som gör att det finns goda skäl att
ifrågasätta om verkligheten är så enkel. Det finns inga skäl att anklaga författarna för forskningsfusk. Men rapporten är tillräckligt omständig och behäftad med osäkerheter för att jag ska bli misstänksam vad personer som lyfter fram den som "bra forskning" egentligen har för agenda.
Artikeln kan inte anklagas för att vara forskningsfusk eftersom man i själva rapporten tydligt redogör för vad man gjort. Däremot är bevisen för de teser som man fokuserar på klart svagare än man får intryck av när man ser hur resultaten påverkar vissa människors syn på anonyma rekryteringsprocesser. Det här är särskilt viktigt eftersom det är
omöjligt att veta om tabell 5 är resultatet av en hypotes eller om forskarna
fiskade efter resultat som understödde deras hypotes. I det första fallet
skulle det indikera att det kan vara en relevant idé som bör undersökas vidare
och i det andra fallet är det ett tecken på inkompetens på gränsen till fusk.
Oavsett hur de kom fram till sina resultat är det dock
tydligt att det resultat de själva önskade är det man hittar i sammanfattningen. Hade resultaten hanterats på samma sätt som de flesta (korta)
aktieanalyser skulle det dessutom vara omöjligt att, som jag gjorde, upptäcka att resultaten är långt ifrån robusta.
Att inte presentera hur man kommit fram till en slutsats kan vara en bra maktmetod för att på kort sikt undvika ifrågasättanden. Är man dessutom hyggligt duktig och/eller utrustad med rätt kundkrets kan det till och med vara lönsamt. Mekaniska analysmodeller kan därför vara en bra kompromiss då man enkelt kan vara både lättläst och transparent i sitt agerande. För mig personligen är det däremot mer intressant att konstant kunna utvärdera min analysprocess och bli bättre på det jag gör än att presentera lättlästa analyser.