lördag 29 oktober 2016

Överanalys? Nja, en dålig analys är alltid dålig.

Lundaluppen tog som fredagsmys upp en frågeställning som ligger mig varmt om hjärtat. Nämligen när en analys förvandlas till en överanalys. Jag har funderat på att skriva om det här sedan Kenny tog upp frågan för några månader sedan men inte riktigt haft tid och fokus. Med tanke på att jag skriver bland de mest omfattande analyserna som finns tillgängliga gratis på nätet kan man kanske även gissa på att min syn på ”lagom” innebär ganska mycket information.

Det är ingen dum gissning men i praktiken tycker jag att det handlar om vilken typ av analys man vill genomföra. För mig bygger aktieintresset på en kombination av allmän nyfikenhet och att jag tycker om att koppla ihop komplexa och oöverskådliga data till någonting hanterbart och kvantitativt. Det här innebär att jag brukar utgå fråntips eller en sållning på Börsdata och när jag hittar ett bolag kickar hjärnan igång för att utvärdera vad jag kan komma fram till. I det första steget handlar det om en i stort sett omedveten sållning där relevant information plockas fram från någonstans långt in i bakhuvudet. Utifrån den här kunskapen tar jag sedan fram idéer och hypoteser som jag bekräftar eller vederlägger med hjälp av internet och bekanta. Därefter utvärderas informationen via min mer strukturerade analysmodell (tillväxtpotential, finansiell stabilitet o.s.v.) vilket leder till slutsatser och ett investeringsbeslut.

Översikt över hur jag analyserar bolag. Det kan även nämnas att jag medvetet brukar undvika att skriva om själva köp/säljbeslutet. Jag redogör alltid för mina affärer men det intressanta som jag ser det är vilka slutsatser jag dragit och hur jag kom fram till dem. 

Min analys av DataRespons är ett bra exempel är lätt att redogöra för. Utifrån Börsdata kunde jag se att grundläggande data såg bra ut men med vissa frågetecken kring tillväxten. Dessutom vet jag sedan tidigare att Internet of Things äntligen börjar leva upp till sin potential och att svenska bolag som Enea och IAR Systems har gått mycket bra de senaste åren. Efter att ha läst årsredovisningar och branschanalyser kunde jag därefter dra slutsatsen att tillväxten som förväntat var mycket god i Sverige och Tyskland. Däremot påverkas omsättningstillväxten av problem med sjöfart och olja vilket blir särskilt relevant för Data Respons som är norskt och tungt viktade mot dessa sektorer.

Om jag var skribent på exempelvis Börsveckan skulle jag stryka det mesta av hur jag kom fram till den här informationen. Majoriteten av informationen är svår att presentera på ett koncist sätt och läsarna betalar för slutsatser snarare än funderingar. Som gratisarbetande gratisbloggare struntar jag däremot i vad som är kommersiellt gångbart utan fokuserar på vad jag själv vill diskutera och utvärdera. Därför blir det ett fokus på branschanalyser och bolagsstrukturer i mina analyser innan jag går vidare till den standardiserade analysmodellen. Den standardiserade delen är ganska tråkig att skriva eftersom den är repetitiv och jag ofta har en idé om vad jag tycker redan innan den skrivs ned. Men jag lägger ändå lägger stor vikt vid den är att den är ett mycket värdefullt verktyg för att se när jag är på väg att lura mig själv. I den ostrukturerade analysen är det lätt att snöa in på de positiva delarna och potentialen. I de fördefinierade delarna tvingas jag däremot fokusera på ”tråkiga” frågor som tillväxtens stabilitet, den finansiella ställningen och om ledningen verkligen levererat vad de lovar.

Ett alternativ till min tidskrävande approach är att utnyttja informationssamhället och fokusera på sin analysmodell istället för att jaga mer svåråtkomliga data. Det finns tre stora fördelar med den här typen av prioritering.

1) Det är lättare att kopiera en analysmodell än att kopiera någons sätt att tänka. Jag tog till exempel min analysmodell från Lundaluppen för fem år sedan och har ägnat minimalt med tid att modifiera den. Däremot har jag spenderat fem år med att utvärdera vilka data jag ska stoppa in i modellen.
2) Det är tidseffektivt. Om man väljer en fungerande analysmodell och hämtar data från www.borsdata.se kan man hitta nya bolag på bara några minuter.
3) Det är väldigt skönt för egot. Det svider oerhört mycket mer att erkänna att man tänkt fel än att konstatera att analysmodellen gav ett dåligt utslag.

Den bloggare som är överlägset bäst på att fokusera på analysmodellen och strunta i resten är Investerarfysikern (länk). Nackdelen är att jag misstänker att han nog lägger lika mycket tid på att analysera modeller som jag lägger på att analysera bolag. Ett lite mindre avancerat upplägg är att göra som Lundaluppen vilket Kenny precis sammanfattade väldigt bra i kommentatorsfältet på Lundaluppens blogg (länk).

Om jag får tolka edgen som Lundaluppen-strategin har så är det att identifiera bra bolag som alltid kommer tillbaks via diverse kvalitetskrav och med hjälp av marknadens nyckfullhet och volatilitet köpa när marknaden är tillfälligt pessimistisk. Det fungerar bra, ungefär som att köpa en indexfond men välja bort skräpet. Det kommer att slå index över tid.

Anledningen till att jag valt att inte kopiera varken Investerarfysikern eller Lundaluppen är främst mitt stora intresse för att omvandla komplexa data till någonting som går att hantera. Men det handlar även om ett visst mått av skepsis mot automatiserade modeller då oväntade börscenarier kan förändra spelreglerna. Varje gång en automatiserad modell går fel kan man lägga till nya regler som löser det gamla problemet. Men även om det skapar en fantastisk avkastning i diverse backtests blir det omöjligt att applicera i praktiken över längre tidsperioder. Någon gång i framtiden när jag tycker marginalvärdet på min nuvarande analysmetodik är för lågt kan jag mycket väl byta strategi men det är inte relevant i dagsläget.

En parallell med forskningen och vikten av transparens

Det stora problemet som jag ser det med mitt sätt att hantera bolag är att man lurar sig själv. Man blir helt enkelt förälskad i ett case och slarvar eller gör bort sig i hanteringen av de mer strikta analyskriterierna. En modell kan dessutom alltid manipuleras för att ge precis de resultat man själv önskar. Forskningsstudier har därför oftast bara några få meningar som beskriver slutsatsen men åtskilliga sidor som beskriver hur man kom fram till dessa slutsatser. Ett bra exempel på det här är forskningsartikeln Orchestrating Impartiality: The Impact of "Blind" Auditions on Female Musicians (länk) som en forskare med en fablesse för könskvotering skickade till mig för ett tag sedan.

 Slutsatsen som brukar citeras i den här rapporten är:
Using data from actual auditions, in an individual fixed-effects framework, we find that the screen increases the probability a woman will be advanced and hired.

Om man läser korta sammanfattningar och abstract är det här den slutsats som presenteras medan övriga 5 sidor negligeras. För den som är intresserad framträder dock en bild som gör att det finns goda skäl att ifrågasätta om verkligheten är så enkel. Det finns inga skäl att anklaga författarna för forskningsfusk. Men rapporten är tillräckligt omständig och behäftad med osäkerheter för att jag ska bli misstänksam vad personer som lyfter fram den som "bra forskning" egentligen har för agenda.

Artikeln är helt klart spännande nog för att publiceras i en vetenskaplig tidskrift. Men fokus på resultaten i tabell 5 och bristen på uppföljning och analys av varför man fick resultaten som redovisas i tabell fem är förvånande. 
Artikeln kan inte anklagas för att vara forskningsfusk eftersom man i själva rapporten tydligt redogör för vad man gjort. Däremot är bevisen för de teser som man fokuserar på klart svagare än man får intryck av när man ser hur resultaten påverkar vissa människors syn på anonyma rekryteringsprocesser. Det här är särskilt viktigt eftersom det är omöjligt att veta om tabell 5 är resultatet av en hypotes eller om forskarna fiskade efter resultat som understödde deras hypotes. I det första fallet skulle det indikera att det kan vara en relevant idé som bör undersökas vidare och i det andra fallet är det ett tecken på inkompetens på gränsen till fusk.


Oavsett hur de kom fram till sina resultat är det dock tydligt att det resultat de själva önskade är det man hittar i sammanfattningen. Hade resultaten hanterats på samma sätt som de flesta (korta) aktieanalyser skulle det dessutom vara omöjligt att, som jag gjorde, upptäcka att resultaten är långt ifrån robusta. 

Att inte presentera hur man kommit fram till en slutsats kan vara en bra maktmetod för att på kort sikt undvika ifrågasättanden. Är man dessutom hyggligt duktig och/eller utrustad med rätt kundkrets kan det till och med vara lönsamt. Mekaniska analysmodeller kan därför vara en bra kompromiss då man enkelt kan vara både lättläst och transparent i sitt agerande. För mig personligen är det däremot mer intressant att konstant kunna utvärdera min analysprocess och bli bättre på det jag gör än att presentera lättlästa analyser. 

14 kommentarer:

  1. Om jag förstår Lundaluppens inlägg så startar han sina tankar i det Kenny sa i intervjun i Börspodden. I min värld så sa Kenny tydligt att han sökte information för att stärka sitt case, inte ifrågasätta det, och att han där gjort en tavla.

    Någonstans finns också kompetens i den här ekvationen. Kenny hade inte erfarenhet av start-ups, kapitalanskaffning, företagsdrivning mm. så hur han skulle kunna identifiera relevant fakta är också väldigt oklart.

    För mig betyder det att debatten kring frågan om det finns för mycket information är helt snedvriden, i någon sorts rädsla för att säga som det är. 1) Vi vet inte drivkraften bakom blogginlägg och 2) många av oss saknar kompetensen som krävs för att kunna bedöma data.

    Då är frågan vad vi gör åt det? Transparens är en del, men då handlar ju inte det bara om data, utan även om erfarenhet och drivkrafter. Ödmjukhet inför det man gör och den genomlysning ens läsare gör är en annan.


    SvaraRadera
    Svar
    1. Effekten av djupdykningarna blev att caset i min värld stärktes, men syftet med djupdykningarna var alltid att hitta brister. Delvis berodde det på att jag valde att hellre fria än att fälla och kanske kunde man ha sett kombinationen av tvivel som tillräckligt för att fälla.

      Radera
    2. Naturligtvis. Men om man missat huvuddragen eller inte kan bedöma risker som caset står inför så blir ju inte mer/fler detaljer så relevanta vilket vi verkar vara överens om. Frågan är om det inte snarare blir så att vi själva analyserar vidare för att stärka oss själva i en redan fastlagd åsikt. En loop som är helt fel att springa i om du frågar mig.

      För mig som ska bedöma din trovärdighet som skribent så har vi två helt skilda värdar i ditt skrivande kring kring Vardia och ditt svar nedan. Du har en insikt nedan som alla som gör analyser borde ha. Därför förvånar det mig något att vi pratar om huruvida det kan finnas för mycket fakta eller inte.

      Radera
    3. Jag tycker att Vardia får alldeles för mycket och fel uppmärksamhet. I det cases handlar det som jag ser det om en "black swan" händelse. Man kan så klart hävda att svaret är att man börja fokusera mer på robusthet i små bolag innan lönsamhet. Men då bör man även kvalitetssäkra det resonemanget genom att fråga sig hur många små och bra bolag man missar med den begränsningen. Hittills har jag inte sett några bra exempel på detta. Däremot håller jag med Kennys tes som delvis kan byggas på att svarta svanar gör omfattande analyser mindre attraktiva.

      Mer relevanta case för kritisk analys tycker jag är t.ex Sainsbury, Millicom och Bonheur. Har man som investerare undervärderat problemen i dessa bolag eller är grundtesen korrekt och man bör vänta på marknaden att komma ikapp?

      Sen ser jag även ett stort problem med alla lärdomar just nu och det är att det nästan aldrig varit fel med små svenska bolag och medelhög risk de senaste åren. Det försöker jag alltid komma ihåg att det lär ändra sig förr eller senare.

      Radera
    4. (alla svar är manglade via autocorrect och en liten mobilskärm).

      Radera
    5. @Onkel Tom
      Risken för att man hamnar i confirmation bias istället för att verkligen hitta bristerna är väl uppenbar och fel väg att springa som du påpekar, men samtidigt har alla case brister och mycket av det som kommer i efterhand sägs med en rejäl dos av hindsight bias ("vad var det jag sade?") när all fakta och alla utfall ligger på bordet. På förhand är mycket osäkert men i efterhand är allt som har hänt säkert även om det alltid finns en sannolikhet för att något annat hade hänt.

      Aktieingenjören har helt rätt när han säger att det är för mycket och fel uppmärksamhet kring Vardia. Det inträffade en svart svan som hade diverse orsaker. Man tvingades byta från en redovisningsprincip som andra försäkringsbolag använder och som Vardia idag har bytt tillbaks till. Att detta skulle ske var det ingen som förutsåg. Sannolikheten hade varit mycket lägre att detta hade hänt i ett bolag med en historik av vinster och med en stark balansräkning, men man ska inte negligera sannolikheten för att det hade kunnat gå bra. Det fanns en enorm potential som aldrig realiserades. Det finns mängder med bolag där ute idag som sysslar med annat än försäkring, som nästan når till punkten att det tippar över och blir succé, men istället faller man på målsnöret och går i konkurs.

      Den svartvita syn som många har är problematisk, för förr eller senare går man i en fälla oavsett om man sysslar med små eller stora bolag, se t.ex. Volkswagen, Wells Fargo m.m.

      Man lär sig saker hela tiden och den som tror att han är fullärd, eller att någon skribent eller analytiker som man har förtroende för är det, lurar bara sig själv.

      Radera
  2. Alltid trampar man på några ömma tår ;-) Nu var det inte analyser av din omfattning som jag vände mig mot, vi har ju ofta eller ibland ungefär samma angreppssätt och omfattning på analyser även om det såklart finns skillnader. Det som fortfarande är sinnebilden i mitt huvud är den 120-sidorsanalys av Fingerprint som jag såg där man ägnade 120 sidor år... ja, jag vet ärligt talat inte vad, men allt var visst lika viktigt...

    När man gör det missar man poängen totalt. Man kan mycket väl ha helt rätt om enskilda detaljer där andra är viktigare än andra, men utan att lyfta blicken ovanför skruv och mutter-nivån missar man ofta elefanten i rummet.

    Jag tror vi har lite olika syn på forskning, eh, av någon anledning ;-) Den forskning som jag kommer i kontakt med via mitt jobb blir ofta teoretisk och svår att hitta en tillämpning till. Det är väl så forskning fungerar, man tittar på allt möjligt och ibland hittar man nåt som är bra att ha på riktigt. Ungefär så ser jag på investeringar också. Då är det bra att sålla kraftigt redan från början.

    Upp till kanske 10-15 sidor kan man producera nytta i form av viktig information, tolkning av den i en process. Sedan börjar man skriva om allt sådant som jag högst medvetet sållar bort och inte skriver om.

    En analys som jag är väldigt nöjd med och som på många sätt är min bästa analys, om jag får säga det själv, är den av elnätsföretag som kom i Värdepappret i våras. Det är en bransch jag kan mycket bra och då har jag kunnat hålla mig mycket mer kortfattad än jag annars hade kunnat. Även om det inte för en oinitierad läsare framgår så tror jag att läsare med mer insikt ser att det finns en bakomliggande förståelse. Ofta är mer text ett sätt att säga "det här har jag inte riktigt förstått" och så jobbar även jag för att få något att greppa i den stora massan av svårtolkad information...

    SvaraRadera
    Svar
    1. Jag tyckte jag var ganska positiv till korta analyser och medhållande om riskerna med långa. Det jag tycker är kärnan av mitt inlägg är hur man hanterar risken genom att pressa det ostrukturerade "fluffet" genom en standardiserad analysmodell.

      Gällande elnätsföretagnlägget så tycker jag det var välskrivet men inte så motiverande. Jag lärde mig om elnät men såg ingen investeringspotential utifrån mitt perspektiv.

      Radera
    2. Blev förövrigt sugen på att läsa det igen för att testa hur läsningen påverkades av mitt fokus på bolag som passar mina egna kriterier.

      Radera
  3. Väl skrivet! (förutom "Okestrar" :-) )

    Jag läser dina analyser med stort nöje, men jag hoppas folk trots allt inte tar allt för bokstavligt. Det finns stora felmarginaler i de flesta siffror och trender och ju mer man staplar dem på varandra desto mer ökar felmarginalerna.

    Aktiverad produktutveckling hos mjukvaruföretag är ett sånt där svart hål som kan betyda vad som helst. Det tillåter bolag att kalla löner för "investering" under några år med löftet att de gör något bra som kommer ge pengar tillbaka. Jag är starkt kritisk mot den mekanismen som infördes i samband med IT-bubblan (egen tolkning: för att gömma förluster i hela branschen) men finns fortfarande kvar.




    SvaraRadera
    Svar
    1. Jag hittar inte var jag har stavar orkester fel vilket stör mig mer än det borde göra :P.

      Aktiverad produktutveckling är ett bra exempel på krångligt. Jag är inte stenhårt emot den men både Formpipe och G5 försäljningarna har påverkats av att det är svårt att veta om ett programvarubolag kommer att få avkastning på sina investeringar. I G5 blev försäljningen åtminstone kortsiktigt ett fiasko då kursen gått fantastiskt och hur det blir med Formpipe får vi se.

      Radera
    2. Den saknade bokstaven är i bilden, som kanske inte ens är gjord av dig. Skulle inte sagt något. :-p

      Radera
  4. Har du någon speciell källa du brukar vända dig till angående branschanalyser? Såg att du tog upp detta som ett viktigt beslutsunderlag. Tack på förhand!

    SvaraRadera
    Svar
    1. Varje bransch är unik så det blir att pussla ihop öppna källor. Statliga utredningar, data från branschorganisationer och examensarbeten är vanligt förekommande. Knepet är ofta att använda rätt sökord på Google så kommer det upp.

      Konkurrenters årsredovisningar eller senaste tre åren nyckeltal från ratat/allabolag.se/largestcompanies brukar jag sammanställa vid såna studier (se t.ex min analys av Renonorden för exempel på det)

      Radera