Grafik och incitament

I går kväll gick jag på bio, tog på mig 3D-glasögonen och tittade på den minst sagt spektakulära filmen Avatar. Handlingen kanske inte är så avancerad (tre meter långa blåa indianer med svans kämpar mot stygga amerikanska soldater), men tekniken är fullständigt bländande. Och man inser att det fortfarande finns ett behov av ökade datorprestanda.

Men det är klart. Samtidigt inser man snabbt att det nästan bara är på grafiksidan som de verkligt stora prestandabehoven finns. Det flyttar fokus från generella processorer till grafikprocessorer. Och där gäller det för tillverkarna att hålla tungan rätt i munnen.

Hittills är det väl grafikföretaget Nvidia som har lyckats bäst. Deras grafikprocessorer har en vettig avvägning mellan prestanda och komplexitet och är små nog för att man skall få in hundratals på ett enda chip. Och grafikapplikationer kan dra nytta av massivt parallella arkitekturer. Intel verkar delvis ha hamnat lite snett. De har försökt hålla en större kompatibilitet med sina generella processorer och hänger inte riktigt med när det gäller prestanda per kvadratmillimeter (eller snarare per miljon transistorer).

Men nu går kapplöpningen in ett nytt skede. Hittills har det varit naturligt att lägga grafikdelen på ett chip och den generella processorn på ett chip. Bägge delarna har helt enkelt behövt alla de transistorer som är möjliga att integrera på ett chip. Det här förändras nu från 32 nm och nedåt. Med början i de enklare processorerna ser vi nu integrerade lösningar, där man först lägger in de bägge blocken som de är för att vinna effektförbrukning, men där möjligheterna är mycket större än så.

För det finns en gräns för hur många generella processorer man kan dra nytta av med dagens programmeringsteknik och vi är snart där. Efter kanske åtta generella processorkärnor (eller till och med tidigare) är det betydligt effektivare att stoppa in grafikprocessorer. Och om man lägger grafikprocessorerna på samma nivå och i samma chip som de generella processorerna finns det all anledning att fortsätta att integrera i flera processorgenerationer till.

Därför blir det nu intressant att se slaget om grafikprocessorn. På ena eller andra sättet måste Intel se till att vinna för att fotsätta vara dominerande. Det närmaste året kommer att bli mycket intressant.

För embeddedföretagen skulle en sådan här utveckling, med både grafikprocessorer och generella processorer på samma nivå, vara extremt intressant. Små, effektsnåla datorer som kan accelerera komplexa algoritmer i klass med ”värstingdatorer” går att använda lite överallt. Återigen får vi se hur embeddedbranschen fullt ut kan dra nytta av det som utvecklats för konsumentmarknaden.

Den senaste tioårsperioden har varit fantastisk ur den synvinkeln och turen ser ut att hålla i sig. Lägre energiförbrukning, multicore, snabbare seriebussar, algoritmacceleration – allt som görs för konsumentmarknaden passar som hand i handske för embeddedmarknaden. Vilket är tur, eftersom embeddedföretagen aldrig skulle ha råd att utveckla det här på egen hand.

Nej, nu får det vara nog med elektronik för en stund. Jag läste härom veckan boken ”Super Freakonomics”. Det är efterföljaren till bästsäljaren ”Freakonomics” som kom ut för fyra år sedan. I bägge de här böckerna tittar författarna på ekonomiska, praktiska och mänskliga beteenden, utifrån makroekonomiska förutsättningar. Det kan gälla allt från prostitution till global uppvärmning.

Författarna utgår från verkliga data och lyckas ofta punktera föreställningar som är allmänt accepterade. De visar till exempel att prostituerade på de platser som undersöktes hade klara ekonomiska fördelar av att använda sig av hallickar. I en jämförelse mellan fastighetsmäklare och hallickar visade sig fastighetsmäklarna ge ett betydligt sämre ekonomiskt utbyte åt sina klienter.

Sådant här är alltid roligt att läsa, men faktum är att grundbudskapet i Freakonomics-böckerna är djupt allvarligt, om än inte nytt. Författarna visar att incitament fungerar. Vid varje givet tillfälle visar det sig att människor utgår från de ekonomiska förutsättningar som finns och gör det som är bäst för dem på ett privat plan. Förändringar i regelverket, till exempel beskattning eller förändrade bidrag, har en mycket större effekt än vad våra politiker normalt sett vill kännas vid.

Man kan dra nytta av det här genom att till exempel i första hand beskatta sådant som man vill minska. Skatt på tobak, alkohol och energi minskar konsumtionen av tobak alkohol och energi, även om det naturligtvis finns en gräns där smuggling och kriminalitet blir alltför lönsamt. Skatt på arbete och förmögenhet minskar på samma sätt viljan att arbeta och skapa förmögenheter. Det är faktiskt inte konstigare än så.

Det mest uppenbara är att incitament fungerar bra, medan detaljstyrning fungerar dåligt. För oss i elektronikbranschen är det här ganska uppenbart. Det är bara att jämföra Internet med centraliserade system som Minitel (Frankrike) eller Teleguide (Sverige). Både Minitel och Teleguide är borta sedan länge, sörjda av ingen. Men bägge är bra exempel på central- och detaljstyrda system. De påminde på många sätt om planekonomi.

Internet är helt annorlunda. Där definierade man bara ramarna och lät innehållet hända ”av sig självt”. Det hela påminner om ett väl fungerande marknadsekonomiskt system, där alla har möjlighet att agera och gör det utifrån egen vinning. Resultatet blir otroligt mycket ”större” än vid centralstyrning. Den som inte förstår mekanismerna kan lätt tro att det finns en ”mastermind” som detaljstyr på ett fantastiskt effektivt sätt. Men i själva verket är det just avsaknaden av ”mastermind” som får det hela att fungera så bra.

Det hela fungerar naturligtvis åt andra hållet också. Ett fåtal negativa incitament kan räcka för att driva utvecklingen ”åt skogen”. Därför är det viktigt att inte göra för mycket, även om det kan verka vettigt. Vi ser till exempel en del länder som utan större eftertanke kastat in jättesummor för att stoppa finanskrisen. De har nu svårare att komma tillbaka än länder som, likt Sverige, varit mera försiktiga.

Ett bra exempel på ekonomiska och politiska incitament ser vi idag i debatten, eller snarare avsaknaden av debatt, om den globala uppvärmningen. Forskarvärlden ger intryck av att vara överens på ett sätt som man normalt sett aldrig ser. På Internet finns visserligen gott om motståndare, men forskarvärlden, politikerna och inte minst konventionella media är förbluffande överens och blir hela tiden allt mera överens.

Här finns all anledning att se upp. Det är alltid riskabel när politiker blandar sig i forskning och här har man gjort det på en helt ny skala. Alla anslag till klimatforskning styrs till de som följer grundfåran och inga forskare är förstås dumma nog att välja en väg utan anslag. Den senaste skandalen, när det visade sig att välkända forskare modifierade väderdata för att få dem att passa in i modellen, borde vara en varning. Forskare följer incitament på precis samma sätt som alla andra.

Och på tal om modeller. Hur sannolikt är det att klimatforskarna har lyckats skapa en modell som kan förutse klimatet ett par hundra år i förväg? De klarar ju inte av att förutse vädret ens en dag i förväg. Det är en fantastisk skillnad mellan till exempel en processormodell, som baseras på ett känt beteende, och vädermodeller/ekonomiska modeller, där man försöker gissa sig till ett beteende utifrån gjorda iakttagelser.

Att skapa lagar utifrån statistiska samband är svårt och kan leda väldigt fel. Alla vi som har läst lite statistik vet hur lätt det är att komma snett med statistik. Det finns mängder av kvasikorrelationer, som till exempel sambandet mellan fotstorlek och kriminalitet och alla är inte lika lätta att genomskåda.

Nu låter jag kanske som en ”klimatförnekare”, men återigen vill jag bara varna för tvärsäkerhet. ”Innan man kan bli säker måste man först bli tvärsäker” påstås det ibland och det ligger nog mycket i det. Tvärsäkerhet innebär alltför ofta att man inte riktigt vet vad man talar om. Jag påstår varken att växhuseffekten inte existerar eller att några av de alternativa hypoteserna är sanna. Men jag tillåter mig tvivla på att dagens koldioxidbaserade modell av växthuseffekten beskriver sanningen, hela sanningen och inget annat än sanningen. Och att i det läget lägga alla ägg i samma korg är inte bra.

Så, se för all del till att minska förbränningen av fossila bränslen och satsa för allt i världen på att effektivisera motorer, processer och byggnader. Det kan inte göra någon skada, men säkert en hel del nytta. Men bestäm inte på politisk väg vilka resultat forskarna skall nå.

Leave a Reply