Hur smått kan det bli?

Jag kom just hem efter några dagars intensivutbildning inom avancerade tillverkningsprocesser och extremt små geometrier. Och det är alldeles uppenbart att utvecklingen kan fortsätta, åtminstone ner till 10 nm och förmodligen en bit till. Frågan är bara om det inte blir för dyrt innan dess.
Men det är klart, när jag höll på med ASIC i mitten av åttiotalet trodde vi fortfarande att 1 µm var en magisk gräns och att det nog skulle bli svårt att nå mycket längre än så med konventionella metoder. Somliga satte sitt hopp till direktritning med e-beam, men det visade sig vara alldeles för dyrt och framför allt förfärande långsamt.
Nu gick det att komma vidare med ganska konventionella metoder. Och när ljuskällans våglängd borde satt stopp fanns det ändå möjligheter att fortsätta. Idag är det 193 nm ljusvåglängd som gäller och med den utrustningen klarar man till nöds geometrier ner till 22 nm. Det är ungefär som att skriva finstilt med en roller, men det går. Naturligtvis måste man ta till en hel del trix, som ”double patterning” (det talas till och med om ”tripple patterning”) och immersion-litografi och det är långtifrån gratis, men som sagt – det går.
På det här sättet har man lyckats att skjuta fram övergången till EUV, där maskinerna arbetar med extremt kortvågigt ljus. Och tur är väl det, med tanke på att EUV-maskiner ännu inte finns i produktionsfärdig version.
EUV skapar en hel del nya problem. Maskerna måste vara reflekterande, exponeringen måste ske i vakuum och precisionskraven är närmast sinnessjuka. Men ett företag som holländska ASML är nu i stort sett framme och börjar snart att producera EUV-utrustning på allvar. Då är plötsligt ljusväglängden 13,5 nm och det går att ta sig ner under 10 nm-gränsen. Utan tvekan oerhört imponerande.
Men så kommer då den obehagliga frågan om var den ekonomiska gränsen egentligen går och då blir allt mycket mera osäkert. För det finns inte bara fördelar i att krympa. Vi kan till exempel titta på NAND-flashminnen, som är en av de stora tänkta teknikdrivarna. Där försämras nu prestanda för varje ny generation och det behövs redan massor av logik för att hålla ordning på var man skrivit och allt mer overhead för felkorrektion. Att i stället arbeta i tre dimensioner (som DRAM-tillverkarna gjort i många år) kan vara ett bättre alternativ än att bara fortsätta nedåt i geometri. Helt klart är i alla fall att marknaden för flashminnen, och framför allt NAND-flash, fortsätter att växa dramatiskt.
DRAM-tillverkarna är de andra stora tänkta användarna av EUV-utrustning, men där finns funderingar på om datoranvändarna verkligen kommer att fortsätta att expandera primärminnet på samma sätt som hittills. Windows 7, som åtminstone har någon form av optimering, verkar redan ha fått till effekt att minnesmängden planar ut i desktopdatorer.
Och på datorsidan börjar man så smått dra öronen åt sig när det gäller antal processorkärnor. Serverdatorer kan utan problem sluka hur många kärnor som helst, men samma sak gäller inte nödvändigtvis desktop- och laptopdatorer. Det finns inga större tecken på att mjukvaruhusen satsar stort på mångtrådiga applikationer och det innebär att vi får dras med seriella program i många år till. Det finns ett fåtal tillämpningar som vinner riktigt stort på att använda många processorer, men där satsar man just nu på GPU-acceleration. Ett bra exempel på det är nästa version av Flash, där Adobe skrivit mjukvaran så att den kan använda sig av nVidias massivt parallella grafikprocessorer.
Man kan alltså tänka sig en ganska lång period där vanliga datorer kan dra nytta av fyra eller kanske sex processorkärnor (ett par för applikationer, en för operativsystemet och en för antivirus) plus de befintliga grafikprocessorerna. I det läget skulle det vara svårt att hitta ekonomi i att skala till extrema geometrier.

Comments are closed.