En simulation foretaget af det amerikanske forskningscenter Sandia National Labs viser at processorydelsen falder når antallet af kerner overstiger otte. Og det går helt galt, hvis processoren indeholder mere end 16 kerner.
Sandia-forskerne har testet en række algoritmer som henter informationer ud af meget store datasæt - en typisk applikation for supercomputere. Når man fra to til fire kerner, stiger ydelsen markant helt som forventet. Men hastigheden stiger kun meget lidt når man går fra en fire- til otte-kerne-processor.
Herefter begynder ydelsen ligefrem at falde. En processor med 16 kerner har omtrent den samme hastighed som en dobbelt-kerne-processor, og en processor med 32 kerner er endnu langsommere.
Problemet er, at de enkelte kerner skal deles om den samme hukommelses-bus, og det skaber populært sagt kø ved udgangen. Den manglende hukommelses-båndbredde er en udfordring selv på systemer med én kerne - og det bliver kun værre efterhånden som processorerne får flere kerner.
»Alle kernerne spørger efter hukommelse gennem den samme forbindelse. Det svarer til at have én, to, fire eller otte personer som alle taler til dig samtidig og beder om en bestemt information. De er nødt til at vente på at få svaret på deres forespørgsel. Det skaber forsinkelser,« siger James Peery, der er chef for Sandias it-afdeling.
Han tilføjer at Sandia har valgt AMD-processorer i sin Red Storm supercomputer fordi AMD-processorer var de første som havde en integreret hukommelses-controller. I dag har Intel også indbygget en controller i sine nye modeller.
Flerkerne-teknologien skal gøre det muligt for chipfirmaerne at videreføre Moore's lov, som siger at antallet af transistorer fordobles hvert andet år.
Det er ikke længere muligt at skrue op for taktfrekvensen uden at sprænge grænserne for processorens varmeudvikling og strømforbrug, og derfor har producenterne valgt en anden vej, hvor de ekstra transistorer bruges til at tilføje flere kerner.
»Flaskehalsen er nu at få data fra chippen til eller fra hukommelsen eller netværket,« siger Arun Rodrigues fra Sandia.
Denne udfordring skal overvindes inden den næste generation af processorer med otte, 16 eller 32 kerner kommer på markedet. Og det gælder både for supercomputere og den almindelige skrivebords-pc. Ellers er risikoen, at den faktiske, reelle computerydelse falder i stedet for at stige.
I forvejen er problemet, at mange programmer slet ikke er i stand til at udnytte mere end en eller to processor-kerner samtidig.
»Man har ikke valgt flerkerne-teknologien fordi den er fejlfri. Men det var ikke muligt at finde en bedre vej. Man var desperat. I dag ser vi hukommelses-systemer, som repræsenterer en dramatisk forbedring i forhold til der, hvor vi var for 12 måneder siden, men det fundamentale problem eksisterer stadig,« siger Mike Heroux fra Sandia.
Læs mere om Sandias analyse af flerkerne-processorer.