San Francisco: Tre dage før russerne sendte Spuknik i omløb, blev Fairchild Semiconductor stiftet af otte førende forskere.
Kalenderen viste d1. oktober 1957 - og en af stifterne var Gordon Moore (f. 1929), en lidt stille kemiker, der som barn havde udvundet sit eget nitroglycerin og som senere ville blive kendt for sin lov om computerkraftens udvikling.
Det lå dog ret langt ude i tiden, og selv om de otte var eksperter inden for den gryende amerikanske elektronik-industri, så var fremtidens succes ikke ligefrem åbenlys.
For ifølge forfatteren Walther Isaacson (ham som også skrevet Steve Jobs-biografien), som beskriver forløbet i sin fremragende bog "The Innovators", var de otte ude på tynd is.
Ikke alene var der i USA på den tid ikke den store tradition for at stifte sit eget firma, men der var slet ikke en tradition for at springe fra godt job i et etableret firma og over til, hvad vi i dag vil kalde en start-up.
Det var, i samtidens øjne, dumt - og for de fleste arbejdsgivere: Et direkte forræderi.
At alle otte kom fra det samme firma, Shockley Semiconductor Laboratory, gjorde ikke sagen bedre.
Men efter et forgæves kupforsøg i maj 1957 mod den paranoide chef og nobelprismodtager William Shockley tog Robert Noyce (1927-1990) sidst i 1957 sin kollega, den milde kemiker Gordon Moore, i hånden og smækkede med døren.
Sammen ville de lave endnu bedre transistorer - de små komponenter, som udgør selve grundstenen i alle moderne computere.
I en analog verden, som endnu ikke havde set hele potentialet i transistorer, havde Noyce, Moore og de deks andre udbrydere, som fik tilnavnet "de forræderiske otte," dog svært ved at overbevise bankerne om ideen.
Derfor blev det rigmanden Sherman Fairchild, som i sidste ende investerede i ideen - mod en ret til at købe hele selskabet på et senere tidspunkt.
Patentkrigen som endte fredeligt
Noyce og Moore fik dog ikke lov til at tage den med ro i Fairchild Semiconductors.
For siden slutningen af anden verdenskrig havde flere forskerhold uafladeligt været på jagt efter de fremskridt, som der skulle til, før de første store, komplekse og strømslugende computere kunne øge hastigheden og sænke prisen.
Ifølge Walther Isaacson var der allerede i begyndelsen af 1959 rygter om, at Texas Instruments var på vej med en løsning som kunne kombinere flere transistorer.
Det fik den oprindelige udbryder, Robert Noyce, som nu stod i spidsen for Fairchild Semiconductors, til at indlede en patentansøgningsproces for at få beskyttet en måde til at isolere de enkelte transistorer.
Det var under et af de utallige interne møde med patentadvokaten, at Robert Noyce fik ideen om, at isoleringslaget ikke bare kunne beskytte den enkelte transistor, men også bruges til at pakke flere transistorer sammen.
Og, som Noyce skrev i sin notesbog i januar 1959: "Det ville være formålsstjenstligt hvis vi kunne kombinere flere enheder på ét stykke silicium". Altså den moderne mikrochip. Bare som skriblerier i en notesbog anno 1959 - samme år som halefinner bliver det helt store på biler.
Men alligevel var det Texas Instruments, som kunne fremvise den første mikrochip i marts 1959.
Og det var Fairchild, som vandt patentsslaget med en afgørelse i april 1961. Dermed fik han også anerkendelsen som mikrochippens skaber - blot for at tabe til Jack Kilby fra Texas Instruments i retten i 1964 - og igen i februar 1967. For til sidst at vinde i november 1969, hvor Robert Noyce endelig kunne kalde sig opfinderen af den moderne mikrochip.
Interessant nok havde både Texas Instruments og Fairchild-selskabet allerede i 1966 opdaget, at retssystemet ikke var det korrekte sted til den slags tovtrækkeri og indgået en aftale om at dele viden og profit.
Så mens Kilby kom først med patentet, så var det Robert Noyce, som i sidste ende kom med en løsning, som kunne masseproduceres.
I modsætning til den paranoide William Shockley som startede det hele, så deltes Kilby og Noyce om æren - og da Kilby i år 2000 vandt nobelprisen, som kun gives til levende forskere, roste han den afdøde Noyce og fremhævede, at de burde havde delt prisen.
Mikrochips til atomraketter
Men hvem skulle bruge de mikrochips i en tid før personlige computere og servere?
Svaret er, at det er det amerikanske militærs atomarsenal, som du kan takke for at have fremskyndet masseproduktionen af de første spæde computere.
Under anden verdenskrig var det efterspørgslen på opslagstabeller til artilleriet og behovet for at kunne bryde de tyske Enima-koder, som drev behovet for regnekraft.
Men midt i 1960´erne skabte den stadig koldere kolde krig efterspørgslen på store mængder mikrochips til amerikanernes voksende slagstyrke af atomraketter.
Men også en anden, og måske mere fredelig, raket var med til at drive efterspørgslen: Rumraketten.
For skulle amerikanerne glemme Sputnik-ydmygelsen og sætte en mand på månen, så skulle der mikroprocessorer til - og gerne flere. Og i en størrelse så de kunne placeres i næsen af en raket.
Derfor tog udviklingen for alvor fart i 1960'erne. Og mens en mikroprocessor prototype til Apollo-missionen, ifølge Walther Isaacson, kostede 1.000 dollar, så faldt prisen til 50 dollar i 1962 - og til to dollar i 1968.
Den hastige udvikling fik i øvrigt også direktøren for Texas Instruments, Pat Haggety, til at satse på de ikoniske TI-lommeregnere, som i 1967 kostede 150 dollar (og vejede et kilo) - men som otte år senere i 1975 var faldet til 25 dollar. Værd at huske, når vi synes, at vi lever i en tid, hvor tingene går hurtigt.
Fandt finansieringen af Intel på to dage
I 1968 var den utålmodige Robert Noyce parat til at forlade Fairchild-selskabet - igen sammen med den mere milde Moore. Denne gang tog dem blot to dage at finde finansieringen.
Så var der bare det med navnet. Det tog næsten længere tid. Men til sidst fandt de på Integrated Electronics Corp. Det, som du i dag bedre kender under navnet Intel.
Og det var hos Intel, at mikroprocessoren blev opfundet. Den processor som ændrede den sydlige del af San Francisco-området til det, som i 1971 fik tilnavnet "Silicon Valley" i magasinet "Electronic News".
Undervejs ændrede processoren også verden - og indtjente milliarder af dollars til firmaet bag.
Artiklen fortsætter under billedet...
Fantastisk profit - men missede totalt mobilbølgen
I dag slår Intel så dørene op for selskabets årlige udviklerkonference i San Francisco, ikke så langt fra hvor det hele begyndte.
Og mens pc-markedet ikke længere har samme vilde vækstrater som i de gyldne år gennem 1980´erne, 1990´erne og 00´erne, så har Intel næsten uden undtagelse tjent penge hver eneste år.
De seneste år har dog været domineret af Intels manglende succes på det ekstremt hurtigvoksende telefon- og tabletmarked.
Her har Intel meget gerne ville tale om vækstraterne for selskabets eget salg - men samtidig har det været knapt så interesseret i at forholde sig til dets totale markedsandel på tablet- og telefoner.
Her har processorgiganten delt skæbne med Microsoft.
For mens begge firmaer har været dem som satte standarder inden brugerflader, USB-stik, hukommelsesstandarder, så missede de fuldstændig den mobile revolution. Også selvom Intels processorer og Microsofts PocketPC-system tilsammen fuldstændigt ejede markedet dengang omkring 2000-2003 da lommecomputere endnu ikke var smeltet sammen med telefoner.
Lave processorer til iPhones? Nej, den har ingen fremtid
Og bare for lige at understrege, hvordan Intel fejlbedømte markedet, så indrømmede Intels daværende CEO, Paul Otellini, i maj 2013, da han trådte tilbage, at Intel havde fået muligheden for at bygge processorerne som skulle udgøre hjernen i Apples kommende iPhones.
Men endte med at sige nej tak. For Intel troede ikke på, at der kunne sælges nok telefoner til at gøre investeringen attraktiv.
Apple solgte over 74 millioner telefoner alene i første kvartal 2015. Og tjente 13,6 milliarder dollar.
Og Intel? Selskabet satsede i stedet på MeeGo sammen med Nokia, sm i dag hedder Tizen og primært bruges til Samsung-produkter, som sjældent når den vestlige verden.
Artiklen fortsætter under billedet...
Intel er ikke ude - selvom telefonvæksten gør ondt
Alligevel vil det være forkert at dømme Intel ude, bare fordi telefoner er populære.
For det første fordi vi stadig ikke lever i en post-pc verden hvor alt sker på små mobile enheder. I stedet har vi en verden hvor pc´ en er en blandt mange enheder - og hvor pc´en også har udviklet sig fra det klassiske beige monster til 16 millimeter tynde multimaskiner med trykfølsomme skærme, lang batterilevetid og styresystemer der låner opstartstider og dvalefunktioner med mobile enheder.
For det andet fordi din telefon eller tablets mange apps er afhængig af den regnekraft, som Google, Apple, Amazon og Microsofts kæmpe-datacentre stiller til rådighed. Drevet af - det er et nemt gæt - millioner af Intels serverprocessorer.
Og for det tredje fordi man kan - næsten - sætte sit ur efter Intels tik-tak model og chipgigantens kæmpe udviklingsafdeling.
Her er målet konstant at lancere en ny processorteknologi baseret på en ny produktionsmetode (tik) for så at lancere en opfølger (tak), hvor processen forfines.
Derefter begynder den forfra. Den model har Intel benhårdt fulgt i årevis med to år mellem hvert tik - senest 2,5 år - og det er et tempo, som meget få konkurrenter kan matche.
På Intels udviklerkonference, kaldet IDF, forventes Intel så at løfte sløret mere for næste generation af processorer kaldet Skylake - det seneste tik i modellen.
Sammen med virksomhedens bud på Internet-of-things, trådløs opladning, processorbaseret sikkerhed og alle de andre ting som Intel har fingrene nede i.
Det er derfor Computerworld sidder klar nede i salen når Intels CEO Brian Krzanich går på scenen tirsdag morgen amerikansk tid.
Læs mere: Otte ting du skal vide om Intels kommende processor Skylake