Mooren laki

Seuraa 
Viestejä45973
Liittynyt3.9.2015

Pitääkö Mooren laki tätä nykyä miten hyvin paikkansa.

PC-prosessoreiden kellotaajuudethan ovat jo pitkään junnanneet paikallaan, entäpä transistorien määrä jota Mooren laki varsinaisesti mittaa.

Sivut

Kommentit (33)

Vierailija
Heppu
Pitääkö Mooren laki tätä nykyä miten hyvin paikkansa.

PC-prosessoreiden kellotaajuudethan ovat jo pitkään junnanneet paikallaan, entäpä transistorien määrä jota Mooren laki varsinaisesti mittaa.

Kyllä vielä toistaiseksi. Moorehan ennusti että transistorien määrä pinta-alayksikköä kohti piikiekolla tuplaantuu joka 18 kuukausi.

Raja tosin häämöttää... Tällä hetkellä kait mennään labroissa jossain 35 nm feature size tasolla, kun kriittinen raja taitaa olla siellä...

edit: jaa-a, mikä sitten lieneekään. fyysikoilla lienee asiasta parempi näppituntuma.

Tässä yksi alan veteraani kertoo näkemyksiään asiasta (vähän jo vanhentunut, mutta kyllä siitä jonkun käsityksen saa):

http://www.cl.cam.ac.uk/~mvw1/lect-Moor ... future.pdf

Kellotaajuusrintamallahan on toistaiseksi hiljaista, kun suoritustehoa haetaan muuta kautta (multi-core chips jne.). Ja osittain painotuksetkin ovat muuttuneet. Esim kun Apple vaihtoi Inteliin, niin Jobs hehkutti että Intel antaa parhaimman MIPS/Watt hyötysuhteen. (Eikä kellotaajuudet Mooren lakiin mitenkään liitykään, kuten totesitkin)

Vierailija
alfihar
Heppu
Pitääkö Mooren laki tätä nykyä miten hyvin paikkansa.

PC-prosessoreiden kellotaajuudethan ovat jo pitkään junnanneet paikallaan, entäpä transistorien määrä jota Mooren laki varsinaisesti mittaa.


Kyllä vielä toistaiseksi. Moorehan ennusti että transistorien määrä pinta-alayksikköä kohti piikiekolla tuplaantuu joka 18 kuukausi.

Itse asiassa Moore ei ennustanut tuotakaan. Ensinnäkin aika oli jotain muuta (muistaakseni 24 kuukautta) ja toiseksi tarkasti ottaen Moore ennusti jotakin tietylle piipalalle mahtuvien transistorien yksikkökustannuksista tms.

Wikipedian artikkeli näyttää pikavilkaisulla olevan riittävän tarkka: http://en.wikipedia.org/wiki/Moore%27s_law

Vierailija

Intel on päässyt 65 nm teknologiaan. Tällä hetkellä ollaan suunnilleen luokassa 10 miljoonaa transistoria/neliömetri. Pitäisi kehityksen vielä jatkua tulevaisuudessa.

Neutroni
Seuraa 
Viestejä23109
Liittynyt16.3.2005
seaweed
Intel on päässyt 65 nm teknologiaan. Tällä hetkellä ollaan suunnilleen luokassa 10 miljoonaa transistoria/neliömetri. Pitäisi kehityksen vielä jatkua tulevaisuudessa.

Tuossa taitaa olla jokin karkean luokan pilkkuvirhe. Liekö oikea pinta-alayksikkö puolijohdeihmisten rakastama neliösentti?

Kyllä kehitys jonkin aikaa jatkuu, mutta montaa viivanleveydenpuolitusta ei tuosta enää tehdä. Sitten on pakko jatkaa muuta reittiä. MOSFET-transistori toimii pienennettyä vain johonkin rajaan asti, mikä ei ole enää kauhean kaukana.

Itse luulen, että sen jälkeen painopistettä suunnataan valmistuksen laadun parantamiseen. Siten saadaan pinta-alaltaan isompia piirejä ja sitä kautta enemmän toimintoja. MOSFETin korvaavat tekniikat ovat hyvin lapsenkengissään, ja nekään eivät tuo mitään kertaluokkaetuja, koska vielä pienemmässä mittakaavassa atomit alkavat olla isoja ja jokainen elektroni merkittävä.

Biff Fib
Seuraa 
Viestejä138
Liittynyt10.5.2011

Tämän yllä olevan keskustelun jälkeen Intel toi markkinoille Dual Core CPUt (ja AMD Athlon 64). Toisin sanoen tuplasivat yksiytimisen prosessorin kaksiytimiseksi. Ja sittemmin olemme saaneet neli- ja useampiytimiset prosessorit.

http://en.wikipedia.org/wiki/Multi-core

Eikö tämä tarkoita että Mooren "laki" päättyi vuonna 2005, koska "lakihan" oli sidottu yhteen neliösenttiin (vaiko neliömilliin)?

Jollei "lakia" ole sidottu yhteen neliösenttiin niin sitten sillä ei ole kait yhtään mitään merkitystä, koska suorittimen (CPU) koko voi vaihdella muutamasta neliömillistä useaan neliösenttiin ja kaikki nuo pitäisi ottaa mukaan jos Mooren "lakia", ja sen kehitystrendiä, tarkastellaan. Vai?

Pals use Jesus' lap!?

Puuhevonen
Seuraa 
Viestejä5275
Liittynyt9.1.2011

Ei. Mooren laki alkuperäisessä muodossaan jatkuu vielä Intellin ennusteen mukaan joskus vuoteen 2020 saakka, koska uudet valmistustekniikat mahdollistavat jopa 5-14 nm:n viivan leveyden. 14 nanometrin prosessoreita voi odotella jo ensivuodeksi.

Intel Bets on Moore's Law for Another Decade
Intel is readying 14-nanometer process technology for chips due out next year and sees a path all the way to 5nm processors by the end of the decade, Intel senior fellow Mark Bohr said Wednesday.
http://www.pcmag.com/article2/0,2817,2409635,00.asp

Tämän jälkeen tosin alkuperäinen laki törmää kvanttifysiikan seinään, mutta mooren laki ei ole riippuvainen itse prosessorien corejen määrästä, vaan transistorien määrästä yhdellä noin 30 cm halkaisijan piikiekolla.

Mooren laki puhuu siis transistorien määrästä yhdellä tällaisella kiekolla.

Mooren lain laajennos, joka kuvaa prosessorien suorituskykyä per 1000 dollaria sen sijaan porskuttaa ja hinnan puoliintumisaika taitaa olla jo oleellisesti alle 18 kk. Tämä laajennos siis ei ole riippuvainen tietystä valmistustekniikasta, ja sitä voidaan soveltaa lähes kaikkiin puolijohteisiin perustuviin komponentteihin, kuten muistit, OLED-näytöt ja CCD-kennot. Jopa aurinkokennoihin ja ledeihin, joskin nämä ovat kiistanalaisia.

»According to the general theory of relativity space without aether is unthinkable.»

Astronomy
Seuraa 
Viestejä3976
Liittynyt12.6.2007
Puuhevonen
Ei. Mooren laki alkuperäisessä muodossaan jatkuu vielä Intellin ennusteen mukaan joskus vuoteen 2020 saakka, koska uudet valmistustekniikat mahdollistavat jopa 5-14 nm:n viivan leveyden. 14 nanometrin prosessoreita voi odotella jo ensivuodeksi.

Intel Bets on Moore's Law for Another Decade
Intel is readying 14-nanometer process technology for chips due out next year and sees a path all the way to 5nm processors by the end of the decade, Intel senior fellow Mark Bohr said Wednesday.
http://www.pcmag.com/article2/0,2817,2409635,00.asp

Tämän jälkeen tosin alkuperäinen laki törmää kvanttifysiikan seinään.

Mooren lain laajennos, joka kuvaa prosessorien suorituskykyä per 1000 dollaria sen sijaan porskuttaa ja hinnan puoliintumisaika taitaa olla jo oleellisesti alle 18 kk. Tämä laajennos siis ei ole riippuvainen tietystä valmistustekniikasta, ja sitä voidaan soveltaa lähes kaikkiin puolijohteisiin perustuviin komponentteihin, kuten muistit, OLED-näytöt ja CCD-kennot. Jopa aurinkokennoihin ja ledeihin, joskin nämä ovat kiistanalaisia.


Ilmeisesti kuitenkin prosessorien suorituskyky tuplaantuu 12-18 kk:n välein, riippumatta siitä että fysiikka asettaa rajat viivanleveyden kaventamiselle? Jotain kvanttikonetta tohon työpöydälle ei kannattane odotella vielä tällä vuosituhannella? Sen sijaan laatikko jonka teho (vaikkapa laskentanopeus) on 2x parempi kuin vuosi sitten kuulostaa ihan realistiselta, ja kyllä tällasen kehityksen aikaansaamiseen ihminen kykenee vielä kymmeniä vuosia.

"The universe is a big place, perhaps the biggest".
"Those of you who believe in telekinetics, raise my hand".
Kurt Vonnegut
"Voihan fusk." Minä

Vierailija
Puuhevonen
Mooren lain laajennos, joka kuvaa prosessorien suorituskykyä per 1000 dollaria sen sijaan porskuttaa ja hinnan puoliintumisaika taitaa olla jo oleellisesti alle 18 kk.



Kyseessä on kuitenkin vain teoreettinen suorituskyky MFLOPS per $1000 joka ei kuvasta asian todellisuutta, koska yksittäisten prosessoriytimien tehon kasvu on lähes pysähtynyt ja rinnakkaisprosessoinnilla ei ole saatu aikaan lineaarista tehon lisäystä, ja muistlaitteiden (DRAM) hakuajat ovat jämähtäneet paikoilleen vaikka väylänopeuksia yhä kasvatetaan.

Esimerkiksi:
http://www.cadence.com/Community/blogs/ ... worse.aspx

"Basically the DRAM cell array hasn't changed in the past 10 years," he explained. "At its core is a 100 MHz to 200 MHz array that has an access time of about 10 to 15 ns."
(...)
DRAM is getting faster, Greenberg noted, because successive DRAM technology generations are increasingly parallelizing the array. With DDR3, for example, you can send transactions to 8 arrays in parallel. So even though the DRAM data rate has increased by over 10X in the past ten years, and CPU clock frequency has increased by over 10X, "the latency really hasn't changed," Greenberg said. "In fact, if you measure it in clock cycles it's been getting worse."



Eli toisin sanottuna, sitä tuhannen dollarin laskentatehoa niistä laitteista ei saada irti kuin harvoissa erityistapauksissa, jos ollenkaan. Erityisesti DRAMin hitauden kompensoiminen kasvattamalla prosessorien välimuistien kokoa nostaa hintaa ja tehonkulutusta, ja rajoittaa suuresti mitä prosessorilla ylipäätään voi tehdä koska ytimeen ei yksinkertaisesti mahdu kovin paljoa muistia. Tämä kompensointi nostaa energiankulutusta erityisesti prosessorin lepotilassa, joten mobiilisovelluksissa joudutaan tyytymään heikompaan käytännön laskentatehoon vaikka prosessori olisi muuten samanlainen.

Ei tehdaskaan pyöri tehokkaasti jos varastomiehet vaan polttaa tupakkaa.

Mutta vaikka muistien ja väylien hitauden ongelma saataisiin ratkaistua, niin homma kanittaa silti yksittäisen prosessorin nopeudessa, koska tehtävien rinnakkaistaminen on erittäin vaikea ongelma, ja sen vuoksi MFLOPS/$1000 arviointi Mooren lain mukaan on yksinkertaisesti huuhaata, koska jos ostat oikeasti tuhannella dollarilla prosessoreita, ne eivät suoriudu tehtävästään arvioidulla nopeudella.

http://en.wikipedia.org/wiki/Amdahl%27s_law

Kuten kuvaajasta nähdään, vaikka ongelma olisi lähes täysin rinnakkaistuva niin silti nopeuden kasvu pysähtyy. Lisäksi Amdahlin laki ei ota huomioon sitä, että prosessorien määrän lisääntyessä ne viettävät enemmän aikaa pelkästään logistiikan pitoon ja keskinäiseen kommunikaatioon, jolloin suorituskyky voi jopa laskea ytimien määrän kasvaessa. Todellisen suorituskyvyn kasvu per Wattia - joka on kenties tärkeämpi indikaattori kuin per dollaria - toki lähtee laskuun joka tapauksessa.

Kun Amdahlin lakia aletaan korjaamaan Guntherin skaalautumismallilla joka ottaa huomioon jaettujen resurssien hitauden ja logistiset ongelmat, saadaan jotain seuraavan kaltaista (Rinnakkaistus 90%):

http://en.wikipedia.org/wiki/Neil_J._Gu ... calability

Vaikka n-vuoden päästä voisimme ostaa tuhannella dollarilla tuhat tämän päivän pöytätietokoneen prosessoria, niin näiden suorituskyky käytännössä ei ole tuhatkertainen vaan kenties vain 10-20 kertainen riippuen annetusta tehtävästä. Toki piin desimaalien laskeminen tuhatkertaisella nopeudella onnistuu, koska se on täysin rinnakkaistuva tehtävä, paitsi siinä vaiheessa kun tulos pitäisi tallentaa kovalevylle, ja siinä vaiheessa kun prosessoreille jaetaan tehtävät, eli käytännössä sekään ei tapahdu tuhatkertaisella vauhdilla logististen pullonkaulojen vuoksi.

Mutta tässäpä taas yksi syy miksi Mooren lakiin ja siitä johdettuihin ennusteisiin tuijottaminen on itsensä huijaamista. Mooren laki on pelkkä havainto jonkun mitattavissa olevan indikaattorin kehityksestä, piittaamatta niistä syistä mitkä aiheuttavat kyseisen mittarin muutoksen, ja piittaamatta siitä että kyseinen mittari ei välttämättä edes mittaa mitään todellista, ja joka kaiken lisäksi muuttuu sitä epäherkemmäksi muutoksille mitä pitempää mittaussarjaa ryhdytään sovittamaan logaritmiselle viivalle.

Se on kuin polkisi auton kaasupolkimen pohjaan, ja päättelisi mittarin viisarin nousunopeudesta että äänivalli särkyy aivan kohta.

Vierailija

Itseasiassa, jos haluttaisiin saada totuudenmukainen kuva siitä minkä verran laskentatehoa on saatavilla mihin hintaan, täytyisi kysyä mikä on paras yksittäisen prosessoriytimen suorituskyky per hinta tänä päivänä.

Vastatus voi olla mielenkiintoinen, koska meillä on jo olemassa 1000 ytimen rinnakkaisprosessoreita melkein joka koneessa. Arvaappa missä?

Puuhevonen
Seuraa 
Viestejä5275
Liittynyt9.1.2011
Veikko
jos ostat oikeasti tuhannella dollarilla prosessoreita, ne eivät suoriudu tehtävästään arvioidulla nopeudella.

Jos näin on, niin olet arvioinut prosessorin nopeuden karkeasti väärin. Sinun pitää arvioida prosessorin nopeus oikein, niin silloin tuhannella dollarilla ostettu prosessori suoriutuu tehtävästä arvioidulla nopeudella.

Argumenttisi parallelisoinnista on kehno, koska se ei hahmota suuruusluokkia oikein. Useimmat ongelmat voidaan koodata siten, että ne hyödyntää tehokkaasti (>>95%) rinnakkaisprosessointia. Rinnakkaisprosessoinnille ohjelmistojen koodaaminen eroaa kuin yö päivästä yksiytimisille prosessoreille koodaamisesta. Toki pullonkauloja on, mutta väylänopeuksia voidaan kasvattaa ja ne tulee laskea kehitystä arvioitaessa oikein.

Esimerkiksi Intelillä on piirustuspöydällä 1000 ytimen prosessori joka olisi suorituskyvyltään huikeat 20 kertaa nopeampi kuin yksiytimeninen prosessori. Näin huikean paljon saataisiin siis lisää suorituskykyä pelkästään yksinkertaisella parallelisoimisella ja tämäkin on konservatiivinen arvio, koska ei huomioi ohjelmointitekniikan kehittymistä.

»According to the general theory of relativity space without aether is unthinkable.»

Vierailija
Puuhevonen
Jos näin on, niin olet arvioinut prosessorin nopeuden karkeasti väärin. Sinun pitää arvioida prosessorin nopeus oikein, niin silloin tuhannella dollarilla ostettu prosessori suoriutuu tehtävästä arvioidulla nopeudella.



Prosessoreita, ei prosessori. Yksittäisen ytimen kohdalla suorituskyky pätee, mutta useamman kohdalla ei.


Argumenttisi parallelisoinnista on kehno, koska se ei hahmota suuruusluokkia oikein. Useimmat ongelmat voidaan koodata siten, että ne hyödyntää tehokkaasti (>>95%) rinnakkaisprosessointia.



Ymmärsit argumentin väärin. Riippumatta siitä kuinka monta prosessoria meillä on, meillä on aina joku nopeuskatto jota emme voi ylittää, joka riippuu jostain muusta kuin siitä montako prosessoria ja teoreettista megaflopsia saa ostettua tuhannella dollarilla, koska yksittäisen ytimen suorituskyky junnaa paikoillaan ja jaettujen resurssien käyttö hidastaa toimintaa. Jo muutamalla kymmenellä, sadalla ytimellä saavutetaan käytännön suorituskyvyn maksimi, josta esimerkkinä vaikkapa:

http://milamin.sourceforge.net/technica ... torization


Esimerkiksi Intelillä on piirustuspöydällä 1000 ytimen prosessori joka olisi suorituskyvyltään huikeat 20 kertaa nopeampi. Tämän verran saataisiin siis lisää suorituskykyä pelkästään yksinkertaisella parallelisoimisella.



Ja tuota enempää ei sitten käytännössä juuri saada. Yhden kertaluokan suorituskyvyn lisäys nykyiseen ei ole mikään huikea mullistus, kun ottaa huomioon kuinka suuria ne laskentakuormat ovat mitä oikeasti tarvisi laskea. Esimerkiksi tietokonepelitkin perustuvat pääosin kehittyneisiin silmänkääntötemppuihin ennemmin kuin raakaan laskentaan.

AMD:llä muuten on jo yli 1000 ytimen prosessori. Sen nimi on muistaakseni RV770. Sinullakin saattaa olla sellainen. Se riittää juuri ja juuri näihin nykyisiin silmänkääntötemppuihin ja pahvikulisseihin.

Puuhevonen
Seuraa 
Viestejä5275
Liittynyt9.1.2011
Veikko
Prosessoreita, ei prosessori. Yksittäisen ytimen kohdalla suorituskyky pätee, mutta useamman kohdalla ei.

Olet ymmärtänyt väärin. Kyse ei ole lukuisista prosessoreista, vaan siitä, että laskentateho tuplaantuu yhden tai kahden vuoden välein per rahayksikkö. Yleensä markkinoiden parhaan prosessorin hinta liikkuu 1000 dollarin paikkeilla, koska se on sopivan pyöreä hinta yhdestä prosessorista, mutta tähän 1000 dollarin hintaan ei pidä liikaa tuijottaa. Tämä ei kuitenkaan ole oleellista, vaan pitää puhua laskentatehosta. Ja laskentateho per dollari olisi parempi yksikkö, koska sitten ei ainakaan tule sitä harhakäsitystä, että tuhannella dollarilla voisi ostaa useita prosessoreita. On yhdentekevää kuinka laskentatehon tuplaantumiseen päästään, se voi olla vaikka ohjelmointitekniikan kehittymisen seurausta, kunhan siihen päästään.

Esimerkiksi Xbox 360 pelien grafiikka on parantunut huikeasti konsolin eliniän varella, koska olemassaolevasta ja muuttumattomasta raudasta saadaan ohjelmointitekniikan kehittymisen takia enemmän irti.

yksittäisen ytimen suorituskyky junnaa paikoillaan ja jaettujen resurssien käyttö hidastaa toimintaa.

Tuossa olet väärässä, vaan Intel ennakoi Mooren lain pätemisen aina 20-luvulle saakka (viiden nanometrin viivan leveys). Tämänkin jälkeen parallelisoinnilla saadaan ainakin 20 kertaa lisää laskentatehoa ja ohjelmointitekniikan kehittymisellä vielä kenties toiset 20 kertaa lisää.

Tässä on siis karkeasti fyysiset rajat, mihin päästään nykyisellä prosessorien valmistustekniikalla. Toki tässä vaiheessa osataan rakentaa tehokkaampia prosessoreja piitä paremmista materiaaleista kuten molybdeenistä ja grafeenista.

Yhden kertaluokan suorituskyvyn lisäys nykyiseen ei ole mikään huikea mullistus, kun ottaa huomioon kuinka suuria ne laskentakuormat ovat mitä oikeasti tarvisi laskea.

No on se! Kertaluokan parannus olisi huikea parannus ja mahdollistaisi ihan uudenlaisia arkitehtuureja halvoille supertietokoneille.

Kuten sanottuna, sinulla on suuruusluokkien hahmottaminen hakusessa. Piipohjaisilla prosessoreilla on siis vielä potentiaalia arviolta ainakin kahden tai jopa kolmen kertaluokan laskentatehon paranamiseen, joten ihan heti se ei ole hyytymässä.

»According to the general theory of relativity space without aether is unthinkable.»

Vierailija
Olet ymmärtänyt väärin. Kyse ei ole lukuisista prosessoreista, vaan siitä, että laskentateho tuplaantuu yhden tai kahden vuoden välein per rahayksikkö.



Mutta kun ei tuplaannu.

Pitäisi oikeammin puhua lineaarisen suoritustehon kasvusta per dollari, joka on hidastunut oleellisesti eikä ole enää aikoihin noudattanut Mooren lakia. Rinnakkaislaskennan nopeuskatto riippuu oleellisesti tästä lukemasta, koska mikään laskentatehtävä ei ole täysin rinnakkainen.

GFLOPS per dollaria arvio kuitenkin perustuu nimenomaan siihen, että suoritusyksikköjen määrää lisätään, eli dollarilla saa nykyisin enemmän prosessoreita kuin ennen. Siksi se luku on voinut vastoin todellisuutta kasvaa samaa tahtia prosessorien valmistustekniikan, eli alkuperäisen Mooren lain mukana.

No on se! Kertaluokan parannus olisi huikea parannus ja mahdollistaisi ihan uudenlaisia arkitehtuureja halvoille supertietokoneille.

Kuten sanottuna, sinulla on suuruusluokkien hahmottaminen hakusessa. Piipohjaisilla prosessoreilla on siis vielä potentiaalia arviolta ainakin kahden tai jopa kolmen kertaluokan laskentatehon paranamiseen, joten ihan heti se ei ole hyytymässä.




Anna minullekkin sitä mitä polttelet, niin ehkä pääsen samoihin sfääreihin.

Meillähän on jo olemassa kertaluokan parannus tässä käsissä, ja GPU pohjaisia supertietokoneita on jo olemassa, eikä mitään mullistavaa ole tapahtunut vaikka laskentayksikköjen määrä per kone on tuhatkertaistunut tavallisiin pöytäkoneprosessoreihin verrattuna. Intel on vasta ottamassa muita kiinni sillä 1000 ytimisellä prosessorilla.

Ja se juju on siinä, että se laskenta ei siitä oleellisesti nopeudu vaikka meillä olisi miljoona ydintä prosessorissa, koska se yhden laskentayksikön lineaarinen nopeus junnaa paikoillaan, joten saman ohjelman laskeminen tuhannen ja miljoonan yksikön suorittimella ei tee olennaista eroa, ja voi olla käytännössä jopa hitaampaa.

Guntherin suorituskyvyn arviointikaavalla voidaan ennustaa kuinka monta suoritusydintä (tai työntekijää, tai traktoria jne.) on tehtävään optimaalinen määrä kun tunnetaan järjestelmän hitaudet ja pullonkaulat, sekä sen rinnakkaistumisaste. Supertietokoneet rakennetaan juuri tämän tiedon pohjalta, joten on epäoleellista minkä verran prosessoreita olisi mahdollista saada, sikäli kun ylimääräisten prosessorien lisääminen vain heikentää järjestelmän laskentatehoa.

Puuhevonen
Seuraa 
Viestejä5275
Liittynyt9.1.2011
Veikko
Olet ymmärtänyt väärin. Kyse ei ole lukuisista prosessoreista, vaan siitä, että laskentateho tuplaantuu yhden tai kahden vuoden välein per rahayksikkö.
Mutta kun ei tuplaannu.

Tuo on taas sitä veikkoroskaa.

»According to the general theory of relativity space without aether is unthinkable.»

Sivut

Uusimmat

Suosituimmat