Seuraa 
Viestejä1309

Tietotekniikan tehojen kehitys pysähtyy epäilemättä joskus. Kun niin tapahtuu huomataan, että prosessorinopeutta on aivan tarpeeksi, mutta muistin määrä aiheuttaa ongelman keinotodellisuuden jokaisen yksityikohdan mallintamiseen? Esim. jokaisen fotosynteesitapahtuman käsittely tietokoneen muistissa laittaa muistin kapasiteetin koville.

Mitä mieltä te olette? Tuleeko tulevaisuudessa prosessoriteho, muistin määrä vai joku muu tekijä puollonkaulaksi?

(Itse olin varma aluksi, että kyse on prosessorin nopeudesta, mutta luettuani englanninkielistä Koraania siinä puhuttiin ikään kuin to compute ..... etc. ja muistin määrä loppuu kesken.).

Sivut

Kommentit (25)

Lyde19
Seuraa 
Viestejä4282

Pari vuotta siten sitten kerrottiin tutkimusasteella olevasta supertiheässä muistista joka säilyttää tietonsa ilman sähköä. Tuolla voisi korvata kaikentyyppiset muistit kuten ram,Flash,rom ja kovalevyt. Tietokoneeseen jäisi siis prosessori ja iso työmuisti. Vaan eipä tuostakaan ole kuulunut mitään. 

Sisältö jatkuu mainoksen alla
Sisältö jatkuu mainoksen alla
Tietämyskone
Seuraa 
Viestejä198

Sehän riippuu siitä mitä tehdään. Jos sitä todellisuutta pitää laskea, eikä kaivaa valmista pussista, niin laskentateho on oleelisin tekijä, mutta jos pääosa esitetystä on valmiiksi pureksittua tavaraa, niin tallennus on se oleellisin tekijä, kuin myös jos tulokset tulee tallentaa.

01000101 01001110 01001001 01000001 01000011

Jodi
Seuraa 
Viestejä2187

Taitaa väylänopeus loppua ensin. Prossuja ja muistia saa vaikka kuinka paljon. Väyliin tulee pakosta fyysistä mittaa kaikkine haittoineen.

Mutta tässä oli mies, jolta puuttui aivoista yli puolet, ja kaikki oli normaalisti. Miehen ÄO oli 75, eli normaalin alarajoilla. Hän työskenteli valtion virkamiehenä, oli naimisissa ja hänellä oli kaksi lasta. -Jani Kaaro

Neutroni
Seuraa 
Viestejä31260

Ei muisti tule koskaan pullonkaulaksi laskennassa (kuin ehkä jossain erikoisissa yksittäistapauksissa). Se johtuu siitä, että melkein kaikkien ongelmien laskentatehon tarve kasvaa reippaasti lineaarista nopeammin ongelman kokon kasvaessa, mutta muistintarve "vain" lineaarisesti.

Prosessorinopeutta ei tule olemaan "tarpeeksi" koskaan. Fyysikot ottaisivat ilolla vastaan googolkertaisen tehonlisäyksen. Se taas on termodynaamisesti mahdoton (voidaan osoittaa, että bitin käsittely vie minimissään tietyn energiamäärän, ja koko maailmankaikkeuden energia ei riitä tietokonetehon googol-kertaistamiseen. Googol on 1E100, eli kokonaisluku, jossa on ykkönen ja sata nollaa.

Jodi
Seuraa 
Viestejä2187

Niin ja luoda tekniikka jakaa valokuitu kaikkien yksiköiden välille joita olisi tuhansia.

Mutta tässä oli mies, jolta puuttui aivoista yli puolet, ja kaikki oli normaalisti. Miehen ÄO oli 75, eli normaalin alarajoilla. Hän työskenteli valtion virkamiehenä, oli naimisissa ja hänellä oli kaksi lasta. -Jani Kaaro

Vierailija

Yhteen aikaan rajoittava tekijä oli kellotaajuuden nousun sivuvaikutuksena tuleva lämmönkehityksen lisääntyminen. Taitaa vieläkin olla vähän vaikeaa mennä 3 GHz rajan yli.

Sitten on sekin että RAMia voipi emolevylle tunkea niin paljon kuin sinne mahtuu mutta ei kyseinen muisti edes niin nopeasti toimi kuin ne prosessorit. Välimuistia prosessorisiruille ei taas ihan gigatolkulla mahdu nykyisellään.

Mitä olen kuullut juttuja niin väylien nopeuttamistakin on mietitty ja tehtykin. Optisessa toteutuksessa on vaan semmoinen juttu että piistä on hankala tehdä lähettäviä tai vastaanottavia diodeja(vyörakenne tai jokin muu oli ongelmana?). Eikä muista materiaaleista rakennettujen komponenttien ahtaminen samalle sirulle sekään erityisen helppoa tai halpaa ole.

 

Tai jotenkin tuolleen oli asiat kun viimeksi tarkistin.

matti-
Seuraa 
Viestejä63

Valokuidusta tehtyjä väyliä ei vielä juurikaan käytetä. En tiedä onko se sitten se, ettei teknologia ole vielä kypsää.

Nykyisillä systeemeillä väylät kyllä rajoittavat tietyssä vaiheessa ja juuri väylien rajoitusten vuoksi muistin täytyy fyysisestikkin sijaita aivan prosessorin vieressä. Muistin hitauden vuoksi prosessorilla on  vielä sisäistä välimuistia. 

Mitä kauemmas muisti viedään prosessorista, sitä hitaammin se toimii.

Kovastihan tuota valokuidun/optisten komponenttien käyttöä tietokoneissa yritetään kuitenkin kehittää ja se ratkaisisi väyliin liittyviä ongelmia. Tässä HP:n video aiheesta:

https://youtu.be/jcmsby8jDKE

Neutroni
Seuraa 
Viestejä31260
ksuomala

Mitä olen kuullut juttuja niin väylien nopeuttamistakin on mietitty ja tehtykin. Optisessa toteutuksessa on vaan semmoinen juttu että piistä on hankala tehdä lähettäviä tai vastaanottavia diodeja(vyörakenne tai jokin muu oli ongelmana?). Eikä muista materiaaleista rakennettujen komponenttien ahtaminen samalle sirulle sekään erityisen helppoa tai halpaa ole.

Piistä ei saa valoa ulos. Sen elektronivyörakenne ei salli sitä. Yrityksiä piiledien tekemiseen on ollut, isollakin rahalla, koska toteutuessaan se olisi miljardiluokan juttu, mutta luonnonlait ovat nihkeitä taipumaan ihmisen tahtoon.

III-V puolijohteiden integrointi nykyisiin high end -piiprosesseihin on myöskin jotakuinkin mahdotonta.

Simplex
Seuraa 
Viestejä3033

Prosessointiyksiköiden välinen tiedonsiirto on pullonkaula. Ei ole paljoakaan iloa suuresta muistista tai nopeista prosessoreista, jos tiedonsiirto eri prosessointiyksiköiden välillä on tehotonta. On varsin helppoa tehdä nopea, useamman gigabitin/s tiedonsiirtokanava kahden prosessointiyksikön välille. Tiedonsiirtokapasiteetti laskee kuitenkin nopeasti kun aletaan siirtämään tietoa useamman prosessointiyksikön välillä ja siirtoon tarvitaan reititystä.

Paul M
Seuraa 
Viestejä8643

Minulla on visio assosiatiivisista muisteista. Lähes kaikki nykyinen tieto on päällekkäistä tietoa. Tuohon tarvitaan parannus.

Assosiatiivisen tulee myös monistaa tieto-oliot niiden säilymisen varmistamiseksi, mutta paketointi on tehokas silti.

Jaa että miten? Vertaa ihmisen muistamiseen. Ei ihmisellä ole samasta asiasta uudestaan ja uudestaan tallennettu muistioliota. Joku Mona Lisa on tehokkaasti pakattuna sillä joka sen muistaa. Tai muistaa ainakin sen verran että tunnistaa sen, kun näkee.

Ihmisen melko vapaamuotoinen muistaminen tuottaa melko tarkkaakin dataa. Suuri osa on täydennetty esimerkiksi tunnelmalla. Ei ole tärkeätä tarkkaan muistaa millainen joku mukava mökki oli. Tärkeämpää muistettavaa on, että oli hirsimökkitunnelma. Niinpä mökistä tehtyyn piirrokseen muistaja lataa tunnelmasta hirsirakenteen.

 

Hiirimeluexpertti. Majoneesitehtailija. Luonnontieteet: Maailman suurin uskonto. Avatar on halkaistu tykin kuula

Haamu
Seuraa 
Viestejä697
Simplex

Prosessointiyksiköiden välinen tiedonsiirto on pullonkaula. Ei ole paljoakaan iloa suuresta muistista tai nopeista prosessoreista, jos tiedonsiirto eri prosessointiyksiköiden välillä on tehotonta. On varsin helppoa tehdä nopea, useamman gigabitin/s tiedonsiirtokanava kahden prosessointiyksikön välille. Tiedonsiirtokapasiteetti laskee kuitenkin nopeasti kun aletaan siirtämään tietoa useamman prosessointiyksikön välillä ja siirtoon tarvitaan reititystä.

Miksi pitäisi kyetä siirtämään tietoa nopeasti kahden tai useamman "prosessointiyksikön" välillä? Se että ylipäätään halutaan käyttää useampaa yksikköä johtuu ihan puhtaasti tarpeesta lisätä laskentatehoa, joka ei muuten onnistu kuin lisäämällä yksiköitä. Ts. tämä kuvaamasi ongelma on seurausta siitä alkuperäisestä ongelmasta, että laskentateho on riittämätön.

James Randi
Seuraa 
Viestejä338
ksuomala

Yhteen aikaan rajoittava tekijä oli kellotaajuuden nousun sivuvaikutuksena tuleva lämmönkehityksen lisääntyminen. Taitaa vieläkin olla vähän vaikeaa mennä 3 GHz rajan yli.

Ei ole. Ainut rajoittava seikka on, että prosessorinvalmistajat rahastavat joka sukupolven. Eivät siis hyppää "superläppäriin", vaikka se olisi mahdollista.

En mene vannomaan, mutta jossain lähitulevaisuudessa 64-256 bittinen prosessori ei enää tue 32-bittisiä sovelluksia. Taas vaihdetaan tietokoneet ja ammattisovellukset ja hankitaan joka äijälle uusi työläppäri. Kun sykli toistuu muutaman vuoden välein, microsoft, intel, amd, motorolla, ..., ovat mielissään.

Toki nykyisen prosessorin ydin vastaa mittakaavassa 1:1 ydinvoimalan tuottamaa energiaa. Mutta piilastua parempia ja tehokkaimpia rakennusaineita on jo tarjolla. Aika näyttää, koska piilastut jäävät historiaksi.

---Mielestäni seksuaalisesta suuntautumisesta ei ole kysymys vaan Randin taustasta.Toisen maailmansodan aikana Randi tuli persraiskatuksi natsien toimesta jonka seurauksen Randi traumatisoitui ja lähti myöhemmin siitä selvittyään omalle "kostoretkelle" harjoittamalla samanlaista toimintaa alaisiinsa ja lähipiiriin. Randi miljoonan taalan "kostoretki"

---Paljastan matemaattiset valheesi!

James Randi
Seuraa 
Viestejä338
Haamu

Miksi pitäisi kyetä siirtämään tietoa nopeasti kahden tai useamman "prosessointiyksikön" välillä?

Siksi, että nopeus on valttia. Ei nettiäkään enää kukaan käytä 2G:nä tai EDGE:nä.

Haamu

Se että ylipäätään halutaan käyttää useampaa yksikköä johtuu ihan puhtaasti tarpeesta lisätä laskentatehoa, joka ei muuten onnistu kuin lisäämällä yksiköitä.

Miten niin ei onnistu? Olkoon prosessorin ja keskusmuistin kellotaajuus 3THz. Vain harvat ongelmat ova laskettavissa rinnakkain, koska asioilla meinaa olla aina lineaarinen syy-seuraus.

---Mielestäni seksuaalisesta suuntautumisesta ei ole kysymys vaan Randin taustasta.Toisen maailmansodan aikana Randi tuli persraiskatuksi natsien toimesta jonka seurauksen Randi traumatisoitui ja lähti myöhemmin siitä selvittyään omalle "kostoretkelle" harjoittamalla samanlaista toimintaa alaisiinsa ja lähipiiriin. Randi miljoonan taalan "kostoretki"

---Paljastan matemaattiset valheesi!

Sivut

Suosituimmat

Uusimmat

Sisältö jatkuu mainoksen alla

Uusimmat

Suosituimmat