Rikollisten tietokoneet päihittävät supertietokoneet !

Kommentit (12)

Vierailija

En nyt haluaisi olla ilkeä mutta voitaisiinko täällä olla harrastamatta keltaisen median suosimaa harhaanjohtavaa trolliotsikointia jossa väitetään täysin eri asiaa kuin itse uutisessa.

Ja jos vielä nähtäisiin sen verran vaivaa että lainattaisiin varsinainen uutinen ja annettaisiin linkki lähteenä, eikä vain läpsäistäisi suoraa linkkiä alkuperäiseen uutiseen.

salai
Seuraa 
Viestejä7264
Liittynyt17.3.2005

Tuntui ikivanhalta uutiselta.
Pikagooglaus antoi tuollaisen (By Brian Krebs | August 31, 2007):
Storm Worm Dwarfs World's Top Supercomputers

The network of compromised Microsoft Windows computers under the thumb of the criminals who control the Storm Worm has grown so huge that it now has more raw distributed computing power than all of the world's top supercomputers, security experts say.

Mitä tahansa edellä esitetyistä väitteistä saa epäillä ja ne voidaan muuttaa toisiksi ilman erillistä ilmoitusta. Kirjoittaja pyrkii kuitenkin toimimaan rehellisesti ja noudattamaan voimassa olevia lakeja.

Vierailija
Hannu Tanskanen
Näillä kaapatuilla botnet-koneillahan levitetään roskapostia, ja ?

Ei ne tietokoneet silti rikollisten ole.

Hannu Tanskanen
Seuraa 
Viestejä8848
Liittynyt26.3.2009
JaakkoFagerlund
Hannu Tanskanen
Näillä kaapatuilla botnet-koneillahan levitetään roskapostia, ja ?

Ei ne tietokoneet silti rikollisten ole.



Ei, mutta rikollisten "lainaamia". Sama kuin autosi vietäisiin ja käytettäisiin pankkiryöstössä ja palautettaisiin.

Vierailija

saadaanhan siitä bot-verkosta tehokkaampi jos vaan lasketaan jokaisen erillisen koneen suorituskyky yhteen asiaa sen enempää miettimättä.
Jos oikeasti tuolla yrittäisi jotain laskentaa suorittaa niin todellinen suorituskykyhän putoaisi murto-osaan johtuen pitkistä viiveistä siirtää tietoa koneiden välillä.
Kyllä ne uutisoida aina osaa.

petsku
Seuraa 
Viestejä1473
Liittynyt6.6.2009
Typpi
Jos oikeasti tuolla yrittäisi jotain laskentaa suorittaa niin todellinen suorituskykyhän putoaisi murto-osaan johtuen pitkistä viiveistä siirtää tietoa koneiden välillä.
Kyllä ne uutisoida aina osaa.

Olenkin joskus miettinyt tätä hajautetun laskennan ongelmaa: Mitä enemmän tietoa hajautetaan useammalle taholle suoritettavaksi, sitä enemmän se vaatii järjestelyä, hallintaa ja organisoimista. Onko esitetty jotakin teoreettista rajaa, jonka jälkeen lisäkoneista ei yksinkertaisesti ole apua? Valonnopeus informaation kulkunopeuden kattona nyt varmaan ainakin haittaa valtavissa systeemeissä. Pointtina nyt kuitenkin enemmin konetiheydestä johtuvat tiedon hallinnan ongelmat kuin etäisyyksien huomioiminen.

Vierailija
petsku
Onko esitetty jotakin teoreettista rajaa, jonka jälkeen lisäkoneista ei yksinkertaisesti ole apua? Valonnopeus informaation kulkunopeuden kattona nyt varmaan ainakin haittaa valtavissa systeemeissä. Pointtina nyt kuitenkin enemmin konetiheydestä johtuvat tiedon hallinnan ongelmat kuin etäisyyksien huomioiminen.



Veikkaisin että raja tulee vastaan siinä kohtaa kun yksittäisen tietokoneen pitäisi päästä käsiksi suurempaan määrään dataa kuin mitä sen muistiin mahtuu.

Asiaa voi miettiä ihan kotoisemmankin laskennan kannalta. Kun tietokoneen prosessori ei löydä tarvitsemaansa tietoa omasta välimuististaan, se joutuu odottelemaan että se data tulee keskusmuistista ja aina kun se joutuu odottamaan, sen suorituskyky tippuu noin 1/40 osaan.

Vierailija
Typpi
Jos oikeasti tuolla yrittäisi jotain laskentaa suorittaa niin todellinen suorituskykyhän putoaisi murto-osaan johtuen pitkistä viiveistä siirtää tietoa koneiden välillä.



Meinaakkonää että kaiken maailman SETI@homet ja distributed.netin projektit ovat siis vain ajanhukkaa?

petsku
Seuraa 
Viestejä1473
Liittynyt6.6.2009
Veikko
petsku
Onko esitetty jotakin teoreettista rajaa, jonka jälkeen lisäkoneista ei yksinkertaisesti ole apua? Valonnopeus informaation kulkunopeuden kattona nyt varmaan ainakin haittaa valtavissa systeemeissä. Pointtina nyt kuitenkin enemmin konetiheydestä johtuvat tiedon hallinnan ongelmat kuin etäisyyksien huomioiminen.



Veikkaisin että raja tulee vastaan siinä kohtaa kun yksittäisen tietokoneen pitäisi päästä käsiksi suurempaan määrään dataa kuin mitä sen muistiin mahtuu.

Asiaa voi miettiä ihan kotoisemmankin laskennan kannalta. Kun tietokoneen prosessori ei löydä tarvitsemaansa tietoa omasta välimuististaan, se joutuu odottelemaan että se data tulee keskusmuistista ja aina kun se joutuu odottamaan, sen suorituskyky tippuu noin 1/40 osaan.


Voikos datan hajauttamisen ja uudelleenkasaamisen vaatima tehonkäyttö helpostikkin ylittää itse datan käsittelyn vaatiman?

Vierailija
Cubemon
Typpi
Jos oikeasti tuolla yrittäisi jotain laskentaa suorittaa niin todellinen suorituskykyhän putoaisi murto-osaan johtuen pitkistä viiveistä siirtää tietoa koneiden välillä.



Meinaakkonää että kaiken maailman SETI@homet ja distributed.netin projektit ovat siis vain ajanhukkaa?



Ainakin SETI projekti on käytännössä ihan turhaa.

Mutta tekniikan puolesta siinä käsitellään kuitenkin pieniä toisistaan riippumattomia signaalinpätkiä jotka voidaan kokonaisuudessaan ladata koneelle ja laskea mitä sillä lasketaan. Samaten proteiinien taittelussa ongelma voidaan jakaa pieniin toisista riippumattomiin osiin.

Kaikkeen tuollaiseen hajautettu laskenta sopii.

Vierailija
petsku

Voikos datan hajauttamisen ja uudelleenkasaamisen vaatima tehonkäyttö helpostikkin ylittää itse datan käsittelyn vaatiman?



Riittävän hyvin organisoitu järjestelmä riittää aika pitkälle. Pitäisi järjestää datan monistus niin että koko verkko voi lähettää P2P tyyliin dataa mille tahansa yksikölle, ja että verkolla kokonaisuudessaan on kaikki data hajautettuna ja nopeasti saatavilla.

Silti logistiikka tulee vastaan esimerkiksi neuroverkkojen simuloinnissa, koska yksiköiden välille tarvitaan niin paljon liikennettä että perinteisetkin supertietokoneet menevät siitä juntturaan vaikka niissä on gigatavukaupalla kaistanleveyttä prosessorien välillä.

Ongelma tulee myös mikäli yhden yksikön laskennan tulos vaikuttaa toisen tarvitsemaan dataan, koska tällöin tarvitaan nopea keskitetty valvonta siitä mikä yksikkö pääsee käsiksi mihinkin dataan ja milloin. Sama ongelma on ihan tavallisissakin sovelluksissa joissa käytetään säikeistystä, ja sitä ei ole vielä ratkaistu kunnolla.

Uusimmat

Suosituimmat