Discos duros 2TB

Un equipo de científicos de la Cornell University y la Purdue University ha puesto a punto un dispositivo capaz de generar luz láser que utiliza plasmones en lugar de fotones. Esta partícula, de sólo 44 nanómetros de longitud, ha posibilitado la creación del láser que abre las puertas para la fabricación de microprocesadores capaces de funcionar a 100 THz, unas 20.000 veces más rápido que los actuales. Sin dudas, éste es uno de los avances más importantes de los últimos tiempos.

Siendo estrictos, no se trata de un láser (Light Amplification by Stimulated Emission of Radiation), sino de un pariente cercano llamado spaser (surface plasmon amplification by stimulated emission of radiation) que, en lugar de fotones, utiliza plasmones. Los plasmones son unas partículas que solo tienen 44 nanómetro de longitud y, como se encarga de aclarar Mark Stockman, profesor de física de Georgia State, “el spaser trabaja unas mil veces más rápido que el transistor más rápido existente, con un tamaño similar. Esto abre la posibilidad de construir amplificador ultrarrápidos, elementos lógicos y microprocesadores que pueden funcionar miles de veces más rápidos que los microprocesadores convencionales basados en silicio.” Este método trata la luz de forma diferente a las tradicionales CPU ópticas, que son “difíciles de reducir de tamaño porque no puedes contener fotones en áreas más pequeñas que la mitad de la longitud de onda asociada”. Esta tecnología es la piedra fundamental en la que se basarán microprocesadores capaces de funcionar a 100 THz.

Fuente: neoteo
 
100 thz...

Si alguien hubiera mencionado esto en la época del colossus le habrian tomado por loco..

y tampoco hace tanto de esto, comparado con la evolución de otras ciencias, como
p.ej. la medicina
 
por alguna de esas cosas raras no recibo el mail por las actualizaciones del tema

Esto abre la posibilidad de construir amplificador ultrarrápidos, elementos lógicos y microprocesadores que pueden funcionar miles de veces más rápidos que los microprocesadores convencionales basados en silicio.”


y algunos van a seguir afirmando que una valvula es mejor:LOL:
 
Yo tengo un problema físico donde debo construir una malla de cálculo con 100 puntos por cm2, para digitalizar un área total de 4000 m2.
Esto da una cantidad de puntos N = 4 000 000 000 en total.
Para cada punto debo guardar aproximadamente unos 50 Bytes, lo que requiere una memoria de 200 000 000 000 = 200 GB.
La solución del problema pasa por invertir la matriz de coeficientes de un sistema de 2N ecuaciones por 2N incógnitas. Pero como del sistema resulta una matriz rala, diagonal y simétrica, la cantidad de coeficientes por guardar queda en (2*N)*(2*4) = 16 N.
Cada coeficiente de punto flotante requiere 4 bytes, por lo que el total para la matriz es de 4 * 16 * 4 000 000 000 = 256 GB.

Entre variables (200 GB) y coeficientes (256 GB) más algunas variables para cálculos intermedios, el grueso de datos a almacenar ronda los 500 GB.

En un par de años ya voy a guardar todo en disco, operando sobre RAMs de 10-20 GB !!!!
Lo podes hacer hoy.
Si tenes que resolverlo 1 sola vez, podes alquilar un Cluster. Después de las elecciones muchos quedan por ahí sin mucho uso.
Como son 200Gg no veo viable subirlo a un cluster gratuito como el de la Universidad de Kiev.
Si tenes que hacerlo varias veces quizás te convenga hacer tu propio cluster casero con OpenMosix
Esto no es algo nuevo, solo que ahora esta mas fácil porque con el tema de de los procesadores multi-core la mayoría de los softwares nuevos aprovechan todos los cores que encuentran. Unos años atrás había que usar software especial para aprovechar mas de 1 núcleo.
Mientras buscaba el link del Live CD del clusterknoppix me doy cuenta lo viejo que es realmente esto, seguramente hay algo nuevo bajo el sol, me voy a tener que actualizar y actualizar mi cluster...
 
Esas dos TB las lleno en menos de 15 dias....jejje me hace agua la boca con este disco!!!....ojala se vuelva popular rapido estos discos para que salgan baratos.....
 
Y quen no lo llenaría?

Pero.. a ver de que

Esta tarde, vayan a su tienda de informática preferda y compren un procesador de ultimisima
tecnología.
Guardenlo y al cabo de un par de días científicos de todo el mundo le pagará millones
por investgar "eso" que consideran un procesador prehistórico
 
Última edición:
Ok, acabo de leer que el 25 de septiembre Seagate lanzo el primer disco “Sata 3” (6Gbps) llamado Seagate Barracuda XT con una capacidad de 2TB y un búfer de 64MB, los discos giran a 7200rpm y cabe en una bahía de 3 ½
Su precio es de U$S299 en USA.
Si bien aun no hay mobos compatibles con SATA3, este disco es retro-compatible con SATA1 y SATA2.
Creo que duro poco la ventaja de WD…
salu2

PD: aca les dejo algunos detalles tecnicos
 

Adjuntos

  • barracuda XT.jpg
    barracuda XT.jpg
    126.4 KB · Visitas: 16
Última edición:
No se por que se sorprenden tanto de los las amplias capacidades futuras de los discos duros, de las memorias y de las velocidades de los procedadores.

Cuando era estudiante usaba windows 3.11 sobre Ms-DOS 6.0, en una maquina 486 a 40MHZ y un disco duro que no superaba los 30 Mbytes. Cuando aparecieron los primeros Pentium a 100 Mhz y un disco de 512 Mbyte, era impensable de llenarlo, ya que los programas apenas pesaban 1 Mbyte o lo que hacia un disquete (window sy office eran los pesados me acuerdo con muchos diskette para cargarlos). Pero he aqui el detalle en que no nos hemos percatado, cuando salio Pentium salio tambien windows 95 y este por si solo ya pesaba varios megas e incluso venia ya en los primeros CD-Rom de 670 Mbyte (en ese tiempo un CD era como la maxima capacidad, era ilimitado ). A lo que voy es que piensen en lo siguiente:
A medida que aumentemos las capacidades de las maquinas tambien aumentan las capacidades del software. En el futuro 2 Tbytes tal vez no sea mucho como imaginamos hoy, por que tal vez el Windows que tenga instalado pese sus cientos de Gigas, el Office otro Gigas mas y asi sucesivamante y no los daremos cuenta que cuando tengamos el Sistema Operativo instalado, y veamos a nuestro glorioso disco con a lo menos 1 Tera ocupado y quejandonos de lo lento que es el PC. Siempre ha sido asi.
 
en realidad el paso entre el hdd y el sdd, no es ni mucho menos el hvd, si no el blu-ray, ya que se espera que para el 2010-2012, blu-ray de más de 16 capas y llegar hasta el TB de información, por cierto la PS3 y su CELL-BE de 1 núcleo y 8 sub-núcleos puede reproducir sin problemas esta clase de disco. Por cierto ya Sony comercializa Memory Stick de 2 TB eso sí, cuesta al rededor de 400 euros.
 
... y después te haces una radio a yilé.
diode_home_made.jpg

http://jordy.igaia.ch/retro/diode.html

:D
 
Atrás
Arriba