Haz una pregunta
  Foros de Electrónica » Compartiendo con la comunidad » Actualidad tecnológica
Foros Registrarse ¿Olvidaste tu contraseña?

Temas similares

Antiguo 24/03/2010  
Hubo que esperar mucho tiempo antes que desplazaran completamente a los chips G92, G92b y el último protagonista de la respetable GTX259 el GT200b. Ahora, siendo remplazados por la arquitectura nombre código "Fermi" que será hito en la denominada "arquitectura unificada".
La liberación de estas tarjetas está prevista para dentro de pocas horas (Se puede alargar el tiempo...). Dado su retraso y tiempo de desarrollo se espera un rendimiento espectacular en comparación con las actuales arquitecturas. El proceso de reducción para la fabricación de los chips hace que se reduzca las emisiones térmicas, ahorrando así energía. El rendimiento se resume en aproximadamente el doble que la tecnología anterior y pueden ser que estas sobrepasen los 300Gb/s de ancho de banda.
También con esta agradable noticia, se espera una rebaja en los precios de las actuales tarjetas gráficas, gran noticia para los de presupuesto apretado.

Sin duda, toda una noticia.

¿Fotos?
GTX480









Fuente

Parece ser que nVIDIA volverá a tomar el trono.
Al tanto de especificaciones finales a su lanzamiento oficial...

Saludos!!!

Última edición por Tacatomon; 24/03/2010 a las 20:16.

 
Avatar de Tacatomon
Tacatomon
Moderador
Fecha de Ingreso: noviembre-2007
Ubicación: En Black Mesa Este, Rumbo a Ravenholm...
Mensajes: 4.289
Visitas: 29839
   Citar
13/10/2011 #241
Moderador

Avatar de Ratmayor

vean lo que me encontré... en esta pagina podran comparar hardware entre fabricantes y modelos, el link que les envio es el de las tarjetas de video http://www.hwcompare.com/category/gpu/
13/10/2011 #242
Moderador

Avatar de Tacatomon

GTX 470 Vs GTX 550Ti

Mmm...

mmm

...
13/10/2011 #243

Avatar de Nepper

che, en la lista no esta la ge-force 7600 que tengo ¬¬
13/10/2011 #244
Moderador

Avatar de Ratmayor

Nepper dijo: Ver Mensaje
che, en la lista no esta la ge-force 7600 que tengo ¬¬
Por que es tecnología de hace 5 años 8-)
14/10/2011 #245
Moderador

Avatar de Tacatomon

Tecnología es tecnología... Pero el tiempo no perdona.

Por otro lado, a la vista de no crear un tema específico para CPU´s... La noticia que está dando vuelta al mundo es que apenas este 14 de Octubre se develaron por fin la nueva linea de procesadores para escritorio AMD FX Series, los primeros en ser de 8 núcleos dentro de este segmento. Más que eso aún, destaca el Pobre desempeño que revelaron Revisiones días previos al lanzamiento especial. Dado que las esperanzas lanzaban un favorable resultado para esta nueva serie comparada con los Intel Core i7 980X. Inclusive, destaca el poco rendimiento obtenido comparado con los actuales AMD Phenom II X6 1100T. No quisiera entrar en más detalles. Las revisiones lo dicen todo.

Por ahora, lo único que puedo llegar a destacar de AMD, es la implementación de una nueva arquitectura a lo que era K10 (Phenom, recientemente) y el bajo costo para ser un procesador de 8 Núcleos (4*2 Módulos Bulldozer). Quizás (Como defienden algunos) Esta nueva arquitectura está apenas surgiendo y necesita ser aprovechada al máximo.
No lo sé... Realmente no se que más decir al respecto. Como muchos otros, esperaba un poco más.

Quizás la respuesta está los Opteron 4200 Series. Toca esperar.

Saludos al foro.
15/10/2011 #246

Avatar de Agustinw

Aca hay un video de Unigine heaven dx11
y una comparacion dx10 vs dx11
Hay mucha diferencia entre dx10 y dx11
Saludos espero que les guste la info.
28/10/2011 #247

Avatar de djwash

Buena info Agustinw.

Por mas placas que salen aun no entiendo porque se gastan algunos fabricantes en darle tanta facha a las placas de video, se ven muy lindas, antes de ponerlas, porque despues de ponerlas ya no se ve nada, y si haces un Cross o SLI peor, menos se ve.

Las que mas me gustan son las MSI Cyclone, pero al ponerlas en el PC la belleza se aprecia en la caja en la que venia nomas. Para los que tenemos gabinete con ventana es algo molesto.
29/10/2011 #248
Moderador

Avatar de Tacatomon

djwash dijo: Ver Mensaje
Buena info Agustinw.

Por mas placas que salen aun no entiendo porque se gastan algunos fabricantes en darle tanta facha a las placas de video, se ven muy lindas, antes de ponerlas, porque despues de ponerlas ya no se ve nada, y si haces un Cross o SLI peor, menos se ve.

Las que mas me gustan son las MSI Cyclone, pero al ponerlas en el PC la belleza se aprecia en la caja en la que venia nomas. Para los que tenemos gabinete con ventana es algo molesto.
Muy interesante lo que comentas. En Servers, se aplica mucho dejar las tarjetas de super computo (Fermi Tesla) sin la cubierta plástica que tiene los modelos GeForce. No en todas aplica así. Dejando de lado el Lado Estético y demás. Por que se aprovecha la ventilación completa de un rack que por lo general siempre es a Full de RPM.
Concuerdo completamente con los diseños de algunas tarjetas. Son demasiado "Visuales" y pues, rayan del lado de "Modelo de Exibición" a Estación de trabajo.
Los Gabinetes con Ventanas, casi no me llaman la atención.
Personalmente, los diseños de referencia de nVidia con el Blower en el extremo de la tarjeta son los que más aprecio. Pero cuando se les exije, parecen autenticos servidores de rack. Como decía (Aprox) el compañero Carlos: "Como si fuese a despegar un Jet"
27/11/2011 #249

Avatar de Nepper

Agustinw dijo: Ver Mensaje
Aca hay un video de Unigine heaven dx11 http://www.youtube.com/watch?v=9F6zSgtRnkE
y una comparacion dx10 vs dx11 http://www.youtube.com/watch?v=9ABeq...eature=related
Hay mucha diferencia entre dx10 y dx11
Saludos espero que les guste la info.
Vos sabes que despues de ver esos videos me quedé algo confuso...

Mi principal interrogador fue el de "crea poligonos para enriquecer las "entidades" (por llamarlas de alguna forma)"

A ver... eso no tiene sentido! Pero no tiene sentido lógico, y saben que las PC son puramente lógicas!!!

Piensen un poco, yo tengo un cubo. Por lo que muestran los videos, el DX11 suaviza el CUBO de 6 caras planas... ok... ¿en que lo convierte? ¿en una esfera de 64 polígonos planos?
¿en un ladrillo, redondeando las puntas y creando "ruido" en las caras?

Digo, ¿como sabe QUE poligonos crear y con qué frecuencia, profundidad y curbatura?

Vamos a otro ejemplo, Tengo una esfera, y quiero que esa esfera tenga pinchos de punta redondeada. Por lo que veo en el video, con DX9 veo una esfera y con DX11 veo una bola con pinchos. Si quiero que esa bola no tenga pinchos, si no que sea irregular como una piedra. ¿que cambiaría, si la forma básica es una esfera?

¿entienden a lo que me refiero? En el video aparece un dragon con DX10, el pecho del dragon es liso, con unos 8 poligonos trinagulares. Al aplicar DX11 aparecen de la nada Cuernos que salne del pecho creando decenas de poligonos adicionales colocados correctamente para simular los cuernos ¿como sabía el DX11 que eran cuernos y no escamas?

Desde ese video me puse a hacer un análisis del DX11 con el DX10 y en casa de amigos, y mi reciente SAPPHIRE HD5770 compatible con DX11, puedo decir que los cambios no son tal como se ven en los videos.
Lo único que vi que logró hasta ahora el DX11 es una imagen mas suavizada pero en general, como que a la pantalla le pega una leve borronaso para que se vea mas natural, y la otra diferencia es que optimiza muy bien los juegos para que se vean muy fluidos.
Pero en Incrementos gráficos... hasta ahora no encuentro diferencias...
28/11/2011 #250
Moderador

Avatar de Tacatomon

Pues... Yo igual me pregunto como es que sabe que tanto aumentar la cantidad de polígonos.

El detalle es que, lo hace y se aprecia visualmente. Hasta ahora, un buen gancho para pasarse a DX11. No he jugado en DX11 como para dar una buena opinión en cuanto a calidad visual. En las pruebas sintéticas puedo correr DX11 pero hasta ahí no aprecio nada nuevo.
28/11/2011 #251

Avatar de Nepper

Acá encontre un video que muestra puntualmente la diferencia:

Lo extraño, que la comparación la hace con el DX9 Vs DX11

En fin, me doy cuenta que es lo que sucede...

La tecnología que se está explotando es la del pixel shader.
El pixel Shader es un método de simular una textura con varias texturas.
Una textura en modelación 3D se refiere a la "piel" que el objeto llevará. Como la textura en un modelo es puramente visual, entonces se trabaja para que se vea lo mas real posible.
Inicialmente las texturas en los juegos no eran mas que imágenes pegadas en los poligonos que conformaban el escenario o entidad

(Doom 1)

(quake 1)

(half life 1)
En estos casos, cuando el diseñador quería crear una textura, sabiendo que la luz provenía desde arriba, podía crear la textura con la sombra hacia abajo.
Evidentemente, al mejorar la tecnología de iluminación, y al comenzar con las luces dinámicas, los diseñadores se encontraban con que las texturas deberían de poder interactuar con las luces. De esta forma, además de brindar realismo, lograrían trabajar menos a la hora de crear texturas.

Esto llevo a diseñar el Pixel shader:

(far cry 1)
Podemos apreciar que con la tecnología pixel Shader, las texturas creaban sus propios "huecos" que generarían sombras.
En estas imagenes el progreso parece inmenso, pero si el jugador se acerca a la textura, vería de perfil que es todo liso. Este "efecto optico" solo funciona cuando se ven a las texturas de frente.

pero ¿Como es que las texturas saben donde crear las sombras?
Eso es trabajo de los diseñadores, ellos además del "dibujo" de la textura, deben agregar otra capa de "profundidad" llamada "Bump Maps". Entonces la textura se vuelve compleja, ya que está conformada por 2 capas (sin contar varias otras)


Podemos areciar una textura normal con su Bump

Obtenido de http://planetpixelemporium.com/tutor...s/normal2.html

Evidentemente el Shader permite realixmo a su vez que interacción con la iluminación dinámica del juego

el resultado será

(Obtenido de http://www.blacksmith-studios.dk/pro...g_using_cg.php)



Podemos ver, en esta imagen de modelos (the whitcher) en donde tenemos (de izquierda a derecha) el modelo con sus respectivos poligonos. El API (el direx3D o OpenGL) genera un suavizado, luego se aplican los Shaders (sombreado por textura) y luego el "dibujo con colores" del modelo.

Esto fué solo la introducción.

Lo que me imagino que hace el DX11 es utilizar y mejorar esta tecnología de tal forma que le da volumen ficticio a los elementos aún teniendo vista periférica...
Lo que si pienso, es que si tenemos un piso de ladrillos, y en el juego dejamos caer un casquillo, este no se incrustará entre dos ladrillos porque es el lugar "fisico" mas bajo, si no que rebotará en un piso 100% plano y girará hasta que se detenga por fricción.
Lo que no entiendo todavia es la demostración del dragon... sobresale demasiado para una simple textura bump...

Evidentemente, no todas las texturas en un juego deberían llevar Bump, ya que una textura pesaría el doble que una textura ordinaria además de que se necesita mayor capacidad de procesamiento para prosesar muchas texturas. Esto genera un problema, no todas las texturas pueden ser complejas, solo unas pocas, como las del personaje, las armas y algunas muy repetidas. Eso tambien impacta directamente en la calidad de visualización, es por eso que en Xbox 360 se ve peor un juego que en Pley3 o PC, pero el problema no es que la Xbox 360 es muy inferior a la Pley 3, sino que los juegos de Xbox estan en DVD y los de pley3 en BlueRay, por lo que los juegos de Pley3 poseen texturas mas ricas.
26/02/2012 #252

Avatar de djwash

Alguien con buena info de las AMD 7000?
27/02/2012 #253
Moderador

Avatar de Tacatomon

djwash dijo: Ver Mensaje
Alguien con buena info de las AMD 7000?
Yo solo se que las 7000 Series están arrasando.

NGC y sus estados de baja energía son una maravilla.
29/02/2012 #254

Avatar de RubenCaceres

Me dejaron 4 targetas nvidia geforce gtx580 para colocarlas en 4way-SLI y provarlas y segun yo y los que de momento lo han visot son una verdadera bestia me dejaran unas asus para probarlas hos comentaré que tal
01/03/2012 #255

Avatar de djwash

Quizas lo que voy a preguntar es una superburrada, el otro dia mirando al horizonte me pregunte porque no fabrican placas de video con nucleo intercambiable, es decir, con socket como los mother, ya teniendo gddr5 y varias fases y soporte para varias caracteristicas. Uno podria comprar una "video-board" y un procesador grafico digamos 6450 por decir uno de gama baja, y mas adelante poder comprar uno de mas poder sin tener que cambiar toda la placa.

Es solo una idea, pero mirando precios de mother nos encontramos que un Mother Asus Crosshair V Formula 990fx Am3+ por aca ronda los U$S350 siendo que es una placa de gama alta no es tan cara, y para hecharla a andar le podes poner un Sempron 145.

Es solo una idea, que puede estar llena de limitaciones tecnicas entre otras cosas, que opinan?
01/03/2012 #256
Moderador

Avatar de Tacatomon

djwash dijo: Ver Mensaje
Quizas lo que voy a preguntar es una superburrada, el otro dia mirando al horizonte me pregunte porque no fabrican placas de video con nucleo intercambiable, es decir, con socket como los mother, ya teniendo gddr5 y varias fases y soporte para varias caracteristicas. Uno podria comprar una "video-board" y un procesador grafico digamos 6450 por decir uno de gama baja, y mas adelante poder comprar uno de mas poder sin tener que cambiar toda la placa.

Es solo una idea, pero mirando precios de mother nos encontramos que un Mother Asus Crosshair V Formula 990fx Am3+ por aca ronda los U$S350 siendo que es una placa de gama alta no es tan cara, y para hecharla a andar le podes poner un Sempron 145.

Es solo una idea, que puede estar llena de limitaciones tecnicas entre otras cosas, que opinan?
Yo opino que es algo posible. La arquitectura que se implanta en una tarjeta de vídeo se puede hacer compatible. Y donde realmente quedaría el trabajo de un correcto funcionamiento es en el controlador de vídeo.
Aunque, si nos ponemos a pensar, la mayor parte del costo de una Vcard es el GPU. PCB´s, memorias, condensadores y demás componentes son comprados por millones, así que representan una fracción pequeña del coste total.

Así, que con estos puntos en contra, una T-Video con GPU intercambiable no es muy convincente para los fabricantes.
30/03/2012 #257
Moderador

Avatar de Tacatomon

nVidia GeForce GTX680
Introduciendo la GPU GeForce 680GTX




March 22nd, 2012
By James Wang

Desde Fermi hasta Kepler.

Cada 2 Años, los Ingenieros de NVIDIA se preparan para diseñar una nueva arquitectura GPU. La arquitectura define los bloques de construcción del GPU, la forma en que se conectan y como funcionan.
La arquitectura es la base no sólo para un solo chip sino una familia de chips que sirve a un amplio espectro de sistemas, desde ordenadores de alto rendimiento a computadoras portátiles delgadas, desde estaciones médicas de trabajo a supercomputadoras. Es el modelo para todas las GPU de NVIDIA para los próximos dos años.

Solo hace 2 años, NVIDIA dio a conocer la arquitectura Fermi con la GeForce GTX480. Nombrada en honor al Físico Italiano Enrico Fermi. Esta nueva arquitectura ofreció dos avances claves:
  1. Ofrecer un procesamiento geométrico completo en la GPU con una técnica clave en DirectX 11 llamada Teselación con mapeo de desplazamiento. Usada en juegos como Battlefiel (Trollfield*) 3 y Crysis 2, esta técnica provee de un gran realismo geométrico del agua, terreno y caracteres.
  2. Fermi mejoró en gran medida el rendimiento de la GPU en cómputo general, y en la actualidad, tres de los cinco grandes Supercomputers del mundo trabajan con esta arquitectura.
Hoy en día, NVIDIA lanza Kepler, el tan esperado sucesor de la arquitectura Fermi. Con Kepler, no solo queríamos la GPU más rápida del mundo, si no también la más energéticamente eficiente. Con nueva tecnología que fundamentalmente, mejora la suavidad de cada cuadro y la riqueza de la experiencia en general.


¿Por que la eficiencia energética es importante?

Cuando lanzamos por primera vez Fermi con la GeForce GTX480 la gente nos decía que amaba el rendimiento que ofrecía, pero también deseaban que el consumo de energía también fuese menor. Los jugadores desean siempre el mayor rendimiento, pero también lo buscan en un factor de forma quieto y eficiente. La retroalimentación que recibimos de Fermi realmente nos llevó a entender el punto. Con Kepler, una de nuestras principales prioridades fue la construcción de la GPU Insignia con la cual jugar es todo un placer.

Kepler introduce dos cambios clave que mejora de una manera importante la eficiencia.

  1. Rediseñamos completamente el streaming multiprocessor, el bloque de construcción más importante de nuestra GPU, para un rendimento óptimo por Watt.
  2. Añadimos una característica llamada GPU Boost que incrementa dinámicamente las frecuencias de reloj para mejorar el rendimiento sin pasar del límite de potencia de la tarjeta.
El nuevo SM de Kepler, llamado SMX es un cambio radical de los diseños anteriores. SMX elimina el Procesador de Reloj "2X" y usa la misma frecuencia de reloj a través de la GPU. Balanceando este cambio se cuenta con un amplio de diseño de 192 Núcleos CUDA con un total de 1536 núcleos a través del chip. La GTX680 supera sin problemas a la GTX580.



El GPU GeForce 680 está hecho con 3.54 billones de transistores. Completamente diseñado para el rendimiento óptimo por Watt.

Sin embargo, lo que benefició a la mayoría es la eficiencia energética, en comparación de SM en Fermi, SMX dobla el rendimiento por Watt. Dicho de otro modo, por cada Watt de potencia, SMX en Kepler ofrece el doble de potencia de procesamiento que SM en Fermi. y esto medido "Manzanas con Manzanas" en el mismo proceso de manufactura. Imagine un bombillo convencional de 50W ofreciendo el brillo de uno de 100W. Así es el rendimiento de Kepler mientras se juega.


La GPU GeForce 680GTX es significativamente más eficiente que su predecesora. Para los jugadores, esto se traduce en una experiencia de juego más silenciosa, fría y energéticamente eficiente.

El beneficio de esta mejora energética es más obvia cuando instala una GeForce GTX 680 en su sistema. Si ha utilizado alguna otra tarjeta de video High-End, sabrá que necesita un conector PCI-E de 8Pines y otro de 6Pines. Con la GTX680 solo se necesitan un par de conectores PCI-E de 6Pines. Esto es a causa de que la tarjeta solo consume 195W, en comparación de los 244W en la GTX580. Como cuando un luchador de peso medio lucha con un peso pesado, con la GeForce GTX680

GPU Boost

SMX duplicó el rendimiento por Watt, pero ¿Por que la GPU no usa toda su capacidad de potencia. Volvamos a la analogía del bombillo. A veces un bombillo de 100W puede trabajar con 90W ¿o 80W?. Así es como exactamente funcionan las GPU hoy en día.

La razón para esto muy simple (y linda). Como en los bombillos, las GPU están diseñabas para operar bajo cierta potencia. Este número es llamado "Punto de diseño térmico" o TDP por sus siglas en inglés. Para una GPU High-End la TDP ronda los 250W. Puede interpretar este número como: Un sistema de enfriamiento tiene que sacar 250W de calor de la GPU. Si éste superara el límite por un periodo de tiempo extendido, la GPU es forzada a bajar su velocidad de reloj para prevenir un sobrecalentamiento. Esto no quiere decir que para ofrecer el máximo rendimiento, la GPU tiene que operar cerca de su TDP pero sin exceder éste.


En la realidad, las GPU's raramente sobrepasan su TDP, incluso en los juegos 3D más exigentes. Esto es a causa de que los juegos consumen diferentes cantidades de energía y la TDP de la GPU se mide en el peor de los casos. Juegos como Battlefiel3 (Trollfield3*) o Crysis2 consumen menos energía que la TDP máxima. Solo algunos Benchmarks (Comparativas) la GPU es llevada hasta el límite del TDP.

Por ejemplo, se puede decir que una GPU tiene un TDP de 200W. Pero solo en el peor de los casos consumirá 200W de potencia. Usted puede estar jugando Battlefield3 y consumir solo 150W. En teoría la GPU trabajaría en un área de operación segura inclusive a mayores velocidades de reloj en la tolerancia disponible. Pero, como no se conoce el consumo de potencia exigido por la aplicación, se usa una velocidad de reloj más conservadora. Solo cuando finaliza el juego se reduce la velocidad de reloj en el entorno de escritorio.

El GPU Boost cambia todo esto. En lugar de que la GPU a determinada velocidad de reloj en las aplicaciones más demandantes, GPU Boost automáticamente ajusta la frecuencia de reloj basados en el consumo de poder de la aplicación que se corre en ese momento. En Blattefield3 por ejemplo, en lugar de tener el tope en 150W y sacar más rendimiento de éste, GPU Boost dinámicamente aumenta la velocidad de reloj para aprovechar la tolerancia extra de potencia disponible.


Diferentes juegos utilizan determinadas cantidades de energía. GPU Boost monitorea en tiempo real el consumo de potencia e incrementa la velocidad de reloj cuando hay tolerancia disponible.



¿Como trabaja?

Lo más importante a entender de GPU Boost es que trabaja en tiempo real, monitoreando el Hardware, lo opuesto a los perfiles creados por software. Es un algoritmo que se encarga de buscar cual es la frecuencia y el voltaje adecuados en determinado tiempo. Esto se hace con la medida de parámetros como la temperatura de la GPU, la utilización del Hardware y el consumo de potencia. Dependiendo de estas condiciones, se puede ajustar la velocidad de reloj y el voltaje para sacar el máximo rendimiento dentro de la TDP. Como todo esto es monitoreado en tiempo real e implementado en el Hardware, GPU Boost no requiere de perfiles de aplicación. Cuando un nuevo juego aparece, no habrá que actualizar perfiles ni Drives, simplemente GPU Boost "Trabajará".


El algoritmo de GPU Boost toma una variedad de parámetros de funcionamiento y envía la frecuencia y el voltaje óptimos al GPU. No altera la frecuencia de memoria o voltaje, pero tiene la capacidad de hacerlo.

¿Cuanto puede aumentar el "Boost"?

Debido a que GPU Boost funciona en tiempo real y depende de los varios factores que se renderizan exactamente, es difícil conocer la ganancia en rendimiento precisa a un simple número. Para ayudar a conocer la ganancia típica de rendimiento, todas las GPU Kepler estarán listadas con 2 velocidades de reloj en sus especificaciones: Su velocidad de reloj base y la velocidad con aumento (Boost). El reloj base, equivale a la velocidad actual de todas las GPU NVIDA. Para Kepler equivale al reloj mínimo que la GPU puede usar en aplicaciones intensivas 3D. El reloj de aumento es la velocidad típica que puede correr en una aplicación 3D.


Por ejemplo, la GeForce GTX 680 tiene una velocidad de reloj base de 1006Mhz y el Boost de 1058Mhz. Esto significa que en aplicaciones intensivas 3D la velocidad mínima será de 1006Mhz, pero en la mayoría del tiempo se elevará a 1058Mhz. No siempre será esa velocidad basada en el monitoreo en tiempo real, si no que puede ser mayor o menor, pero siempre cerca de esa velocidad.


GPU Boost no elimina el OverClocking, de hecho, con GPU Boost tiene más de una sola manera de aumentar la velocidad de su GPU. Se puede incrementar la velocidad base y GPU Boost también contribuirá con un aumento proporcional. De otra manera, también se puede aumentar el límite de poder. Esto es útil cuando en algunos juegos se está consumiendo cerca del 100% del límite.


Experiencia de juego auténticamente fluida.



A pesar de los increíbles gráficos que se observan en los juegos hoy en día, todavía hay algunos artefactos de gran distracción que aparecen en el juego a pesar de nuestros mejores esfuerzos para suprimirlos. Lo más irritante de ellos es "Desgarro/Lagrimeo de pantalla.. El Desgarre se observa fácilmente cuando el ratón se desplaza de un lado a lado. El resultado es que la pantalla parece estar dividida entre varios marcos con un efecto de parpadeo intenso que tiende a ser agravada cuando el framerate es alta puesto que un gran número de cuadros están en vuelo en un momento dado, causando múltiples bandas de desgarro.



Un ejemplo de desgarre de pantalla en Battlefield3

La sincronía vertical (V-Sync) es la manera tradicional de remediar esto. Pero muchos jugadores saben que el principal problema con el V-Sync es que cuando la tasa de fotogramas cae por debajo de la tasa de refresco del monitor (normalmente 60 fps), el framerate baja de manera desproporcionada. Por ejemplo, una caída ligera del framerate por debajo de 60fps resulta en caídas de fps a 30fps. Esto sucede porque el refresco de los monitores es fijo (aunque una pantalla LCD no tiene esta limitación, la GPU debe tratarlo como un CRT para mantener la compatibilidad hacia atrás) y V-Sync obliga a la GPU a esperar a la siguiente actualización antes de actualizar la pantalla con una nueva imagen. Esto se traduce en una inestabilidad notable cuando el framerate va por debajo de 60 imágenes por segundo, aunque sólo sea momentáneamente.


Cuando la sincronía vertical es activada y el framerate cae por debajo de la tasa de refresco del monitor el framerate se altera causando inestabilidad.

Con el lanzamiento de los Drivers NVIDIA 300, estamos introduciendo una nueva opción en el panel de control denominado V-Sync adaptativo. V-Sync adaptativo combina los beneficios de V-Sync, minimizando sus inconvenientes. Con V-Sync adaptativo, V-Sync sólo se habilita cuando la tasa de fotogramas es superior a la tasa de refresco del monitor. Cuando la tasa de fotogramas cae por debajo de esta tasa, V-Sync se desactiva automáticamente, reduciendo al mínimo la inestabilidad en los juegos.


El V-Sync Adaptivo dinámicamente enciende y apaga V-Sync para obtener un framerate estable.

Al encender y apagar de forma dinámica V-Sync basados en el rendimiento del juego, V-Sync adaptivo hace que V-Sync sea una opción mucho más atractiva, especialmente para los jugadores que ponen mucha importancia a la tasa de fotogramas suave.

FXAA: Anti-Aliasing a toda velocidad

Nada arruina mejor una experiencia de juego hermosa como lo hacen los bordes dentados. Este efecto hace que líneas rectas se vean torcidas generando distraccióncuando la cámara está en movimiento. La corrección para el efecto dentado es anti-aliasing, pero el método actual de hacer anti-aliasing es muy costoso para mantener altas velocidades de fotogramas. Para empeorar las cosas, su eficacia en la eliminación de bordes dentados ha disminuido en los motores de juego modernos.

Casi todos los juegos hacen uso de una forma de anti-aliasing llamada "multi-muestra de anti-aliasing" (MSAA). MSAA renderiza la imagen a una resolución muy alta luego baja las muestras de la imagen para reducir la apariencia de aliasing. El principal problema con esto es la técnica es que requiere una enorme cantidad de memoria de vídeo. Por ejemplo, 4x MSAA requiere cuatro veces la memoria de vídeo de la prestación estándar. En la práctica, muchos de los jugadores se ven obligados a desactivar MSAA con el fin de mantener un rendimiento razonable.

FXAA es una nueva forma de realizar el suavizado de líneas que es rápido, eficaz y optimizado para los motores de juego modernos. En lugar de hacer todo a cuatro veces la resolución, FXAA recoge los bordes basado en un marco de cuadros en detección de contraste. Entonces, suaviza los bordes en función de su gradiente. Todo esto, como un ligero proceso de sombreado post-procesado.


FXAA no solamente es más rápido que 4XMSAA si no que también produce más calidad de imagen en motores de juegos que usan post-procesado extensivo. Click Aquí para una comparación interactiva.

FXAA produce bordes más suaves. Pero a diferencia de 4xMSAA, que no consume memoria adicional y corre casi tan rápido como sin antialiasing. FXAA tiene la ventaja añadida de que funciona en la geometría transparente como el follaje y ayuda a reducir el sombreado basado en suavizado que a menudo aparece en materiales brillantes.


Comparación del rendimiento del MSAA (Antialiasing Diferido Vs. FXAA (Antialiasing Post) en Battefield3.

Mientras FXAA está disponible en un puñado de juegos de hoy en día, el Driver 300 lo ha integrado en el panel de control. Esto significa que usted será capaz de usarlo en cientos de juegos, incluso los títulos heredados que no son compatibles con anti-aliasing.

TXAA: calidad incluso superior a FXAA


Los efectos en las películas generados por computadora usan una enorme cantidad de recursos en el alisado. Para que los juegos alcancen una calidad de película, los desarrolladores necesitan una neva tecnica de alisado que permirta una calidad sin precedentes sin comprometer rendimiento.

Con Kepler, NVIDIA ha inventado un modo de calidad "AA" mayor llamado TXAA diseñado para la integración directa en los motores de juego. TXAA combina la potencia bruta de MSAA con sofisticados "Filtros Resolve" similares a los usados en las películas GC. En adición, TXAA también puede fluctuar puntos de muestreo entre cuadros de calidad aún mayor.

TXAA está disponible en 2 modos. TXAA1 y TXAA2. El primer modo ofrece calidad visual 8xMSAA con un rendimiento de 2xMSAA y el último ofrece calidad de imagen superior a 8xMSAA con un coste de rendimiento similar a 4xMSAA.


TXAA2 funciona de manera similar a 4xMSAA pero ofrece resultados de mayor calidad que 8xMSAA.

Al igual que nuestra tecnología FXAA, TXAA se integró por primera vez directamente en el motor del juego. Los siguientes juegos, motores, y desarrolladores se han comprometido a ofrecer apoyo a TXAA: MechWarrior en línea, Secret World, EVE Online, Frontera 2, Unreal Engine 4, BitSquid, Slant Six Games y Crytek.

Tecnología NVIDIA Envolvente en un solo GPU GeForce GTX 680

No hay nada tan emocionante como jugar tus juegos favoritos a través de tres monitores. En 5760 x 1080, el campo expandido de vista activa completamente visión periférica y proporciona una súper experiencia de inmersión en las carreras y simuladores de vuelo. Anteriormente, dos GPUs de NVIDIA están obligados a soportar tres monitores. Kepler ahora puede darle poder a tres monitores con una sola tarjeta y jugar con la tecnología NVIDIA Surround, con la opción de un monitor frontal para navegación Web o IM.


Kris Rey de NVIDIA jugando Skyrim a través de tres monitores referenciando la guía de optimización de Skyrim en GeForce.com

Cuando se introdujeron por primera vez los arreglos de 3 monitores su costo era prohibitivo. Hoy en día se pueden adquirir pantallas de alta definición por menos de $150USD. Partiendo de un solo monitor, le cuesta menos de $ 300 para configurar un sistema envolvente como el de arriba (menos el panel de accesorios). Y con una GeForce GTX 680, usted puede hacerlo desde sólo una sola tarjeta gráfica.


Un solo GPU GeForce GTX680 es capaz de correr de hoy en día a través de tres monitores 1080p. Para los títulos más demandantes, SLI es recomendado.

Ajustes de Calidad

  • Crysis , 30.33FPS: Actualización UltraDirectX11 instalada. textura de alta definición
  • activadas, detalle de nivel extremo
  • Deus Ex: Human Revolution, 46.20FPS: Los ajustes más altos, Tesellation activada, FXAA alta activada.
  • Just Cause 2, 46.60FPS: Ajustes máximos, Agua por CUDA activada, 4xMSAA, 16xAF
  • Left 4 Dead 2, 126.10FPS: Ajustes máximos, 4xMSAA, 16xAF.
  • Mafia 2, 51.35FPS: Ajustes máximos, PhysX media activada, AA activada, AF activada.
  • Metro 2033, 40.72FPS: DirectX11 activada, Profuncidad de campo desactivada, Tessellation activada, PhysX desactivada, 4xMSAA, 16xAF. (Todavía acá se la suda)
  • Portal 2, 127.90FPS: Ajustes máxímos, 4xMSAA, 16xAF.
  • The Elder Scrolls V: Skyrim, 59.55FPS: Ultra Preset, Paquete de texturas de alta resolicuón Bethesda, indoor cave scene.
En caso de que usted se esté preguntando, aquí están algunos resultados de rendimiento en el mundo real de la GeForce GTX 680, los juegos a través de tres monitores 1080p. Como puedes ver, no hay escatimar en la calidad aquí. La mayoría de los juegos se juegan en la alta calidad, si no el máximo.

Conclusión

La GeForce GTX 680 es muy diferente a cualquier tarjeta gráfica insignia construíada. Hemos construido la GPU más rápida del mundo para muchas generaciones ahora.. Con Kepler, queríamos hacer algo más que repetir esa hazaña. Kepler es realmente acerca desde los primeros principios y preguntando: más allá del rendimiento, ¿cómo podemos mejorar la experiencia de juego en su conjunto?

Los jugadores nos han dicho que quieren que las GPU son más frías, más silenciosas y más eficientes. Por lo tanto, re-diseñado la arquitectura para hacer precisamente eso. La GeForce GTX 680 consume menos energía que cualquier otro GPU buque insignia desde la GeForce 8800 Ultra, sin embargo, supera a todas las GPU o cualquier otra alguna vez construida.

Queríamos que el Gaming no solo fuera rápido, si no también suave. FXAA y el nuevo TXAA hace ambas cosas. Juegos con bordes super lisos, sin pasar el límite del rendimiento.

V-Sync Adaptivo mejora una característica que muchos jugadores jurarían por ella. Ahora puedes jugar con V-sync activado y no preocuparse por caídas bruscas de velocidad de fotogramas.

Por último, una sola GPU tiene el poder necesario para configuración de envolvente más una pantalla de accesorios. Simplemente no hay mejor manera de jugar un juego de carreras o un simulador de vuelo. Añadir la tecnología NVIDIA PhysX, y la GTX 680 ofrece una experiencia de juego increíblemente rica.

Kepler es el resultado de más de cuatro años de investigación y el desarrollo de algunos de los mejores y más brillantes ingenieros de NVIDIA. Esperamos que tenga algún juego divertido con el cual pueda disfrutar nuestra nueva GPU.

Para más información, visite la página de la GeForce GTX680 o si tiene algún comentario o pregunta puede dejarlo en nuestro Foros GeForce.

Traducción de un humilde bot. Puede contener trazas de errores.
Cualquier comentario, guárdenlo para escribirlo en un post.
* Agregados míos...

Saludos!

Edit

Para finalizar, las fotos de esta hermosa pieza de ingeniería.
Mmm...
Las iba a colocar acá ya que el post aún se puede editar, pero ya estoy cerca del límite de imágenes. Las coloco al final.
30/03/2012 #258


que hermosas placas, todas tanto nvidia como ati! yo siempre tuve nvidia, empece con una fx5200 128mb que me hizo muy feliz, y ahora tengo mi xfx 9500gt 1gbddr2 y no puedo quejar
30/03/2012 #259
Moderador

Avatar de Tacatomon

No se si sería adecuado ponerlo al inicio del tema... Tendré que molestar a Cacho con eso y también para arreglar algunas imágenes rotas.

Esta información es relevante. No dediqué tiempo a la serie 500 de nVidia por que era una extensión actualizada de la serie 400... Pero ahora, con una nueva arquitectura, vale la pena compartir con los amantes de la tecnología este gran avance, que no solo sirve para pasar ratos de ocio, si no que también ayuda de una manera increíble a la ciencia actual.

Saludos!

PS: Ufff, Me cansé Jajajaja. Digamos que 50/50 Google y yo



Y que si dio hambre... Ahorita abro la 470 y me hago un par de huevos ala GPU.
30/03/2012 #260
Moderador

Avatar de Tacatomon

También sería bueno que algún otro usuario tomara parte en la robolución y ponernos al tanto de la contraparte roja AMD y por que no. Con los Procesadores AMD e Intel. Hay mucho info en el mundo del HW para el PC y será muy bueno mantener a la comunidad informada.
¿Tienes una mejor respuesta a este tema? ¿Quieres hacerle una pregunta a nuestra comunidad y sus expertos? Registrate

Buscar más temas sobre:
Lupa Actualidad tecnológica

Discusión de noticias relacionadas con nuestro medio.

Cerrar
Foros de Electrónica » Compartiendo con la comunidad » Actualidad tecnológica

Powered by vBulletin® Version 3.8.4
Copyright ©2000 - 2017, Jelsoft Enterprises Ltd.
Search Engine Optimization by vBSEO ©2011, Crawlability, Inc.