Cual es la diferencia entre Geforce y Quadro??
-
A ver, esto no es para jugar, es un mod para los que necesitan utilizar su tarjeta en aplicaciones profesionales. Si lo que quieres es mejores puntuaciones en el 3DMark y en juegos, overclockea la tarjeta.
-
A ver, esto no es para jugar, es un mod para los que necesitan utilizar su tarjeta en aplicaciones profesionales. Si lo que quieres es mejores puntuaciones en el 3DMark y en juegos, overclockea la tarjeta
Una Quadro tambien sirve para jugar. Si la tarjeta de MasMe una vez modeada da errores en texturas o polígonos bajo OpenGL en un juego, que no le pasará cuando tenga que utilizar 3D Studio o Lightwave. Lo que no es, no es, y además es imposible.
-
Lo que digo es que este mod no es para los que quieren mejorar su rendimiento en juegos. Los drivers para Quadro los actualizan mucho menos que los de GeForce, ya que los tienen que probar mucho más, además de centrarse en otras cosas. Otra cosa, tanto el Source como el Battlefield 2 son Direct3D9, no OpenGL.
PD: Que coño, se entiende perfectamente. Me parece que te falta comprensión lectora, y expulsar menos bilis, que te va a salir una úlcera.
-
PD: Que coño, se entiende perfectamente. Me parece que te falta comprensión lectora, y expulsar menos bilis, que te va a salir una úlcera.
Pues parece que la úlcera te saldrá a ti.
No he dicho nada raro ni he dicho que no se entienda nada de lo que has dicho, pero parece que te molesta que te repliquen. Lo siento, pero no todos opinamos como tú.
-
No es mi intención el que todos opinéis como yo, pero una cosa es llevar la contraria de forma razonada, y otra es llevarla por llevarla a cualquier cosa que digo, como es tu caso.
-
Vamos a ver.
MasMe dice que una vez convertida a Quadro tiene problemas gráficos con juegos ¿No? Hasta ahi bien.
Tu dices que la conversión (mod) a Quadro no es para jugar, sino para conseguir prestaciones profesionales ¿OK? Vale
Y yo a lo que me refiero esssssssssss:
Si modeada a Quadro YA LE DA PROBLEMAS ….con juegos y sin juegos los problemas estarán ahí
Si fuera una Quadro en toda regla....LO USE PARA JUGAR O LO USE PARA EL AUTOCAD NO LE DARÁ NINGÚN PROBLEMAYO no se donde está la tergiversación.....por mas que busco....a lo mejor es verdad que no entiendo lo que leo....tendré que ir al cole otra vez...u otros dejar de ver fantasmas donde no hay nada
-
pues hombre yo he logrado mutarla simplemente con el Rivatuner y se han desbloqueado las opciones profesionales y toda la cosa, estas ayudan mucho a la hora de trabajar con MAYA que es el que estoy utilizando en este momento.
Cuando estaba 6800 normalita perdia rendimiento ya que los drivers para las Geforce funcionan de manera globalizada y no especifica como los de las Quadro igualmente le pase el SPECViewperf81 y el rendimiento aumento un 15%, la verad no me voy a poner a desarmar la tarjeta cojer y soldar lo que no es y despues a comprar grafica!!! jeje hay alemanes,,,,,,,, :rolleyes: hombre yo de ti no lo hacia ni loco pero ni locomira este link hay esta las frecuencias de la FX4400 que son las mismas de la FX 4000 la diferencia entre una y la otra es que la 4000 es AGP y la 4400 es PCI-E aaaaaaa…........y mi ra el PRECIO :eoh: :eoh: :eoh:
http://www.newegg.com/Product/Product.asp?Item=N82E16814133141 -
$1,728.00 ¡¡ Que barbaridad !! :frio:
-
Si modeada a Quadro YA LE DA PROBLEMAS ….con juegos y sin juegos los problemas estarán ahí
Si fuera una Quadro en toda regla....LO USE PARA JUGAR O LO USE PARA EL AUTOCAD NO LE DARÁ NINGÚN PROBLEMAAqui es donde está tu error. Los drivers que utiliza una tarjeta y los que utiliza la otra no son los mismos, y por eso unos se centran en que funcionen bien los juegos y otros en que funcionen bien las aplicaciones profesionales. Si te vas a la página de nVidia, verás que los drivers para Quadro van varias versiones por detrás, e incluso recomiendan drivers concretos para cada aplicación, en algunos casos versiones tan antiguas como la 53.03.
Sobre si son el mismo chip o no, cuando nVidia (o ATI) diseña la futura gama de chips, lo hace teniendo en cuenta las tarjetas profesionales. Se venden más de doscientos millones de chips gráficos al año (incluyendo los chipsets con gráficos integrados) y el número de tarjetas profesionales que se venden está en el entorno del millón. Cuando diseñas un chip, tienes que contar con los gastos de investigación, desarrollo de máscaras, los tape-outs (pruebas en silicio para ver posibles fallos, que cada una cuesta en el entorno de diez millones de $) que realices, el desarrollo de los drivers… Teniendo en cuenta el ínfimo número de tarjetas profesionales que se venden respecto al total, las opciones que tienen los fabricantes es introducir esas "características profesionales" en todos los chips, y deshabilitarlas en la mayoría, o producir chips específicos que costarían una fortuna y fueran independientes de los que son "para jugar". Me parece que la solución razonable es obvia. Además, esas "características profesionales" son la mayoría de las veces una configuración diferente de la tarjeta para permitir instalar los drivers o no, como puede ser una resistencia cambiada o una bios diferente.
Si la tarjeta se diseñara desde cero para aplicaciones profesionales, tendrían muchas más unidades de vértices, y menos de píxeles, ya que lo que importa en estas tarjetas es sobre todo la capacidad para mover mallas de polígonos, y no aplicación de sombreado en los píxeles o la tasa de relleno, como en los juegos, ya que eso se realiza por el procesador cuando se realiza el renderizado, que no es en tiempo real, y en el que la gráfica no influye para nada. Las únicas tarjetas diseñadas desde cero para ser utilizadas en aplicaciones profesionales son las que fabrica 3DLabs, que solo vende tarjetas profesionales y consigue un rendimiento magnífico con una tarjeta muy inferior en juegos, ya que tiene unas unidades de vértices tremendamente potentes respecto a sus unidades de texturas y de píxeles.
PD: las tarjetas profesionales son tremendamente rentables para las compañías debido a que les cuesta la fabricación lo mismo que una tarjeta normal, pero el precio de venta es de 5 a 15 veces mayor que la tarjeta equivalente.
-
Asi que, x lo puedo entender, kien se dedica a aplicaciones profesionales xo tmb juega (como es normal) al battlfield 2, source, etc… que? tiene k comprarse 2 graficas?¿?¿ No encuentro la logica. Respecto las frequencias son 350/1000 para la GT y 375/1000 para la quadro
-
Hombre, yo creo que Kynes lo ha explicado perfectamente.
A ver lo que ha dicho Kynes no es que te tengas que comprar dos gráficas… una para jugar y otra para render de aplicaciones profesionales... sólo ha dicho, y esta totalmente en lo cierto, que cuando una compañia diseña un chip gráfico, le sale más rentable realizar dicho chip, y luego según a que mercado se dirige, activar o desactivar ciertas caracteristicas. Para un usuario parece ilógico dirás,¿pero si la tarjeta es buena porque la desmejoran?, pues muy sencillo, para que exista una "gama alta" que en teoria te tengas que comprar para uso profesional, ya que en definitiva, mi geforce 6800Gt no tiene para programas gráficos profesionales las caracteristicas de las Quadro pues estan desactivadas, y el que necesite esas características estará dispuesto a pagar esa pasta gansa, mientras que a un gamer, lo que quiere es rendimiento en los juegos, y no pagaria esas cantidades de dinero. Y nVidia y demás fabricantes se ahorran el tener que diseñar dos modelos de chips(gama alta y gama baja)... pero al igual que ellos hacen "trampita", luego aparecen los genios desensambladores (o tal vez dentro de la propia empresa salen "chivatazos"), para que la tarjeta se identifique como una quadro, y mute con sus caracteristicas plenamente funcionales (ya que es el mismo chip)...
No tiene vuelta de hoja, y Kynes lo ha explicado con sumo detalle, pues en temas de graficas es un fiera..(yo simplemente oigo campanas así por encima )
En cuanto a las frecuencias, no sé ¿Las quadro llevan algo de overclock? ¿Tal vez esten mejor refrigeradas? ¿Son remesas que disipan menos calor?
-
Van más rápidas que las GT, pero más lentas que las Ultra. Depende de con que modelo las compares, puedes decir que se les ha hecho overclock o underclock. Normalmente estos modelos suelen tener un sistema de refrigeración mejor al de las tarjetas para jugar. Se lo pueden permitir por el precio que cuestan, y un fallo en este tipo de cosas es mucho más doloroso que en una tarjeta para jugar, ya que puede provocar que una empresa que vaya a renovar todos sus equipos, se decida por otra compañía y son muchas ventas muy rentables que deja de hacer. Además, un sistema de refrigeración no tan bueno es mucho más problemático en estas tarjetas porque un usuario doméstico tiene menos reparos a la hora de cambiar el disipador por una solución mejor (hay mucha gente que lo hace con sus tarjetas y pone zalmans, silencers…) mientras que un "profesional" no se puede permitir quedarse sin garantía por el coste del producto. Solo hay que ver como ejemplo que el único modelo de G70 que existe actualmente con disipador de dos slots y heatpipes es el Quadro.
Respecto a lo de jugar con una tarjeta profesional, si que vas a poder jugar con ella, pero siempre tendrás el lastre de unos drivers menos "pulidos" que en el caso de las tarjetas normales. Otra cosa es el fallo de las sombras del BF2, que creo (no estoy seguro) que es un fallo del juego, porque pasa tanto a tarjetas ATI como a tarjetas nVidia.
PD: Gracias chipn3d2 por explicarlo muy clarito, muchas veces me lio a la hora de intentar explicar lo que quiero decir y doy muchas vueltas innecesarias. Quizás por eso hay personas que no entienden lo que quiero decir exactamente, y esto no va con ironía.
-
Si, el BF2 pasa con viejas Geforce y algunas ATi's xo k no salga el agua en el Source ya es problema de no tener el juego presente en los drivers de Quadro. Al final la he dejado GT a 430/1200 y a 47º en idle y 57º en full con el NV5 Rev.2 y uno de 120x120 dandole aire al NV (eh xD)
-
jaja esos Alemanes, ya se parecen a los Holandese, que locos, bueno yo no llegare a tanto….igual ya con el rendimineto ganado con el riva es suficiente, hombre las velocidades de la Quadro son las mismas que la 6800GT, asi que no te preocupes, y si hiciste bien los cambios con el riva tuner, veras que si hay diferencia!!
-
Me alegro de que te vaya bien, Jhozeff.
-
Y el consumo? Supongo que le afectará en algo. ¿se calentará mas?
Si obtienes rendimientos extra en algo se debe notar.
¿Le podrá servir el mismo disipador que tiene de fabrica o habra que pillarse otro ??Tantas dudas…. :rolleyes:
-
Yo al final la e dejado a 6800GT a 430/1200 k me da mas rendimiento en juegos que no a Quadro.
-
pues cierto, al parecer al modear a Quadro, se pierden unos cuantos frames en los juegos, he realizado pruebas con el DOOM III con antialisant 0 / Anisotropic 8 / calidad maxima en drivers / calidad alta en juego / 1024*768 dando como resultado en el timedemo_demo1 la 6800 normal = 58 FPS y en Quadro = 56@54 FPS, se perdieron entre 2 y 4 frames que no creo que se noten andando por encima de los 50 FPS.
Imagino que esos frames se pierden por una mala configuracion ya que al cambiar a Quadro el panel de los drivers de nVidia cambia y da muchas opciones avanzadas, y si lo configuro para los programas 3D muy probablemente se desconfigura para los juegos.
A la pregunta de OceAtor sobre la temperatura, pues yo no he notado cambio!! ya que mi tarjeta usa el sistema Gigabyte Silenpipe ZALAMAN de fabrica "no ventilador" y esta normalmente ronda por los 68C y a full llega a los 95C, trabaja calientica!! aunque sin perder rendimiento!! ni na!!