Cual es la diferencia entre Geforce y Quadro??
-
Al menos ya ganas algunos framecillos. Pero sigo pensando que no es lo mismo :nono:
Saludos
-
Yo ya la e pasado siguiendo los pasos y mi pregunta es, debo hacerle overclock con el coolbits? a k velocidad va una Quadro (core/ram)? yo miro en la config de la grafica y me pone 350/1000 igualmente.
-
X lo k veo no es tan facil como usar el riva y ya esta:
http://www.pcwelt.de/know-how/hardware/108514/index1.html
X cierto, yo tengo el valor DEBUG ese como el de la imagen (con el 21), me tendria k animar y acer esto no?? xD
Lo que al ser aleman eso k te salen los dibujos de los chips k (x lo k veo) se tienen k unir, eso como se hace? soldando? con pintura? o k?Tampoco veo que sea muy dificil, es unir esos "chips" y luego es lo xungo, flashear con un diskette y kiza te kedan sin grafica.
-
Eso es un hardmod, no un softmod. Lo del Rivatuner no implica modificar la gráfica.
-
Xo un hardmod si k ara k el rendimiento sea mas parecido a una Quadro que con softmod no? xo esk eso de juntar chips no me mola muxo xD.
X cierto lo de las frecuencias k? la quadro a cuala va? e probado a subir las frekuencias con el coolbits xo lo k ace esk parpadea la pantalla, me explico, cada 5 segundos se parpadea en negro, osea k cada 5 segundos se pone negra, vuelve a la normalidad, negra, normalidad etc…, e reniciado y dejare los valores k me indica 350/1000. Xo sabeis algo acerca de esto? pk si una quadro va a 350/1000, tendra el mismo rendimiento que cuando sta en 6800GT digo yo no?
Pd: X cierto, como puedo saber si a subido el rendimiento? e pasado el 3dmark05 y me a dado 4810 puntos, eso creo k tmb lo da con una 6800GT a secas. Que puede ser? Yo se k cuando la tenia a 400/1100 me daba 5515 xo al no poder tocar las frekuencias x el problema comentado, nose si me daria el mismo resultado aunke, si a 400/1100 me da 5515 y a quadro fx 4000, 4810, no es mejor dejarla a 400/1100?
-
Al final la e vuelto a poner 6800GT pk incluso me daba menos score en el 3dmark 05 (4950 con la GT y 4810 con la FX 4000), tmb el en battlfield 2 las sombras no estaban bien, y en el Source el agua desaparecía. Me kedo con la GT@Ultra hasta que no veo ya una imagen de una GT@quadro con un buen score.
-
A ver, esto no es para jugar, es un mod para los que necesitan utilizar su tarjeta en aplicaciones profesionales. Si lo que quieres es mejores puntuaciones en el 3DMark y en juegos, overclockea la tarjeta.
-
A ver, esto no es para jugar, es un mod para los que necesitan utilizar su tarjeta en aplicaciones profesionales. Si lo que quieres es mejores puntuaciones en el 3DMark y en juegos, overclockea la tarjeta
Una Quadro tambien sirve para jugar. Si la tarjeta de MasMe una vez modeada da errores en texturas o polígonos bajo OpenGL en un juego, que no le pasará cuando tenga que utilizar 3D Studio o Lightwave. Lo que no es, no es, y además es imposible.
-
Lo que digo es que este mod no es para los que quieren mejorar su rendimiento en juegos. Los drivers para Quadro los actualizan mucho menos que los de GeForce, ya que los tienen que probar mucho más, además de centrarse en otras cosas. Otra cosa, tanto el Source como el Battlefield 2 son Direct3D9, no OpenGL.
PD: Que coño, se entiende perfectamente. Me parece que te falta comprensión lectora, y expulsar menos bilis, que te va a salir una úlcera.
-
PD: Que coño, se entiende perfectamente. Me parece que te falta comprensión lectora, y expulsar menos bilis, que te va a salir una úlcera.
Pues parece que la úlcera te saldrá a ti.
No he dicho nada raro ni he dicho que no se entienda nada de lo que has dicho, pero parece que te molesta que te repliquen. Lo siento, pero no todos opinamos como tú.
-
No es mi intención el que todos opinéis como yo, pero una cosa es llevar la contraria de forma razonada, y otra es llevarla por llevarla a cualquier cosa que digo, como es tu caso.
-
Vamos a ver.
MasMe dice que una vez convertida a Quadro tiene problemas gráficos con juegos ¿No? Hasta ahi bien.
Tu dices que la conversión (mod) a Quadro no es para jugar, sino para conseguir prestaciones profesionales ¿OK? Vale
Y yo a lo que me refiero esssssssssss:
Si modeada a Quadro YA LE DA PROBLEMAS ….con juegos y sin juegos los problemas estarán ahí
Si fuera una Quadro en toda regla....LO USE PARA JUGAR O LO USE PARA EL AUTOCAD NO LE DARÁ NINGÚN PROBLEMAYO no se donde está la tergiversación.....por mas que busco....a lo mejor es verdad que no entiendo lo que leo....tendré que ir al cole otra vez...u otros dejar de ver fantasmas donde no hay nada
-
pues hombre yo he logrado mutarla simplemente con el Rivatuner y se han desbloqueado las opciones profesionales y toda la cosa, estas ayudan mucho a la hora de trabajar con MAYA que es el que estoy utilizando en este momento.
Cuando estaba 6800 normalita perdia rendimiento ya que los drivers para las Geforce funcionan de manera globalizada y no especifica como los de las Quadro igualmente le pase el SPECViewperf81 y el rendimiento aumento un 15%, la verad no me voy a poner a desarmar la tarjeta cojer y soldar lo que no es y despues a comprar grafica!!! jeje hay alemanes,,,,,,,, :rolleyes: hombre yo de ti no lo hacia ni loco pero ni locomira este link hay esta las frecuencias de la FX4400 que son las mismas de la FX 4000 la diferencia entre una y la otra es que la 4000 es AGP y la 4400 es PCI-E aaaaaaa…........y mi ra el PRECIO :eoh: :eoh: :eoh:
http://www.newegg.com/Product/Product.asp?Item=N82E16814133141 -
$1,728.00 ¡¡ Que barbaridad !! :frio:
-
Si modeada a Quadro YA LE DA PROBLEMAS ….con juegos y sin juegos los problemas estarán ahí
Si fuera una Quadro en toda regla....LO USE PARA JUGAR O LO USE PARA EL AUTOCAD NO LE DARÁ NINGÚN PROBLEMAAqui es donde está tu error. Los drivers que utiliza una tarjeta y los que utiliza la otra no son los mismos, y por eso unos se centran en que funcionen bien los juegos y otros en que funcionen bien las aplicaciones profesionales. Si te vas a la página de nVidia, verás que los drivers para Quadro van varias versiones por detrás, e incluso recomiendan drivers concretos para cada aplicación, en algunos casos versiones tan antiguas como la 53.03.
Sobre si son el mismo chip o no, cuando nVidia (o ATI) diseña la futura gama de chips, lo hace teniendo en cuenta las tarjetas profesionales. Se venden más de doscientos millones de chips gráficos al año (incluyendo los chipsets con gráficos integrados) y el número de tarjetas profesionales que se venden está en el entorno del millón. Cuando diseñas un chip, tienes que contar con los gastos de investigación, desarrollo de máscaras, los tape-outs (pruebas en silicio para ver posibles fallos, que cada una cuesta en el entorno de diez millones de $) que realices, el desarrollo de los drivers… Teniendo en cuenta el ínfimo número de tarjetas profesionales que se venden respecto al total, las opciones que tienen los fabricantes es introducir esas "características profesionales" en todos los chips, y deshabilitarlas en la mayoría, o producir chips específicos que costarían una fortuna y fueran independientes de los que son "para jugar". Me parece que la solución razonable es obvia. Además, esas "características profesionales" son la mayoría de las veces una configuración diferente de la tarjeta para permitir instalar los drivers o no, como puede ser una resistencia cambiada o una bios diferente.
Si la tarjeta se diseñara desde cero para aplicaciones profesionales, tendrían muchas más unidades de vértices, y menos de píxeles, ya que lo que importa en estas tarjetas es sobre todo la capacidad para mover mallas de polígonos, y no aplicación de sombreado en los píxeles o la tasa de relleno, como en los juegos, ya que eso se realiza por el procesador cuando se realiza el renderizado, que no es en tiempo real, y en el que la gráfica no influye para nada. Las únicas tarjetas diseñadas desde cero para ser utilizadas en aplicaciones profesionales son las que fabrica 3DLabs, que solo vende tarjetas profesionales y consigue un rendimiento magnífico con una tarjeta muy inferior en juegos, ya que tiene unas unidades de vértices tremendamente potentes respecto a sus unidades de texturas y de píxeles.
PD: las tarjetas profesionales son tremendamente rentables para las compañías debido a que les cuesta la fabricación lo mismo que una tarjeta normal, pero el precio de venta es de 5 a 15 veces mayor que la tarjeta equivalente.
-
Asi que, x lo puedo entender, kien se dedica a aplicaciones profesionales xo tmb juega (como es normal) al battlfield 2, source, etc… que? tiene k comprarse 2 graficas?¿?¿ No encuentro la logica. Respecto las frequencias son 350/1000 para la GT y 375/1000 para la quadro
-
Hombre, yo creo que Kynes lo ha explicado perfectamente.
A ver lo que ha dicho Kynes no es que te tengas que comprar dos gráficas… una para jugar y otra para render de aplicaciones profesionales... sólo ha dicho, y esta totalmente en lo cierto, que cuando una compañia diseña un chip gráfico, le sale más rentable realizar dicho chip, y luego según a que mercado se dirige, activar o desactivar ciertas caracteristicas. Para un usuario parece ilógico dirás,¿pero si la tarjeta es buena porque la desmejoran?, pues muy sencillo, para que exista una "gama alta" que en teoria te tengas que comprar para uso profesional, ya que en definitiva, mi geforce 6800Gt no tiene para programas gráficos profesionales las caracteristicas de las Quadro pues estan desactivadas, y el que necesite esas características estará dispuesto a pagar esa pasta gansa, mientras que a un gamer, lo que quiere es rendimiento en los juegos, y no pagaria esas cantidades de dinero. Y nVidia y demás fabricantes se ahorran el tener que diseñar dos modelos de chips(gama alta y gama baja)... pero al igual que ellos hacen "trampita", luego aparecen los genios desensambladores (o tal vez dentro de la propia empresa salen "chivatazos"), para que la tarjeta se identifique como una quadro, y mute con sus caracteristicas plenamente funcionales (ya que es el mismo chip)...
No tiene vuelta de hoja, y Kynes lo ha explicado con sumo detalle, pues en temas de graficas es un fiera..(yo simplemente oigo campanas así por encima )
En cuanto a las frecuencias, no sé ¿Las quadro llevan algo de overclock? ¿Tal vez esten mejor refrigeradas? ¿Son remesas que disipan menos calor?
-
Van más rápidas que las GT, pero más lentas que las Ultra. Depende de con que modelo las compares, puedes decir que se les ha hecho overclock o underclock. Normalmente estos modelos suelen tener un sistema de refrigeración mejor al de las tarjetas para jugar. Se lo pueden permitir por el precio que cuestan, y un fallo en este tipo de cosas es mucho más doloroso que en una tarjeta para jugar, ya que puede provocar que una empresa que vaya a renovar todos sus equipos, se decida por otra compañía y son muchas ventas muy rentables que deja de hacer. Además, un sistema de refrigeración no tan bueno es mucho más problemático en estas tarjetas porque un usuario doméstico tiene menos reparos a la hora de cambiar el disipador por una solución mejor (hay mucha gente que lo hace con sus tarjetas y pone zalmans, silencers…) mientras que un "profesional" no se puede permitir quedarse sin garantía por el coste del producto. Solo hay que ver como ejemplo que el único modelo de G70 que existe actualmente con disipador de dos slots y heatpipes es el Quadro.
Respecto a lo de jugar con una tarjeta profesional, si que vas a poder jugar con ella, pero siempre tendrás el lastre de unos drivers menos "pulidos" que en el caso de las tarjetas normales. Otra cosa es el fallo de las sombras del BF2, que creo (no estoy seguro) que es un fallo del juego, porque pasa tanto a tarjetas ATI como a tarjetas nVidia.
PD: Gracias chipn3d2 por explicarlo muy clarito, muchas veces me lio a la hora de intentar explicar lo que quiero decir y doy muchas vueltas innecesarias. Quizás por eso hay personas que no entienden lo que quiero decir exactamente, y esto no va con ironía.
-
Si, el BF2 pasa con viejas Geforce y algunas ATi's xo k no salga el agua en el Source ya es problema de no tener el juego presente en los drivers de Quadro. Al final la he dejado GT a 430/1200 y a 47º en idle y 57º en full con el NV5 Rev.2 y uno de 120x120 dandole aire al NV (eh xD)
-
jaja esos Alemanes, ya se parecen a los Holandese, que locos, bueno yo no llegare a tanto….igual ya con el rendimineto ganado con el riva es suficiente, hombre las velocidades de la Quadro son las mismas que la 6800GT, asi que no te preocupes, y si hiciste bien los cambios con el riva tuner, veras que si hay diferencia!!