Nueva8800GTS 512MB/ <300€!
-
A todo esto voy a contar un chiste, que eSPAMearse.
:risitas: :risitas: :risitas: :risitas:
PD: Lo habeis pillao?, cuñaoooooo…..
PD2: Toy fatal :sisi: , lo se :risitas:
PD3: Malo de cojones pero estoy con el examen de mecanismos y flipo con un tocho de 50 hojas de exámenes resueltos :muerto:PD4: Y tú te consideras moderador?
PD5: Ridículo.
PD6: Esto es un hobbie, al menos en mi caso, y gente como tú me hace pensar que estoy perdiendo el tiempo… :vayatela:
PD7: A mí una tienda online no me da de comer, y para comer ya gano más que suficiente
PD8: 50 hojas? Cuando te manden examenes de 400 hojas que harás? :risitas: -
PD4: Y tú te consideras moderador?
PD5: Ridículo.
PD6: Esto es un hobbie, al menos en mi caso, y gente como tú me hace pensar que estoy perdiendo el tiempo… :vayatela:
PD7: A mí una tienda online no me da de comer, y para comer ya gano más que suficiente
PD8: 50 hojas? Cuando te manden examenes de 400 hojas que harás? :risitas:O muy joven eres o poca cabeza tienes, para seguir faltando después de que te brinden la oportunidad de olvidar malos entendidos :vayatela:
Muchos foreros SON profesionales de la informática, tienen webs especializadas, tiendas, etc … pero ninguno que lleve algo de tiempo tiene la falta de educación de la que haces gala :vayatela:
Este foro lleva MUCHO siendo de los mejores, sinó el mejor... por algo será :rollani:
En fin, mucha suerte con el foro Paco & company , yo por el momento me abro y me voy a otro lado a intentar seguir aprendiendo y compartiendo conocimientos
Hasta nunca
-
PD4: Y tú te consideras moderador?
No es que hubo un sorteo y me toco
PD5: Ridículo.
Joder, solo hay que ver mi nick para ver qe soy un cutre
PD6: Esto es un hobbie, al menos en mi caso, y gente como tú me hace pensar que estoy perdiendo el tiempo… :vayatela:
Pues no lo pierdas que luego cuesta encontralo :rollani:
PD7: A mí una tienda online no me da de comer, y para comer ya gano más que suficiente
Me parece perfecto, porque ser SPAMER no es un trabajo digno. :nono: (y me han dicho que esta muy mal pagado :sisi: )
PD8: 50 hojas? Cuando te manden examenes de 400 hojas que harás? :risitas:
Nadie ha hablado de apuntes o temario :risitas:
PD: Lo que me hace diferente no es lo que escribo, es lo que soy :risitas: :risitas: :risitas: :risitas:
-
Tio, hubieras quedado mucho mas -elegante- si simplemente hubieras dejado el post cuando dijistes que te habias equivocado. Aqui se permiten hablar de webs de venta, pero si abres una rama en plan anuncio diciendo que tal tienda tiene tal grafica a un buen precio, pues la verdad, como minimo parece SPAM.
A nadie le gusta que le sermoneen, pero si te equivocas hay que aceptarlo. Tambien hay que tener en cuenta que en un foro lo que escribes se queda ahi, y no hay matizaciones, ni acentos, ni tonos de voz y tampoco hay gestos que ayuden a aclarar un mensaje. Con esto quiero decir que a veces se inician discusiones por una frase ambigua, o un malentendido, y hay que saber conversar y aclararlo (soy el primero al que le ha pasado), y tambien creo que no es manera decir "que foro mas hostil :resaca: ".
Y ahora sin salirme mas de la rama, la grafica no esta mal del todo, aunque viendo el rendimiento de la gt vs a la gts y valiendo 100e menos la veo mucho mejor situada. A ver si unos drivers nuevos le ayudan a mejorar porque esta grafica parecia que iba a ser la leche, y al final no ha representado nada nuevo (consume y se calienta menos que la ultra, pero tiene practicamente el mismo rendimiento), aunque tambien vale la mitad que la ultra y son 300e menos O_o
Espinete lo que pasa es que viendo la gran mejora que estan obteniendo las arquitecturas (vease la paliza de c2d vs p4d), yo creo que se estan mejorando bastante los procesadores. Quizas mas escalonadamente y no como antes, que cada poco incrementaban la velocidad con nuevos procesadores y tal, y ahora sacan una nueva arquitectura y viven una temporadita de rentas, sin subir mucho los clocks, pero al fin y al cabo estan mejorando el rendimiento de aplicaciones de un solo hilo.
-
Jajaja, mas bien lo decia por algnos fanaticos de otros foros, que casi mal venden su 8800GTS o GTX, como si les fuera la vida en ello.
Ya se que tu caso es muy diferente, incluso yo te anime.Bueno, y ya puestos, daremos gracias por los Links de las tiendas xD Pero no tengo esos 300 euracos
Esperaremos a las rebajas…no? xDSi…la verdad...tu eres el culpable... :mad: de estar 2 semanas sin ordenador... :mad: me debes 60 euros...cuando quieres que te diga la cuenta donde ingresarlos???? :risitas: :risitas: :risitas:
P.D.: Lo de Jorge es una cosa que la verda...ni me va ni me viene...yo entro aki para asesorarme, asesorar y a disfrutar...los demas...pues eso, a otra cosa... :sisi:
-
No es para ofender a nadie, pero esto parece una discusión de críos ya.
Desde mi humilde opinión te daría de consejo Jorge_1 que lo dejaras como esta y para demostrar que no eres un spaner nada mejor que seguir posteando asiduamente en este foro que aquí no hay mala gente y se aprende mucho.
Volviendo al tema, comparto la opinión de Istarion y añadir que las ati 38x0 cada vez me gustan mas :). -
Espinete lo que pasa es que viendo la gran mejora que estan obteniendo las arquitecturas (vease la paliza de c2d vs p4d), yo creo que se estan mejorando bastante los procesadores. Quizas mas escalonadamente y no como antes, que cada poco incrementaban la velocidad con nuevos procesadores y tal, y ahora sacan una nueva arquitectura y viven una temporadita de rentas, sin subir mucho los clocks, pero al fin y al cabo estan mejorando el rendimiento de aplicaciones de un solo hilo.
Vale, pero si la nueva arquitectura de Intel va a tardar un año, mientras ya habrá gráficas el doble de potentes que no podrán ser aprovechadas por ningún micro actual, con lo que montar un sistema multigpu sera cuanto menos ridículo. (más que ahora )
A menos que Intel suba la velocidad de los procesadores, cosa que no dudo vaya a hacer pero que sera insuficiente si tenemos en cuenta que no conseguirán doblar la velocidad (mejor dicho la potencia de calculo), mientras que la gráficas si (que es a lo que iba).
También es muy posible que sea AMD la que tenga la llave en este aspecto porque si Phenom despega podríamos ver dos cosas. O Intel contraataca o AMD se los merienda.
PD: También es cierto que los DX10 merman un burrada el rendimiento para las mejoras que ofrecen y por eso se requiere de gráficas más potentes y no tanto de CPUs más potentes.
-
Vale, pero si la nueva arquitectura de Intel va a tardar un año, mientras ya habrá gráficas el doble de potentes que no podrán ser aprovechadas por ningún micro actual, con lo que montar un sistema multigpu sera cuanto menos ridículo. (más que ahora )
A menos que Intel suba la velocidad de los procesadores, cosa que no dudo vaya a hacer pero que sera insuficiente si tenemos en cuenta que no conseguirán doblar la velocidad (mejor dicho la potencia de calculo), mientras que la gráficas si (que es a lo que iba).
Ok sabia que irias por ahi porque yo tambien es lo que me temo ;D
Ahora me asaltan un par de dudas, a ver, ahora mismo cuando la grafica pide cosas a la cpu (tipo texturas, etc.), solo hay un core que se las proporciona? Uhm pensandolo bien si… entonces claro, dependes de que ese core vaya a toda leche.
Uhhmmmm no se como se podrian utilizar varios nucleos para pasarle datos a la grafica, porque ahora mismo pensando en aplicaciones OGL por ejemplo, no veo como hacer que una funcion se ejecute en dos procesadores... vaya que raro nunca se me habia ocurrido esto la verdad que no me queda muy claro, si me pega el puntazo mirare de hacer pruebas con el portatil a ver que pasa
Bueno a lo que iba era que si se pueden utilizar dos cores para pasarle info a la grafica las cosas iran "bien", lo malo sera si sobrecargan el bus de datos a saco, en plan que el northbridge limite las transferencias... ahi amd si que lleva ventaja, total el controlador esta en el micro...No se como acabara, hay que ver la siguiente generacion de graficas, como empiecen a estar limitadas va a dar miedo... a mi realmente me sorprende mucho como mejoran las graficas generacion tras generacion y lo poco que lo hacen a veces los procesadores, aunque sean mucho mas complejos tambien tienen muchos mas ingenieros detras Vamos que siguiendo esto tambien se acerca mas a la teoria de espinete xDD uff espero que te equivoques porque para superar estos cuellos de botella se necesitaria un cambio de plataforma en plan ram + placa + cpu bastante mejorados, vamos, bastante dinero...
Por cierto Kernel, a mi las 3850 me parecen la mejor tarjeta grafica en relacion calidad/precio del mercado, y despues la 8800gt. La 3870 esta mal situada por su rendimiento (ademas esta algo inflada en las tiendas, y las gt bastante rebajadas aunque no haya stock), ahora bien, si realmente bajan de precio estas navidades, pueden quedarse en una franja buenisima, que seria alrededor de los 150e!! Y las 3850 merendandose todo el resto de graficas de gama baja sobre los 120e o asi :sisi:
-
Las CPUs cada vez son menos importantes para renderizar los juegos. DX10 acentúa aún más eso con sus nuevas funciones. Las CPUs se encargaran cada vez menos del apartado gráfico y se utilizaran principalmente para la IA y sonido.
Programar un juego en multihilo (otro tipo de aplicaciones es más "sencillo") es bastante complicado ya que en tiempo real son muchas cosas las que a la vez han de sincronizarse (colisiones, gráficos, sonidos, físicas, eventos, etc) y si un por ejemplo un core se retrasa en un cálculo te arriesgas a que todo el rendimiento que podrías haber ganado al dividir las tareas se vaya al tarste. Las CPUs Heterogéneas podrían mejorar eso, pero aún falta para que las veamos…En cuanto a que las CPUs son más complejas... creo que no es así Istarion. Una GPU tiene más componentes internos y externos que una CPU. Pero no soy ingeniero y no sé el porque las gráficas evolucionan mucho más que las CPUs jejeje alguna explicación tendrá jejeje.
Y sobre las nueva GTS… tras el nuevo disipador oficial de nVIDIA para las 8800GT (el de ventilador de 75mm), la GTS sería la 3ª revisión de la GT... no veo un salto como para sacar un nuevo modelo que rinde como una 8800GT OC. Me esperaba una cosa más parecida a la 8800Ultra aunque viendo las velocidades de funcionamiento era de esperar. Habrá que esperar a la Serie 9 para cambiar de GPU...
La ATI 38xx tampoco me terminan de convencer ya que en algunos juegos rinde muy bien pero en otro rinden mucho menos que las nVIDIA.Saludos
-
Volviendo al tema, comparto la opinión de Istarion y añadir que las ati 38x0 cada vez me gustan mas :).
Pues acabo de ver en las noticias de N3D una HD3850 con 512 MB "DDR4" xD Yo creo que todavía falta por ver que sorpresas nos darán las jodias HD3800.
En parte me alegro que Amd/Ati saque unos beneficios decentes, por que esta la pobre de capa caída.
Además, he leído que ahora mismo Amd cuesta menos que lo que costo la compra de Ati… joderSi…la verdad...tu eres el culpable... :mad: de estar 2 semanas sin ordenador... :mad: me debes 60 euros...cuando quieres que te diga la cuenta donde ingresarlos???? :risitas: :risitas: :risitas:
Jaja Pues de momento te diré que ahora mismo voy a ver al chico que me compra la 6600GT. Con lo que saco te debería todavía 15 €
Por cierto, ayer la desmonte el disipa y le puse pasta térmica del curro en condiciones, y descubrí, que cuando la llevaron a RMA le cambiaron el Core encima todavía se veían restos del soldador por el PCB.
Joder, o sea que me cargué la GPU y la cambiaron… hay que reconocer que los de Leadtek se portanP.D: ya esta vendida... dime tu numero de cuenta Ya tengo 125€ reunidillos, casi tengo para una HD 3850 xD
PD: También es cierto que los DX10 merman un burrada el rendimiento para las mejoras que ofrecen y por eso se requiere de gráficas más potentes y no tanto de CPUs más potentes.
La pena es que no se potencie también el OpenGL, que parece que todo es DX 10. Y no digo que fuera malo, eh? Quizás el problema es que cada vez se programa mas a toida prisa y sin pulir el código.
Como si se quisiera fabrican en una cadena de montaje
Si el DX 10 y el DX 9.0, o el Open GL se le sacara rendimiento, podríamos ver unos juegos muchos más optimizados, complejos y con muchas mas novedades.
Quizás el Open GL este mejor aprovechado, pero menos implementado.Saludos!!
-
OpenGL suele estar bien implementado porque normalmente sólo lo usa Carmak… y es uno de los mejores programadores de juegos del mundo jejejeje. El problema de OpenGL es más "complicado". DX te da más facilidades (aunque en el 10 ha desaparecido el Direct Input y Direct Sound 3D) y por ejemplo al portar juegos a Xbox no tienes que reprogramar tanto XDD.
Aunque está claro que las prisas a la hora de desarrollar un juego suelen probocar que el rendimiento no sea tan bueno como podría, muchas veces tampoco se pueden hacer milagros y si queremos HDR, iluminación y sombras en tiempo real, texturas de 2o 4k, texturas volumétricas, modelos con miles de polígonos, físicas realistas, sonido real envolvente, IA avanzada.... suelen pedir más máquina de la que nos gustaría.
Saludos
-
Pues acabo de ver en las noticias de N3D una HD3850 con 512 MB "DDR4" xD Yo creo que todavía falta por ver que sorpresas nos darán las jodias HD3800.
En parte me alegro que Amd/Ati saque unos beneficios decentes, por que esta la pobre de capa caída.
Además, he leído que ahora mismo Amd cuesta menos que lo que costo la compra de Ati… joderJaja Pues de momento te diré que ahora mismo voy a ver al chico que me compra la 6600GT. Con lo que saco te debería todavía 15 €
Por cierto, ayer la desmonte el disipa y le puse pasta térmica del curro en condiciones, y descubrí, que cuando la llevaron a RMA le cambiaron el Core encima todavía se veían restos del soldador por el PCB.
Joder, o sea que me cargué la GPU y la cambiaron... hay que reconocer que los de Leadtek se portanP.D: ya esta vendida... dime tu numero de cuenta Ya tengo 125€ reunidillos, casi tengo para una HD 3850 xD
La pena es que no se potencie también el OpenGL, que parece que todo es DX 10. Y no digo que fuera malo, eh? Quizás el problema es que cada vez se programa mas a toida prisa y sin pulir el código.
Como si se quisiera fabrican en una cadena de montaje
Si el DX 10 y el DX 9.0, o el Open GL se le sacara rendimiento, podríamos ver unos juegos muchos más optimizados, complejos y con muchas mas novedades.
Quizás el Open GL este mejor aprovechado, pero menos implementado.Saludos!!
Por cuando has vendido la 6600 GT, a que tengo aki tirada una C3D y nadie me dice na…algun comprador??? me han dicho que va mas que la GTS 512 G92
-
Por cuando has vendido la 6600 GT, a que tengo aki tirada una C3D y nadie me dice na…algun comprador??? me han dicho que va mas que la GTS 512 G92
Jaja, si, tira mas que la 8800GTS nueva xD Pues 45€ que tengo en el bolsillo ya A si que, dala matarile, que como tardes mas en venderla, te toca pagar por que se la lleven.
-
Las CPUs cada vez son menos importantes para renderizar los juegos. DX10 acentúa aún más eso con sus nuevas funciones. Las CPUs se encargaran cada vez menos del apartado gráfico y se utilizaran principalmente para la IA y sonido.
Programar un juego en multihilo (otro tipo de aplicaciones es más "sencillo") es bastante complicado ya que en tiempo real son muchas cosas las que a la vez han de sincronizarse (colisiones, gráficos, sonidos, físicas, eventos, etc) y si un por ejemplo un core se retrasa en un cálculo te arriesgas a que todo el rendimiento que podrías haber ganado al dividir las tareas se vaya al tarste. Las CPUs Heterogéneas podrían mejorar eso, pero aún falta para que las veamos…A ver por partes, las cpus se encargan cada vez menos del apartado grafico en parte, porque a pesar de que las graficas cada vez hacen mas cosas, es la cpu quien les dice que han de hacer. Y como quieras hacer muchas cosas "distintas" por frame, tendras que decirle mas cosas, asi que es posible que sean menos importantes para "mandar instrucciones" (que no renderizar :p) porque se suelen centrar en evitar hacer tantas llamadas a la grafica, haciendo pocas y mandando mucha mas informacion. Pero aun asi, si tienes que mandar mas instrucciones vas a tener el mismo problema… no se hasta que punto se esta llegando a esto, yo creo que por ahora no existe este problema, pero es algo que puede que surja, pues por ahora los c2d van a reinar una buena temporadita, sin casi incrementos ni mejoras exceptuando el paso a 45nm y un poco mas de clock...
Lo de programar un juego en multihilo es una movida, esta claro. Lo que hacen a veces es centrarse solo en hacer algun modulo multihilo y si no se ha acabado el calculo a tiempo se desecha perdiendo precision, pero nada mas (en la fisica se puede usar para añadir mas calidad a los calculos).
Lo que yo me referia solo a la parte de renderizado, ahora mismo no se que pasa si haces dos renders a la vez... aunque pensandolo me lo temo, simplemente seria como tener 1 render, en el que se van intercalando las instrucciones, de tal manera que puede que tengas fallos en la imagen porque haces llamadas incoherentes y todo eso... uhm se tendria que sincronizar para que el trabajo de un core no machacara el del otro, con lo que me temo que no se puede hacer... cuando una cpu le pasa algo a la grafica, la grafica esta "bloqueada", con lo que el otro core nunca podra hacer nada... es como un embudo, solo pasa una instruccion a la vez.
Con lo que definitivamente la unica manera de evitar que la cpu haga cuello de botella es haciendo que sea mas rapido, o dedicar un solo core a las optimizaciones de renderizado, para minimizar el numero de cosas a renderizar, y que las que se dibujen se hagan a una calidad optima.En cuanto a que las CPUs son más complejas… creo que no es así Istarion. Una GPU tiene más componentes internos y externos que una CPU. Pero no soy ingeniero y no sé el porque las gráficas evolucionan mucho más que las CPUs jejeje alguna explicación tendrá jejeje.
SaludosLa verdad que no estoy seguro de que es mas complejo, pero yo pensaba que es mas complejo hacer cpus que graficas, mas que nada porque las graficas son algo mas especifico, que ademas "solo" tienen que cumplir las especificaciones de las APIs de programacion grafica, y cuando se saca una nueva version "solo" tienes que incluir las nuevas funciones. Todo lo demas son añadidos de las empresas por marketing, por necesidad del publico o cosas asi (pure video, etc.)… Pero vamos yo no se mucho de electronica (por no decir nada), y no se la complejidad de cpus ni de graficas
Y sobre las nueva GTS… tras el nuevo disipador oficial de nVIDIA para las 8800GT (el de ventilador de 75mm), la GTS sería la 3ª revisión de la GT... no veo un salto como para sacar un nuevo modelo que rinde como una 8800GT OC. Me esperaba una cosa más parecida a la 8800Ultra aunque viendo las velocidades de funcionamiento era de esperar. Habrá que esperar a la Serie 9 para cambiar de GPU...
La ATI 38xx tampoco me terminan de convencer ya que en algunos juegos rinde muy bien pero en otro rinden mucho menos que las nVIDIA.Saludos
Ya, a mi tambien me ha decepcionado la gts. Sin embargo, rinde a la par que una ultra, y por la mitad. Aunque no sea nada nuevo (ya habiamos visto ese rendimiento hace mucho tiempo de mano de las ultras), vale la mitad, es significativo
Madre mia soy el señor de los tochos xDDD
-
Pues si Istarion, la HD3850 también es mi favorita ahora y como las HD3870 bajen un poco…
Pues acabo de ver en las noticias de N3D una HD3850 con 512 MB "DDR4" xD Yo creo que todavía falta por ver que sorpresas nos darán las jodias HD3800.
En parte me alegro que Amd/Ati saque unos beneficios decentes, por que esta la pobre de capa caída.
Además, he leído que ahora mismo Amd cuesta menos que lo que costo la compra de Ati… joderY cada vez me gustan mas, mas y mas, y mucho maaaaaaas :risitas: :risitas:
-
Pues si Istarion, la HD3850 también es mi favorita ahora y como las HD3870 bajen un poco…
Y cada vez me gustan mas, mas y mas, y mucho maaaaaaas :risitas: :risitas:
Hombre, si esperamos después de Navidad, seguro que bajan de precio cosa tonta, por no decir, Drivers mas puliditos, etc.
Yo menos de la HD3870 no pienso mirar. Y mira que en Izarmicro tiene una HD3850 de 512MB modelo de HIS estupenda.
De todos modos, ese mismo modelo, pero en la HD3870, entonces si se me hace la boca agua.Saludos!!
P.D: joe, debo ser de los pocos que no piensa en la 8800GT xD aunque reconozco que como bajen de precio estas…ufff, será difícil elegir, eh? Por que tiran muy muy bien.
-
Cuando utilicé la palabra renderizar no me refería a que la CPU sea la que lo hace, ya que a no ser que sea render por software es siempre la GPU la que pinta las imágenes en pantalla.
DX10 y sus nuevos efectos no hacen que la gráfica dependa más de la CPU, al contrario, y lo que se pretende con los V&P Shaders es hacer cada vez más independiente la GPU de la CPU de forma que las transformaciones se realicen en la GPU y no en la CPU por ejemplo. El T&L fué el primer salto en este sentido.
El problema de las "llamadas" no tiene que ver con la GPU, ahi es la CPU la que se satura. Existen motores gráficos que por unas razones u otras realizan muchas llamadas al API ya sea porque no indexan, porque pintan la imagen en varias pasadas o por lo que sea, que este a su vez manda a la CPU u otros que no usan (o lo hacen poco) los Shaders y realizan más calculos en la CPU. Ese tipo de motores son más dependientes de la CPU (engine Doom 3 o HL2 por ejemplo). En esos pasa lo contrario de lo que sucede con Crysis por ejemplo, la gráfica va "sobrada" y es la CPU la que no da a basto, determinando en un mayor porcentaje de lo habitual el rendimiento del engine.
Pero vamos que normalmente es la GPU la que determina que un juego funcione bien o mal.En cuanto a que la GTS 65nm es como una Ultra… aún no he visto un review que diga eso... y menos a altas resoluciones. Que la Ultra sea muy cara y grande estoy deacuerdo, pero que la GTS rinda igual, sea más pequeña y cueste la mitad no me parece que sea cierto.
Saludos
-
Cuando utilicé la palabra renderizar no me refería a que la CPU sea la que lo hace, ya que a no ser que sea render por software es siempre la GPU la que pinta las imágenes en pantalla.
Era porque inducia a confusiones
DX10 y sus nuevos efectos no hacen que la gráfica dependa más de la CPU, al contrario, y lo que se pretende con los V&P Shaders es hacer cada vez más independiente la GPU de la CPU de forma que las transformaciones se realicen en la GPU y no en la CPU por ejemplo. El T&L fué el primer salto en este sentido.
Uhm creo que no me he explicado muy bien… Lo que queria decir es que por mas independencia que le des a las instrucciones de renderizado, de tal manera que la cpu haga las minimas llamadas, si metes mas efectos/modelos/shaders o lo que sea, vas a tener que hacer mas llamadas necesariamente. Ese es el "problema" que veo. Es decir, poniendo un ejemplo irreal, si cada siguiente parte de un juego duplica las llamadas a una api, y el procesador no duplica su rendimiento, llegara a hacer cuello de botella. Esto es a lo que me referia :sisi: (si bien la evolucion de los juegos no creo que sea asi, es un ejemplo exagerado para que quede claro).
El problema de las "llamadas" no tiene que ver con la GPU, ahi es la CPU la que se satura. Existen motores gráficos que por unas razones u otras realizan muchas llamadas al API ya sea porque no indexan, porque pintan la imagen en varias pasadas o por lo que sea, que este a su vez manda a la CPU u otros que no usan (o lo hacen poco) los Shaders y realizan más calculos en la CPU. Ese tipo de motores son más dependientes de la CPU (engine Doom 3 o HL2 por ejemplo). En esos pasa lo contrario de lo que sucede con Crysis por ejemplo, la gráfica va "sobrada" y es la CPU la que no da a basto, determinando en un mayor porcentaje de lo habitual el rendimiento del engine.
Pero vamos que normalmente es la GPU la que determina que un juego funcione bien o mal.No entiendo lo que quieres decir a que mande a la CPU los shaders :S
El resto del parrafo es lo que habia comentado aunque creo que lo he vuelto a explicar mal :vayatela:Las llamadas a una API saturan al procesador, pero tambien llenan el bus de datos de la grafica (pcie/agp), y hacen que esta trabaje (si bien hay llamadas mas o menos "costosas" para la grafica). Es decir, el problema esta en que tanto la cpu como la grafica estan "bloqueados" mientras haces una llamada, y cuando acabas de hacerla, ya tienes la cpu liberada, y le puedes pasar mas datos a la grafica. De esta manera aunque tengas otro procesador, no podras hacer otra llamada a la vez, porque el bus de datos esta ocupado transfiriendo informacion.
Esto era lo que queria decir, espero que haya quedado un poco mas claro ahora que estoy de un patoso… :nono:
@ManuHard:En cuanto a que la GTS 65nm es como una Ultra… aún no he visto un review que diga eso... y menos a altas resoluciones. Que la Ultra sea muy cara y grande estoy deacuerdo, pero que la GTS rinda igual, sea más pequeña y cueste la mitad no me parece que sea cierto.
Tienes razon, me he columpiado :muerto: . Solo me habia fijado en resoluciones interesantes para la mayoria de los mortales como bien dice Neptunno, alrededor de 1280x1024 o maximo 1600x1200 :rollani: que ahi si que tira de coña la gts
-
Wuenas de nuevo
Era porque inducia a confusiones
jejeje si… puede que lo explicara mal :risitas:
Uhm creo que no me he explicado muy bien… Lo que queria decir es que por mas independencia que le des a las instrucciones de renderizado, de tal manera que la cpu haga las minimas llamadas, si metes mas efectos/modelos/shaders o lo que sea, vas a tener que hacer mas llamadas necesariamente. Ese es el "problema" que veo. Es decir, poniendo un ejemplo irreal, si cada siguiente parte de un juego duplica las llamadas a una api, y el procesador no duplica su rendimiento, llegara a hacer cuello de botella. Esto es a lo que me referia :sisi: (si bien la evolucion de los juegos no creo que sea asi, es un ejemplo exagerado para que quede claro).
No necesariamente. Las nuevas funciones gráficas muchas veces se idean no para lograr mejores gráficos si no para ser independiestes de la CPU. DX10.1 por ejemplo es otro salto más en ese aspecto. Se intenta que todo se haga dentro de la gráfica y que la CPU únicamente se encarge de mandarle a la gráfica las transformaciones de vértices. Aunque con DX10.1 incluso algunas transformaciones ya se llevan a cabo en el interior de la GPU dependiendo de como se programe el motor. Aunque también es cierto que hay tanta cantidad de polígonos por frame en juegos como Crysis que aunque la CPU no haga nada más que eso le es ya suficiente jejeje.
Además una GPU es mucho más potente en cálculos matemáticos con lo que tener una CPU por medio solo relentiza el proceso de renderizar imágenes 3D. Las gráficas multinúcleo y con caché integrada al estilo de las CPU creo que serán el primer paso.No entiendo lo que quieres decir a que mande a la CPU los shaders :S
El resto del parrafo es lo que habia comentado aunque creo que lo he vuelto a explicar mal :vayatela:Las llamadas a una API saturan al procesador, pero tambien llenan el bus de datos de la grafica (pcie/agp), y hacen que esta trabaje (si bien hay llamadas mas o menos "costosas" para la grafica). Es decir, el problema esta en que tanto la cpu como la grafica estan "bloqueados" mientras haces una llamada, y cuando acabas de hacerla, ya tienes la cpu liberada, y le puedes pasar mas datos a la grafica. De esta manera aunque tengas otro procesador, no podras hacer otra llamada a la vez, porque el bus de datos esta ocupado transfiriendo informacion.
Esto era lo que queria decir, espero que haya quedado un poco mas claro ahora que estoy de un patoso… :nono:jeejje lo puse un poco liado la verdad. Sólo me referia a que la hay motores gráficos que hacen muchas llamadas al API y que ese se las manda a la CPU para procesarlas. Sólo eso :muerto:
Tú puedes mandar llamadas al API y por consiguiente a la CPU y ésta no se "bloquea" mientras le queden MHz "libres" jejeje. Sin por cada llamada la CPU no pudiera continuar con otra hasta que no la terminara los juegos no funcionarían :risitas:
Tienes razon, me he columpiado :muerto: . Solo me habia fijado en resoluciones interesantes para la mayoria de los mortales como bien dice Neptunno, alrededor de 1280x1024 o maximo 1600x1200 :rollani: que ahi si que tira de coña la gts
jejeje que me digas que es una GTX es más realista y que con OC altito la supera casi siempre o siempre también, pero una Ultra no es . Pero esta claro que por el precio está muy bien. Pero no se ha de engañar nadie que nos estan vendiendo tecnología "antigua" y que además ni una Ultra mueve el Crysis a alto detalle con lo que son buenas tarjetas pero no van sobradas pensando en el futuro.
Saludos!
-
Pues eso, se esperaban a 330-360e, pero hoy he preguntado en pccomponentes y están a 294 y 299€!
Os dejo los links por si os interesan:
http://www.pccomponentes.com/POINT_OF_VIEW_GEFORCE_8800GTS_512MB_GDDR3_PCI_E___MOTO_GP_07.html
http://www.pccomponentes.com/XFX_GEFORCE_8800GTS_512MB_GDDR3_PCI_E.htmlSalu2!
El primer link no funciona ya, ¿lo has arreglado tú? Hay que ver como son las cosas, registrado en diciembre y con 29 mensajes que, 20 de ellos, son publicidad :resaca:
¿A dónde vamos a ir a parar para que pccomponentes venda? :nono: