• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse
    1. Foro
    2. fjavi
    3. Mensajes
    F
    • Perfil
    • Siguiendo 0
    • Seguidores 0
    • Temas 1
    • Mensajes 791
    • Mejor valorados 0
    • Controversial 0
    • Grupos 0

    Publicados por fjavi

    • RE: Nvidia Geforce Titan (gk110)

      @Piratilla2007:

      Pues seguro que se anima..Banearon a ROCKET tb..A cuadros me quedo con los baneos masivos que hay en N3D,como sigan asi se van a quedar con cuatro gatos,y con comentarios poco interesantes..Cosa que muchos de los que emigraron aqui,daban informacion,reviews personales.

      **
      PD;Por cierto,un mod de este foro dice que la TITAN va a acostar 700 euros??Es cierto esto??**

      Un saludo a todos!!

      Si hoy me entere de lo de ROCKET y me ha sorprendido bastante,era una persona que pasa de lios y yo nunca le vi hacer spam,solia hacer sus comparativas,ha sido una sorpresa.

      Luego ese precio de titan no lo veremos,es un precio para distribuidor,el Pvp sera bastante mayor,si sacaran una de 3Gb por menos de 700€ seria lo mejor que podrian hacer,pero precio venta al publico,los 6Gb nos sirve de poco a la mayoria y ademas encarece,a ver si se anima y sino pues a esperar la 780 que esa vendra con 3GB y 384 bits 1920SP,aunque no hay nada fijo.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @Piratilla2007:

      Emigracion total!!Ya se donde paran los coleguis jejeje:eoh::eoh::eoh::eoh::eoh:

      Esperando esas fotillos y resultados ELPE!

      Saludos a Jotele,ELPE,Fjavi,Txema a todos los de N3D!!Que seguro que me olvido de muchos jeje

      Un saludo,se esta animando esto al final estamos todos por aqui,a ver si ya vemos pruebas y se anima la cosa.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Duda en tarjeta grafica

      @Twikzer:

      aver aver, creo que ha avido un mal entendido, por tener no tengo nada, solo la caja que cave, a ojo, una ATX y media, creia que se havia sobre entendido ya que la 990FX/gen3 todavía no esta en venta ni siquiera en el amazon americano.
      lo que e cogido amd por que intel tiene menos nucleos y GHz de fabrica y son mucho mas caros

      Hoy dia si se quiere el equipo para juegos,con graficas potentes SLI o CF es mejor Intel,ahora si se quiere para otras tareas,AMD puede dar muy buen resultado,lo de los nucleos aunque es verdad,no son en realidad un 8 nucleos nativo,es mas una especie de 4+HT,es distinto al HT pero hace un efecto similar,los MHZ tampoco importan tanto,lo que importa es el rendimiento por clock y las operaciones por ciclo de reloj.

      Por eso al final no quiere decir mucho que uno se ponga a 4200 y otro a 3800,hablo con turbo,por que el que se pone a 3800 tiene mejor rendimiento por clock y ademas creo mas operaciones por ciclo aunque no estoy seguro,tambien es la plataforma en si que viene mejor preparada para aprovechar las graficas,tiene las controladoras dentro del propio CPU y son mas rapidas,por eso al final no es cosa del CPU solo sino de toda la plataforma,AMD con los FX debia haber sacado un socket solo para aprovechar al maximo un tipo de procesadores nuevas,meter las controladoras Pcie,sata al CPU y mejorar las controladoras de memoria,tambien haber mejorado el rendimiento por clock,por eso al final en juegos esta en desventaja contra Intel.

      Saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Duda en tarjeta grafica

      @Twikzer:

      ok, y que placa base seria para multi GPU, ¿que caracteristicas se mira para saverlo?, ¿la Corsair V Formula -Z serviria? de asus, ROG

      Es que el problema no es tu placa ya que es una buena placa para AM3+,es mas la plataforma y actualizar te saldra demasiado caro,lo mejor que podias hacer es meter una monogpu y aguantar gastando lo menos posible,tu procesador es nuevo y no es recomendable cambiarlo rapido.

      Yo no cambiaria nada solo una grafica monogpu y aguantar con ella,no es recomendable ni SLi ni CF,lo que mejor vas a aprovechar es una monogpu,podrias subir el CPU y no deberia tirarte mal,lo mismo mas adelante los juegos vienen un poco mas optimizados para AMD,ya que la xbox y ps4 parece que tendran un AMD en CPU y en grafica,pero lo mejor es una monogpu,te saldra mas rentable y podras jugar bien.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @krampak:

      Nuestro distribuidor tiene previsto que le entren mañana 68 unidades de la GV-NTITAN-6GD-B a un precio de 770€ pvd, mañana os digo si aplazan la fecha xD

      Pues no son pocas 68,se suponia que habia pocas para todo el Mundo,pero han enviado a muchas web para reviews y si aqui entran mas de 68,en alemania,Japon o USA deben recibir muchas mas,espero que no se acostumbre Nvidia a vender a esos precios,pues si las vende muy rapido puede querer repetir.

      Saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Bueno vamos a ver,confirmado.Están en aduanas.

      En 24-48H,deberíamos tenerlas en casa..veremos..

      A ver si hay suerte y te llegan en 24 por que sino te va a tocar esperar,que se estan haciendo rogar,con lo facil que seria enviarlas antes y cuando se levante el NDA ya las tengan las tiendas.

      Parece que han enviaado muchas Titan a reviews,lo mismo debian hacer para las tiendas para que las tengan el dia del lanzamiento,pero eligen malas fechas y lo hacen mal.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @norvegia:

      Es que no parece que vayan a sacar DirectX 12 en unos años y, para cuando lo saquen, todavia pasara un tiempo hasta que los juegos empiecen a usarlo asi que esa variable la habia descartado.

      El asunto esta en que quiero hacer una compra a futuro (aunque nunca se sabe) y tampoco tiene pinta de que la serie 700 vaya a suponer una revolucion con respecto a la TITAN, la cual por tamaño, consumo, ruido y temperatura me parece que es la mejor opcion (salvando el precio, claro). Crossfire no me termina de convencer.

      Quizas lo mejor va a ser pillar una ahora, ver como rinde y, si eso, plantearse pillar la segunda. En el proceso, supongo que intentaria vender las GTX 460 para sacar unos euros, aunque hasta el momento siempre he guardado las graficas que he ido comprando (aun tengo por aqui la 3DFX Voodoo…).

      Gracias por las opiniones.

      Hombre yo miraria lo que vas a ganar de rendimiento mas el gasto que supone,desde un SLI de 460 ganarias ya mucho con dos 670,si ahora empiezan a bajar de precio las 670 o 680 te salen mas rentables, si luego sale una buena serie 800 y quieres actualizar vas a tener mas rendimiento que con Titan y quiza te hayas gastado bastante menos,estaras mejor preparado para futuros juegos y no gastaras tanto,ademas la serie 800 posiblemente sea ya otra arquitectura que traera mejoras.

      @Gasolution:

      Encima de caras te llegan tarde.

      Por seguir el hilo e iniciarme en él, mis impresiones:

      • Buen pepino, disparatado precio.

      • Rinden, por ahora, poco acorde a su precio. Seguramente vía drivers mejorará la cosa. Espero que no afecte a los que tenemos series 6XX :wall:

      • En SLI lo mismo, necesitan mejorar drivers.

      Esta gráfica SÍ era la 680, y la 680 que conocemos la 670ti. Lástima que nos tomen tanto el pelo los de Nvidia.

      No deberia afectar a la serie 600,quiza ahora mejoren driver para la Titan pero la serie 600 sigue siendo mayoria hasta que salga la 700,ademas que la 700 parece que va a ser muy parecida a la 600 por lo tanto los driver seran buenos para todas las kepler.

      Con las titan si que se han pasado mucho con el precio,aunque al menos la hicieron bonita,pero si pensamos que deberian ser la gama alta de la serie 600 o como mucho haber sido 780,pues si que son muy caras.

      Eso si con 3Gb pero es mas que suficiente para aguantar tiempo sin que falte vram,yo espero que si en junio no sacan las 700 si lancen un k20 mas recortado y economico,pero no hay nada seguro.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @norvegia:

      Buenas gente, una duda, cuantos años creeis que pasaran hasta que un SLI de GTX TITAN se quede obsoleto? Es que quiero actualizar mi SLI de GTX 460 de 1GB que tengo desde el 2010 y, aunque el desenbolso seria considerable, me gustaria no tener que actualizar, como minimo, en otros 3-4 años.

      Que bonica es la jodia

      No suele salir rentable gastar tanto dinero de principio,no es buena idea comprar algo muy caro y potente y aguantar al maximo,siempre te va a salir mejor comprar algo mas barato y actualizar antes,menos aun con el precio de estas Titan,de todas formas hay gente que compro la 8800GTx o Ultra y al final les duraron o las 480,pero suele ser mejor irse a algo asequible por ejemplo una 670 o mejor aun esperarse 3 meses a ver si hay noticias de la serie 700 y por lo que cuesta ahora una 680 es facil que se consigan dos 760Ti que deberian ser como la 680 de potentes cada una,pero bastante mas baratas,seria un gran salto desde un SLI como el tuyo y te saldria mucho mejor,incluso podrian empezarse a ver liquidaciones de 670 o 680.

      La Titan y mas metiendo dos tiene mas sentido para alta resolucion,tres monitores y cosas asi,yo desde luego esperaria,no hay que tener prisa en comprar estas tarjetas,por que tendran que bajar,al menos tendran que salir noticias sobre la serie 700,si puedes estirar el SLI unos meses seguro te compensara.

      @Tecnho:

      Como todo es relativo, pero yo creo que con dos bichos de estos a una resolución standard ahora de 1920x1080 creo que esos 3 años tira de sobra incluso con mi u2711 me tiraría, por 2000€ ya puede tirar vamos.

      Yo lo que estoy empezando a temerme es que estas tarjetas no van a tirar bien a 1080p a menos que se tenga un pepino de equipo,hablo de dos o tres tarjetas,ahora mismo para 1080 sale mejor dos de la serie 600 o serie 7000 en AMD,estas tarjetas parecen ya pensadas para 2560x1600 y salvo juegos como Metro 2033 y casos puntuales quiza les cueste trabajar a plena carga con dos a 1080p,a ver si las vemos por aqui y a ver si son problemas de perfiles SLI,pero esas graficas tienen pinta de pedir mucho equipo para alimentar a dos o tres tarjetas a baja resolucion,1080 ya empieza a ser resolucion baja.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @Gasolution:

      ¿Cuánto bueno por aquí no? Os fuisteis sin despediros… con razón.

      Me quedo por aquí gente, me alegro de encontraros :ugly:

      Un saludo Gasolution,este foro parece cada vez mas al antiguo N3D digo por el formato del foro,sobretodo la gente qe son los que hacen los foros,a ver si tenemos pruebas para que se anime esto.

      Saludos

      @Jotole:

      Y si lo supiera lo iba a decir en el foro, para que mañana haya un monton de tios buscando las tarjetas. ;).

      Entre ellos yo el primero…Jejejeee

      Salu2...

      No es que esten perdidas,pero nosotros si que las tendremos cerca en cuanto pisen la peninsula,debe haberlas en Madrid y en Malaga,por los aeropuertos,pero nos vamos a quedar con las ganas creo.

      con ese video tan largo que puse se ve que lo del OC no deberia estar muy mal,aunque esa se pone sola con boost a cerca de 1Ghz,lo bueno es que lo hace con poco voltaje,pero tiene un voltaje dinamico,depende de la temperatura ,pero verle subir al voleo al de nvidia no tiene mala pinta,por que casi ni toca el ventilador,pero la puso casi a 1200 sin probar mucho.a ver cuando las tenga ELP3 y le ponga un perfil mejor de ventilador.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Duda en tarjeta grafica

      @Twikzer:

      ya, la cosa es que ya me sabe mal gastarme 300 como para gastarme 350 en la 670.
      resumiendo. ¿zotac mejor que evga?

      Yo te lo decia por que las FTW son caras,si no quieres gastar mucho yo iria a por la gigabyte o la Zotac mas baratas,prefiero antes Gigabyte,pero te dije la 670 esa por que si la FTW costaba mas de 300€ era recomendable estirarse a una 670,si cuesta 260€ pues la Gigabyte esta bien.

      Zotac es el que da mas garantia,da su garantia y si registras la grafica en la web de Zotac da 3 años mas 5 en total,pero la gigabyte parece mejor,tiene mejor pcb y mejor disipacion,por eso yo la prefiero.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Duda en tarjeta grafica

      @Twikzer:

      Vereis, estoy montando un ordenador y me lio con tanta variedad, havia pensado en la EVGA GTX 660 TI TWF.
      Es para jugar y algo de 3D.
      ¿Que os parece? la idea seria poner 1 y mas adelante ponerle otra con sli.

      Que equipo tienes y resolucion?
      Yo veo otras mejores que esa EVGA por precio,disipacion aunque para SLI sean mejor las de referencia,incluso si esa FTW es cara ronda los 300€ yo meteria esta mucho antes.

      Zotac GeForce GTX 670 2GB GDDR5 250-2N255-P0003 Tarjeta Gráfica

      Veo a la 670 mucho mas completa que la 660ti y no hay tanta diferencia en precios,aprovechara bien los 2Gb de memoria cosa que la 660Ti no hace,ademas mas potente,incluso mas adelante esas Zotac se vean en ofertas por si quieres hacer un SLI aunque te sirve cualquiera.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Comparativa Intel i7 3930K @ 4,8 Vs AMD Fx-8350 @ 4.8 Ghz.

      @Wargreymon:

      Pues teniendo en cuenta que los haswell en principio solo van a tener un máximo de 4 núcleos no creo que vayan a marcar mucho la diferencia. Quizás cuando salgan los Haswell de 6 o 8 núcleos en el socket 2011…

      Por el momento parece que 4 o 6 nucleos no importan casi,ya veremos con las consolas nuevas,pues tendran mas nucleos pero poco potentes,por ahora parece que importa mas la plataforma,osea cada vez meten mejores controladores ya sea de memoria,Pcie,no es que se avance mucho pero algo se nota,Ivy tira bien lo que tiene la desventaja con SB del OC,los SB con pcie3 serian mejores solo por el OC,el socket 2011 es espectacular,pero yo lo veo muy verde,parece mas para servidores y cosas de esas que para gama entusiasta de escritorio y los SB o IB parecen mas de portatil,por lo menos los SB salieron buenos,por eso creo que Intel debe sacar algo que convenza por que algunos fabricantes de placas no estan contentos con los RMA del 2011 y las ventas de Z77 aunque sea un buen chipset.

      Aunque no espero mucho,ya quiero cambiar pero a algo que me convenza y si Haswell no lo hace pues tocara esperar a IB-E.

      saludos

      @Jotole:

      Sí esos rumores cada vez son mas oidos, no obstante no creo que la diferencia sea como para cambiar de plataforma. Aún habiendo entrado Titan en la palestra, no creo que estos SB-E, no le saquen toda la chicha a esas graficas, cierto es que para multi gpu de esas bestias haya que sacarles todos los Mhz que podamos a nuestro procesador, pero eso no son configuraciones normales.

      Salu2…

      Salu2...

      Claro Jotole a vosotros no os compensara cambiar,ya que teneis una plataforma buena,a mi si que hace la tira que queria cambiar la x58 y al final sigo aguantando por que no me convencen del todo las ultimas plataformas,por eso segun sean haswell pues posiblemente cambie y sino pues IB-E,ultimamente como tampoco meto graficas mas potentes pues la X58 me sirve perfectamente,al final tanto el 1366 como las 480 me estan durando mas que ningun otro socket o graficas,me han salido rentables.

      Un saludo

      publicado en Procesadores
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @Jotole:

      No, si prisa no tengo, como bien has dicho manco no voy y normalmente juego a un framerate mayor del que se pone ahí. Tengo esos mismos monitores, y el tamaño del punto es muy pequeño, 0,23. Así que no suelo utilizar el AA, a no ser que vaya muy sobrado.

      Pero como conozco esa resolución, me extrañaban esos resultados, de esas gpu´s en teoria mucho mas potente que las mias. Y de paso hago cabalas para un posible cambio.

      Un Saludo..

      Cabalas seguro que estamos haciendo todos,lo unico que al salir tan caras pues nos han cortado,pero esas tarjetas se ve que son tarjetas para alta resolucion,tres monitores,incluso resolucion 4K,yo tambien veo que le da muy poco y en alguna resolucion le debo sacar bastante diferencia,pero las reviews tienen un equipo donde pinchan muchas graficas,cambian muchos driver y quiza ni formatean lo suficiente,por eso son orientativas,lo mejor es mirar un equipo para una sola configuracion grafica,aun recuerdo que la 580 al salir era muy sensible y pedia un formateo para que las graficas fueran bien.

      Ademas nosotros luego ya buscamos la configuracion que mejor nos pueda rendir,en una reviews no te hacen eso,por falta de tiempo y por que supone mucho mas trabajo,nosotros buscamos o modificamos los perfiles SLI para mejorar el del driver y como es para jugar lo mejor posible pues tratamos de tener el sistema lo mejor posible,eso al final se nota,yo por eso prefiero las reviews caseras,incluso interesan las opiniones al jugar con esas tarjetas,que una cosa son los benchmark y otras los juegos,muchos framebufer de esos no son realistas a la hora de lo que supone ponerte a jugar,por todo esto yo siempre espero a las opiniones de la gente que las tiene y ademas que se ponen a jugar.

      Pero eso en Hitman o sleeping dogs a mi me va a 1080 bastante mejor que al de guru3d,ademas que el SLI funciona bien en los dos y eso con los perfiles del driver,no se por que a el le va peor.

      Bueno como parece que a España tardaran en llegar podeis ir hechando un vistazo a un video,tienen buena pinta.

      Lo del OC es bastante mejor que en las GK104,lo de controlar por la temperatura.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      Jotole esperate a que las tenga ELP3 y luego ya haces calculos,yo desde luego no tendria ninguna prisa por cambiar tres 670,ahora mismo las Titan van a costar muy caras quiza en un par de meses sea distinto,posiblemente hasta termine sacando una de 3Gb,pero de salida es mejor no comprarlas,por que van a aprovecharse de la novedad y ademas te puedes ahorrar dinero si esperas.

      Pero donde mejor te puedes hacer una idea es con las de ELP3,se vera lo que tiran y se vera lo que suben,vamos que no vas manco con tres 670.

      Yo cambiaria mis 480 por una Titan pero a ese precio no lo hago,no quiero que Nvidia se acostumbre a poner las tarjetas tan caras y lo mejor es no comprar mientras lo haga.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Comparativa Intel i7 3930K @ 4,8 Vs AMD Fx-8350 @ 4.8 Ghz.

      @Wargreymon:

      Lo de Asus es marketing puro y duro, y en ese sentido tampoco va a haber mucha diferencia por que con una GPU no dejas corto el pcie 2.0 aun, así que en ese caso, aunque el pcie 3.0 esté limitado (No se como leches lo habrá implementado Asus, pero será a lo guarro, por que ningún chipset de AMD soporta pcie 3.0) no creo que haya pérdida de rendimiento en monoGPU, de momento.

      Parece ser que le ha metido un PLX,pero no deja de ser un parche,lo suyo es que la arquitectura este preparada para Pcie3 y si se da soporte SLI CF de 2 o mas tarjetas sea por que puede bien con ellas.

      Noticias3D - ASUS muestra la primera placa para AMD con PCI-Express 3.0

      por lo que se esta viendo con la titan a falta de verla aqui,dos o tres tarjetas van a dejar en bragas hasta a las plataformas Intel mas modernas,no se que ocurrira con haswell pero tienen pinta de pedir mucho equipo esas Titan,aunque supongo que quien tenga dos o tres tendra un monitor minimo de 1440p,tienen pinta de que a 1080p eso va a necesitar un peazo equipo de cuidado.

      saludos

      publicado en Procesadores
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @Wargreymon:

      Yo creo que en esa review lo que más destaca es que la HD7970 GHz da bastante más rendimiento que la GTX680, pero sus gráficas de frametime son lamentables. La GTX690 y los SLIs de Kepler, en ese sentido, tienen un rendimiento sorprendente, apenas parece que sean configuraciones multiGPU, aunque hay casos donde en la Titan se nota que las latencias son mejores gracias a ser monoGPU, pero aun así, los resultados de las Kepler en multiGPU son muy buenos, todo lo contrario a los CF.

      Es que al final usa configuraciones que no sirven para jugar ni en la 680 ni tampoco en la 7970,meter una resolucion de 2560x1600 con AA extremo en Sleeping dogs debe ir de culo,el Hitman igual mete configuraciones y resoluciones que no se pueden jugar ni con 680 ni 7970,osea que quiza asi la 7970 saque mas diferencia de fps pero es injugable para las dos.

      Esos juegos patrocinados por AMD piden bastante,por eso al final cuando se meten configuraciones que sirvan para jugar a 60 fps no creo que haya esas diferencias,de todas formas en algun caso el CF tiene latencias bajas y se ve muy ancha la linea de frames.

      @ELP3:

      Yo lo que he visto ya en varias reviews que han destinado un poco mas de tiempo al OC.Es que con aproximadamente un +130MHZ,se acerca muy peligrosamente al rendimiento de la GTX 690.

      Hablamos de quedarse a un par de frames … osea,que escala muy bien y tiene potencial.Subir +130MHZ y ganar un 13% es lo suyo..supongo que para benchs,podría llegar a alcanzarse el 20%..quizás mas..también hay planes de que el voltaje se pueda desbloquear prontamente a 1.25V en vez lo 1.20v que permite hasta ahora.

      Ya digo,cada vez me gusta mas la gráfica...el problema ya sabemos cual es...

      Un saludo.

      La grafica creo que nos gusta a la mayoria,no asi el precio pero como tarjeta yo creo que va a destacar y mas a esas resoluciones de 2560x1600,incluso tendran que mejorar por driver,una lastima que no la hayan llamado 780 con precio de esa gama y aunque fuera con 3 Gb,por que se venderian como churros.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @ELP3:

      Como anécdota de las reviews de guru3D,comentaré una muy graciosa.

      Este mismo señor,cuando salió la 5870,hizo una prueba en un nehalmen subido a 4,2GHZ creo recordar,vamos un 920.Y puso 2 5870 en CF.Bueno,pues para demostrar que la plataforma hacía cuello de botella a tal "dispendio gráfico" de la época,tuvo la genial idea(mas bien ni zorra idea) de poner como ejemplo el COD world at war…Efectivamente,en todas las resoluciones que probó,desde 720p hasta 1200p,le dió el mismo resultado..90fps..y se quedó tan ancho diciendo que el 1366,que por otra parte acababa praticamente de salir,era insuficiente para un CF de estas gráficas.

      Lo que este señor no sabía,y parece mentira,es que todos lo COD de la época,iban capados a 90fps,y mediante una línea de comandos,desbloquebas ese framerate.Obviamente,sin él,se obtenian mas de 150 fps...

      A pesar de todo,nunca tuvo el valor de reconocer el patón que metió.Un 1366,sigue siendo válido,hasta para las gráficas de esta primera generación de 28nm por si alguien lo duda...otra cosa,es que si compras una TITAN,lo normal es que no tengas esa plataforma..pero vamos,que yo veo tirar aún bastante bien los CF y SLI de 7970 y 680 bajo ese 1366..

      Un saludo.

      Si que fue un fallo decir que el 920 hacia cuello botella y no darse cuenta de que el juego va capado de fps.

      Aqui ponen otra de las pruebas o reviews donde se ve la jugabilidad,la 690 parece que va muy bien a pesar de ser un SLI,por lo menos en Hitman va bien sin MS.
      Nvidia's GeForce GTX Titan reviewed - The Tech Report - Page 11

      con esa configuracion Hitman debe pedir bastante y la 7970 y la 680 deben ir a pocos FPS,pero la titan y la 690 dan una linea mas plana sin tanto altibajo.

      saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Comparativa Intel i7 3930K @ 4,8 Vs AMD Fx-8350 @ 4.8 Ghz.

      @Wargreymon:

      Gran comparativa Jotole ;), desde luego en la plataforma AM3+ el pcie 3.0 no tiene sentido por que ni siquiera con el pcie 2.0 la plataforma ofrece ancho de banda suficiente en multiGPU como para que las tarjetas rindan bien (o, por lo menos, no el suficiente como para que la comunicación entre GPU y CPU no tenga cuellos de botella), sobretodo tarjetas potentes. El ancho de banda que podría ofrecer un SLI/CF con 2 GPUs pcie 2.0 x16 se ve ahogado por el bus HyperTransport, que está ya bastante desfasado (El último estándar es del 2008, el HT 3.1). Es suficiente para 2 tarjetas pcie 1.0 pero no para dos tarjetas pcie 2.0.

      El bus HT puede funcionar con buses de 16 bits o de 32 bits, con 32 bits se consiguen velocidades de transferencia el doble de veloces que con 16 bits, pero AMD, desde los inicios con el HT 1.0 en los Athlon 64 socket 754 implementa la versión de 16 bits, con lo que de entrada está limitando a la mitad la velocidad que permite el bus HT.

      Con 16 bits en HT3.0, que es el implementado en la plataforma AM3+, se puede conseguir un ancho de banda unidireccional máximo de 10,4GB/s. El bus PCIE 2.0 funcionando a x16 ofrece un ancho de banda unidireccional de 8GB/s, pero en caso de un SLI/CF x16-x16 ese ancho de banda se vería duplicado a 16GB/s unidireccionales (lógicamente, empleando 2 buses x16 el ancho de banda total se multiplica por 2), sin embargo el bus HT seguiría limitado a 10,4GB/s, de ahí que en esta plataforma las soluciones multiGPU se ahoguen, literalmente, en este modo de funcionamiento, pues las GPUs son capaces de transmitir 16GB/s de datos, pero el bus HT no es capaz de transmitir a más de 10,4GB/s . Si hablaramos de pcie 3.0 la plataforma directamente no sería capaz de ofrecer el ancho de banda necesario para ese bus, una unica tarjeta pcie 3.0 potente dejaría el bus HT sin ancho de banda, pues hablariamos de que una única tarjeta ofrecería un ancho de banda de 16GB/s a x16 (El doble que con pcie 2.0) que sería limitado por los 10,4GB/s del bus HT 3.0. La única solución sería pasar a un bus HT de 32 bits, que también formaría un cuello de botella en caso de SLI/CF con 2 tarjetas pcie 3.0 funcionando a x16-x16.

      Como comenta fjavi, el tener el controlador pcie en el chipset en lugar de en la CPU también influye en el rendimiento, siempre será mejor una comunicación lo más directa posible y con menor longitud, y también hay que decir, que los Bulldozers ya sabemos como rinden, si el juego de turno no es capaz de usar sus 8 cores el rendimiento es malo en comparación a las CPUs de Intel de 4 cores, no hablemos ya de SB-E con 6 cores…

      Pero yo no entiendo entonces por que Asus saca alguna placa con pcie3 para AM3+,tampoco por que AMD no cambio con la plataforma FX,tendria que haberse centrado en los procesadores nuevos y cambiar los buses,aunque quiza eso requiera mucho dinero en I+D,es que desde el 754 ya ha pasado mucho tiempo,el anterior CEO de AMD deberia meter la pata bien,para no empezar con los SOC o no sacar algun socket exclusivo para una serie de procesadores,Intel va mas avanzado en proceso y si ademas cambia de socket como de camisa,es normal que se distancie,aunque parece que en otras cosas no van tan mal los AMD.

      Yo no se si las K20X aprovecharan un mejor CPU o plataforma supongo que seran como estas Titan,osea que teoricamente si el superordenador ese Titan tuviera Intel en vez de opteron deberia ser mas potente.

      Saludos

      publicado en Procesadores
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @Jose:

      Buenas fjavi, tengo un nick diferente de hace ya años, a ver si me lo pueden cambiar :D. La verdad es que hacía tiempo que no andaba por Hardlimit y tras contarme un pajarito el nivelazo que había ultimamente he decidido pasarme. Además no en todos los foros se va a poder ver una review casera de la famosa Titan :D.

      Saludos.

      A mi me cambiaron tambien el nick,tenia otro al registrarme,me lo cambiaron por el mio,lo de la reviews es lo que esperamos muchos,por que esas titan tienen pinta de pedir mucho equipo,sobretodo con dos o tres tarjetas,por eso a ver como tiran en un equipo de ELP3,por que alguna de las reviews que se han visto sacan lo mismo a 1600x1200 que a 1920x1200 y a 2560x1600,le da lo mismo con dos o con tres y es raro por que en Hitman algo se debe notar pasar de 2 a 3 y sobretodo en resoluciones 2560x1600,digo esto

      GeForce GTX Titan 3-way SLI and Multi monitor review - DX11: Hitman Absolution

      veo resultados muy raros,ademas tampoco cuadra que dos 680 le den menos con un SLI de 680 que con una Titan a 1920x1080,le tiran de pena los SLI a en Hitman al de guru3D,por eso toca esperar a ver aqui como van.

      Saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • RE: Nvidia Geforce Titan (gk110)

      @wwwendigo:

      Sí se mantienen, fjavil, sí, y te lo digo por experiencia.;D

      Ahora, que si se calienta mucho la gpu en un juego o supera el TDP (todo solucionable con una curva de control de ventilación y subiendo el TDP al máximo), puede llegar a bajar, pero la oscilación más típica está entre dos valores con 13 MHz de diferencia, la frecuencia máxima a 1,175V y la segunda frecuencia del boost a 1,1625V.

      O sea, que básicamente es estable. Tanto como para no molestarme en tener activado el perfil de ventilación que le había hecho a mi gráfica.

      Lo que pasa es que hay mucha gente que o hace el OC mal (no sube el TDP o deja las memorias en "seco" o lo que es peor, las sube demasiado y tiene problemas de corrección de errores), o simplemente hacen las cuentas mal a la hora de calcular su OC y frecuencias (miran en GPU-z la información oficial de frecuencia base y boost, cuando en realidad ese boost sólo es el garantizado, el real en aplicación suele estar bien por encima de éste). El tema es que si usas las frecuencias boost oficiales que no las que realmente se aplican en funcionamiento, todo cálculo que se hace de "rendimientos" y mejora con OC son inválidos porque no se corresponden a la realidad, dando por tanto un error de base muy importante en todo cálculo de eficiencia y escabilidad (si usas el boost de GPU-z como valores del OC, automáticamente el desplazamiento que hagas para el OC es "mayor" en proporción a estas frecuencias que las reales, esto es, el % de OC calculado es más grande que el real, y por tanto esto dará como resultado unos cálculos de escalabilidad a la baja, siempre).

      Por cierto, el último tipo de error lo he visto en varias reviews profesionales, así que evidentemente con ese tipo de información incorrecta circulando, no me extraña que se creen mitos como éste.

      Mi GTX 670 tiene de specs 915/980 de base/boost oficiales, esto lo comparten TODAS las unidades del modelo, pero después cada uno según la calida de cada ASIC lleva más o menos lejos el boost, en mi caso la realidad es que mi GTX 670 funciona a 1058 MHz de serie, no a 980 MHz (y además clavados, sólo existe esa ligera oscilación de 13 MHz abajo por temperaturas).

      El OC más alto siendo una "patapalo" es de 1215 MHz (por revisar, los últimos drivers de nvidia, de aquí a un par de meses y además en progreso me están tumbando el OC, será que los drivers de nvidia "no progresan" y como no aumentan el rendimiento, no ponen contra la cuerda los OCs, jajaja :ugly:), y no pasa de ahí, pero el boost que lees en GPUz no tiene nada que ver (1140 MHz).

      Es que date cuenta, mi unidad es como es, pero otros con el mismo modelo se pone ella sóla en vez de a 1058 de serie a 1133 o algo por el estilo, sin problemas. Le haces un OC de 170 MHz y se va a 1300 (va por pasos el OC, no MHz a MHz), y según la información oficial del modelo el boot ha pasado de 980 MHz a 1150 MHz, para nada reflejando la realidad. Todo cálculo de escalibilidad y OCs hechos con estos datos no valen una mierda, hay que mirar la información de rendimiento en pantalla. En realidad las Kepler son bastante estables en sus frecuencias (excepto juegos de carga muyyy baja, lo cual se agradece en consumos), pero hay que conocer bien a cada unidad que pruebes porque su comportamiento es "independiente" de sus hermanas de modelo.

      Se me olvidaba comentar la otra parte de tu comentarios… XD

      La relación rendimiento/watio de Titan es muy buena, de hecho mejor que la de Little Kepler en no pocos casos:

      http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_Titan/28.html

      No compares stream processors entre marcas, la estructura en que se ordenan y funcionan es tan diferente que no es una comparación lógica, no tiene nada que ver el funcionamiento de un SMX de Kepler con un CU de GCN.

      El tamaño de die de Tahiti, que no sé qué le pasa a la gente con tanto "es gama alta", es casi igual al del GK104, son 300mm2 escasos vs unos 345mmm2. O sea, que la diferencia está en algo así como el 15%, y fácilmente explicable sólamente con el tema de los controladores de memoria. De hecho algún chip anterior de AMD de 256 bits no andaba lejos del tamaño de Tahiti, o sea que realmente no se "cambió" las normas de diseño de chips ni de lejos. el Gk110 es un animal de distinto pelaje, esos 550 mm2 son la marca de la "casa" de nvidia cuando se pone seria, aunque sigue sin ser el chip más grande (en die) de nvidia. Así que evidentemente el precio no tiene que ver siquiera ni con la calidad del producto ni costes (hubo buses de 512 bits tirados de precio).

      Yo a GCN no la veo escalar bien pero por los datos de rendimiento. Se ve en cualquier gráfica de rendimiento, en reviews, etc, cuando de pronto ves que modelos como la 7970 y la 7970 GHz casi empatan en puntuación, cuando deberían mantener consistentemente una diferencia del 13,5%. Cuando ves esto sabes que algo falla.

      Yo creo que el GK100 original si "fuera necesario" habría salido para gráficas originalmente, aunque fuera a trancas y barrancas. Porque en ese momento la producción de 28 nm, además de inmadura, y por tanto nada adecuada para un chip así de grande (muchos descartes), era limitada en número de obleas producidas. Es posible que incluso los precios altísimos originales de AMD no sólo sean por "ánimo de lucro", sino para evitar una demanda demasiado alta de gráficas que no pudieran cubrir. Y ya de paso exprimían el limón, claro. Pero vamos, que el alto coste por oblea de 28 nm, su baja producción, y los problemas iniciales añadidos podrían estar detrás de la decisión de vender a un precio muy alto (aunque no fuera el único factor).

      Ahora que se supone que ya no hay problema alguno de producción, que el número de obleas que TSMC puede producir es mucho mayor y que no hay tanto problema de descartes, es ahora cuando se podrían bajar precios con facilidad, pero bueno, una vez acomodados en un rango de precios se ve que les cuesta bajarlos.

      PD: Y si aún así piensas que el límite de TDP te evita conseguir lo que quieres en frecuencias, lo tienes fácil, se modifica la BIOS para subirlo hasta "el infinito y más allá", casi, si quieres subes algo los voltajes, y subes más y sin trabas de TDP la Kepler en cuestión.

      No se yo todavia no he probado una kepler,queria una con GK100 o Gk110 pero con estos precios creo que seguire esperando,pero mucha gente decia eso de que no mantiene la frecuencia estable ya que depende del consumo y de la temperatura,tambien de la aplicacion segun dicen en algun juego el boost sube mas que en otros,pero yo no lo pude comprobar,aunque si parece que aunque sean graficas mismo modelo si sale buena alcanza mas boost y en configuraciones SLI es dificil que dos alcancen frecuencias iguales,aunque para eso les meterian el control por hatdwatre de MS.

      La Titan si que me parece eficiente,aunque claro ha salido muchos meses despues que el GK104 y supongo que ya debe estar mucho mas maduro el proceso de 28nm,incluso ya deben tener casi preparado un GK114 o como quieran llamar al refresco del GK104,debe ser facil que sea mas eficiente que el GK104 y les permita meter mas SP,incluso mas frecuencia manteniendo consumos,lo que esta por verse es si les interesa sacarlo o prefieren estirar el GK104 unos meses mas.

      pero lo del TDP lo decia por que hay gente que se dedica al OC y prefieren no subir demasiado el power target,aunque tambien tienen 2 tarjetas o mas,si una es peor supongo que limitara a las otras.

      @Jose:

      Genial, la verdad es que la gráfica tiene muy buena pinta, una lastima el precio. Pero bueno, me tendré que conformar viendo tus resultados :D.

      Saludos!

      Un saludo txema si no es por el avatar ni te conozco,al final nos vemos todos por aqui a ver si se anima esto cuando haya Titanes,me da que esta ni la huelo con esos precios,ya podian sacar una con 3GB aunque sea como el k20 y a un precio mas normal.

      @Wargreymon:

      Hombre, en el sentido tamaño de die/rendimiento las Titan son claramente inferiores al GK104 (no así en rendimiento/w que parecen incluso superiores al GK104), pues el tamaño de die es casi el doble, pero el rendimiento no lo es, cosa que se debe claramente a que es un chip todoterreno con circuitería extra de doble precisión y otras funciones de computación que el GK104 no tiene (Hyper-Q, GPU Direct, Paralelismo dinamico…) ni necesita. Algo parecido sufren las HD7900, aunque no se exactamente que extras tienen en ese sentido las HD7900 respecto a las HD7800 (Aparte de los controladores de memoria extras y los cores GCN extras), pero las relaciones rendimiento/w y rendimiento/tamaño de die son peores en las HD7900 respecto a las HD7800.

      Yo creo que la Titan va a rendir muy bien para lo que es,el GK104 rinde mucho,viene a frecuencias altas con Boost y no es comun que un Chip pensado para gama performance supere por tanto a la gama alta anterior,el GK110 parece mas para alta resolucion,juegos muy pesados y exigentes,de todas formas ya deberian tener finalizado el diseño de un GK114 o GK204 o como quieran llamar al refresco del GK104 y posiblemente sea incluso mas eficiente que el GK110,por que ya debe estar mas maduro el proceso de fabricacion,ademas si hace eso que suele decir Nvidia de alineacion inteligente de transistores,deberian mejorar algo la arquitectura,tambien decia que las 7800 parecen tener mejor relacion rendimiento consumo que las 7900 y por eso decia que parece que a AMD se le da mejor hacer esas tarjetas,aunque parece que esas las fabrica GF,no se si tambien hay algunas de TSMC,no se si eso influye o no.

      Saludos

      publicado en Tarjetas Gráficas
      F
      fjavi
    • 1
    • 2
    • 33
    • 34
    • 35
    • 36
    • 37
    • 38
    • 39
    • 40
    • 35 / 40