• Portada
    • Recientes
    • Usuarios
    • Registrarse
    • Conectarse

    Los Nehalem, Tolapai y los Larabee

    Programado Fijo Cerrado Movido
    Procesadores, placas base y memorias
    9
    60
    3.9k
    Cargando más mensajes
    • Más antiguo a más nuevo
    • Más nuevo a más antiguo
    • Mayor número de Votos
    Responder
    • Responder como tema
    Accede para responder
    Este tema ha sido borrado. Solo los usuarios que tengan privilegios de administración de temas pueden verlo.
    • cdbularC
      cdbular @goxeman
      Última edición por

      @goxeman:

      pero hay que tener en ceunta que despues de que intel sacara sus q6600 sacaron la serie 9000 y estos no mejoraban lo que deberian haber mejorado…
      yo estoy bastante seguro que eso no pasara lo mismo con los nehalem... que por cierto cual van a ser sus numeros

      Si estoy de acuerdo con que son rumores, pero la diferencia entre los conroe y los penryn reside escencialmente en el cache, en el proceso de fabricacion y nuevas instrucciones SSE4. Agregar toneladas de cache como sabemos no va aumentar el rendimiento significativamente, excepto unas contadas aplicaciones. Nehalem tiene cambios arquitecturales mas profundos que simplemente una modificacion del cache.

      Los cambios en nehalem lo que intentan es aprovechar mas la bestia es que la unidad de ejecucion de el Core 2, que aunque no lo creas esta siendo subutilizada en los procesadores actuales, incluso las unidades del K8 que son basicamente las del K7 se subutilizan. Los cambios que introduce el nehalem son un esfuerzo por mejorar el front end , que ha sido el talon de aquiles de los procesadores superescalares, precisamente por las relativamente altas latencias de la RAM, el cache ayuda pero los misses son inevitables. Introducir el controlador de memoria en el nucleo reduce enormemente la latencia con respecto a FSB, como ya hemos visto con el K8, pero evidentemente para aprovechar esta disminucion en las latencias, se requieren mejores algoritmos de cache, y mejorar mucho el front end de tal forma que se pueda mantener un flujo de instrucciones aun mayor, de tal manera que se aprovechen mas los recursos de ejecucion. La tecnicas de predecoding y de branch prediction que se introducen tienden a mejorar esto, SMT es tambien una forma de aprovechar los tiempos "muertos" del nucleo de ejecucion mientra se espera por otras instucciones.

      Bm4nB 1 Respuesta Última respuesta Responder Citar 0
      • Bm4nB
        Bm4n @cdbular
        Última edición por

        Hombre a mi lo que me extraña del rumor es la pequeña diferencia entre Barcelona y Shanghai en comparación con la gran diferencia entre el X5 y el Nehalem que incluso duplica en punto flotante. Claro viendo esta diferencia y siendo información dudosa pues yo me pregunto que tipo de Nehalem era el de la prueba.

        Porque claro si es un Nehalem ya acabado, y de estas características:

        • Para servidor (que de eso va la gráfica).
        • Triple canal DDR3 1333.
        • 4 núcleos (con 2 hilos por cabeza, osea 8 en total)
        • 2x QuickPath.
        • Y quien sabe si incluso a 3,2GHz.
        • 8MB de caché.

        Eso es una bestia, también estaremos hablando de un procesador de más de 1000€ y no quiero ver el rendimiento de un Nehalem-EX (8 núcleos (16 hilos), 24 MB L3 o L4, Quad channel FB-DIMM2, 4x QuickPath) porque tiene que ser en dos palabras im-presionante.

        Claro que si estos bichos los comparamos con un Shanghai quizás inacabado o de dos núcleos aunque sea el de una muestra actual… es posible que haya más diferencia de la que después pueda haber si se llega a explotar más. Pero bueno espero en serio que AMD no se quede atrás por mantener una competencia y por el bien de la propia AMD, otro tema que suele importar en servidores es el consumo y en eso no se como andará el Nehalem.

        De todas formas estamos hablando de procesadores de servidor que aunque los de casa lleven cores parecidos no son lo mismo. Y luego está el mercado de los portátiles que también cambia un poco.

        Cdbular llevas razón evidentemente ahora que se avanzan la conexión con los periféricos y memoria hay que aprovechar esto con un buen procesamiento, y un buen multithread seria algo que mejora bastante ese front end. Parece que es ahora el turno de que Intel saque punta a una arquitectura muy eficiente que tenía "escondida", y AMD se fuerce a no quedarse atrás.

        hlbm signature
        ↳ Mis componentes

        goxemanG 1 Respuesta Última respuesta Responder Citar 0
        • goxemanG
          goxeman @Bm4n
          Última edición por

          @Bm4n:

          Eso es una bestia, también estaremos hablando de un procesador de más de 1000€ y no quiero ver el rendimiento de un Nehalem-EX (8 núcleos (16 hilos), 24 MB L3 o L4, Quad channel FB-DIMM2, 4x QuickPath) porque tiene que ser en dos palabras im-presionante.

          Estoy contigo que es impresionante…

          Pero qué usuario se va a gastar 1000€ en un micro si depues empieza a sumarle mas componentes??
          Me parece una locura...

          XRAYBoYX 1 Respuesta Última respuesta Responder Citar 0
          • XRAYBoYX
            XRAYBoY Veteranos HL @goxeman
            Última edición por

            De todo esto que habéis dicho,solo tengo una duda: 😛

            Cuando existen operaciones complicadas y que pueden afectar al rendimiento de un procesador
            (cod-descod,gráficos,etc…) y todo el mundo tiende a delegar en otro hardware (gráficas integradas en placas,chipsets con decodificadores...etc)
            para que vaya mas fluido el trabajo del procesador...

            ¿a que demonios viene esto de que el micro (Larabee) se ocupe de los gráficos?
            Que beneficio de rendimiento (para nosotros,no para ellos) tiene esto?

            Salu2

            cdbularC 1 Respuesta Última respuesta Responder Citar 0
            • cdbularC
              cdbular @XRAYBoY
              Última edición por

              @XRAYBoY:

              De todo esto que habéis dicho,solo tengo una duda: 😛

              Cuando existen operaciones complicadas y que pueden afectar al rendimiento de un procesador
              (cod-descod,gráficos,etc…) y todo el mundo tiende a delegar en otro hardware (gráficas integradas en placas,chipsets con decodificadores...etc)
              para que vaya mas fluido el trabajo del procesador...

              ¿a que demonios viene esto de que el micro (Larabee) se ocupe de los gráficos?
              Que beneficio de rendimiento (para nosotros,no para ellos) tiene esto?

              Salu2

              Las operaciones que se delegan a otro hardware son aquellas que poseen alto nivel de paralelismo. Una CPU es una procesador de proposito general cuyo punto fuerte es la ejecucion de instruciones en secuencia. Las tareas como codificacion y decodificacion de video, y procesamiento de graficos 3D poseen alto nivel de paralelismo y aunque una CPU tenga muchos nucleos y sea muy potente no lograra ejecutarlos rapidamente. Una GPU lo que hace es explotar el nivel de paralismo de estas tareas, en esencia la estructura de una GPU esta compuesta de gran multitud de procesadores en paralelo que pueden completar las tareas mencionadas en una fraccion de CPU time. Si colocas una GPU a ejecutar operaciones con bajo o nulo nivel de paralelismo tardara una eternidad comparado con una CPU, pues ejecutara en unos cuantos de sus procesadores que son muy simples y no tienen la potencia de un core CPU actual. La decodificacion de video en los chipsets proviene del video integrado IGP.

              Integrar nucleos de GPU en el chip de la CPU puede tener ciertas ventajas, sobretodo en el mercado mobile, se ahorraria un monton en potencia, ademas seria mas barato y mas eficiente que integralo en el chipset. El beneficio en rendimiento en cuanto a graficos discreto es obviamente nulo, pues una tarjeta grafica va a ser siempre mas potente, porque se puede utilizar una GPU mas potente afuera y la memoria es dedicada y mucho mas rapida.

              Lo que veo es que se quiere crear un procesador hibrido aprovechando el nivel de integracion que se puede lograr, de tal manera que la CPU no dependa de procesadores externos para completar tareas con alto nivel de paralelismo, evidentemente esto puede alcanzar un mayor rendimiento que iun IGP y los ahorros de enrgia y espacio serian bastante buenos.

              XRAYBoYX 1 Respuesta Última respuesta Responder Citar 0
              • XRAYBoYX
                XRAYBoY Veteranos HL @cdbular
                Última edición por

                @cdbular:

                Integrar nucleos de GPU en el chip de la CPU puede tener ciertas ventajas, sobretodo en el mercado mobile, se ahorraria un monton en potencia, ademas seria mas barato y mas eficiente que integralo en el chipset. El beneficio en rendimiento en cuanto a graficos discreto es obviamente nulo, pues una tarjeta grafica va a ser siempre mas potente, porque se puede utilizar una GPU mas potente afuera y la memoria es dedicada y mucho mas rapida.

                Me lo temía.Potencia(no comparable con ningún otro,claro),barato(en producción) y eficiente(¿presumir de mas vida en batería?)…Ventajas para ellos.
                Eficiencia es un VIA Nano y lo demás tonterías.
                @cdbular:

                Lo que veo es que se quiere crear un procesador hibrido aprovechando el nivel de integracion que se puede lograr, de tal manera que la CPU no dependa de procesadores externos para completar tareas con alto nivel de paralelismo, evidentemente esto puede alcanzar un mayor rendimiento que iun IGP y los ahorros de enrgia y espacio serian bastante buenos.

                Y esto ultimo,no creo que le haga gracia a Nvidia.(A no ser que sean absorbidos)
                El espacio,en un mobile,sigue siendo ventaja para ellos y en cuanto al ahorro de energía,
                todos preferimos gastar mas Watts y tener mejor rendimiento.

                Aunque pudieran llegar a integrar toda la potencia de un GMA X3100 :resaca:

                Gracias por la Info.
                Salu2

                cdbularC Bm4nB 2 Respuestas Última respuesta Responder Citar 0
                • cdbularC
                  cdbular @XRAYBoY
                  Última edición por

                  @XRAYBoY:

                  Me lo temía.Potencia(no comparable con ningún otro,claro),barato(en producción) y eficiente(¿presumir de mas vida en batería?)…Ventajas para ellos.
                  Eficiencia es un VIA Nano y lo demás tonterías.

                  Y esto ultimo,no creo que le haga gracia a Nvidia.(A no ser que sean absorbidos)
                  El espacio,en un mobile,sigue siendo ventaja para ellos y en cuanto al ahorro de energía,
                  todos preferimos gastar mas Watts y tener mejor rendimiento.

                  Aunque pudieran llegar a integrar toda la potencia de un GMA X3100 :resaca:

                  Gracias por la Info.
                  Salu2

                  El ahorro de potencia siempre es un beneficio patra el ususario sobretodo si hablamos de aplciaciones mobiles.
                  El costo es evidentemente benefico para el usuario, al bajar costo de produccion baja el precio del producto final.
                  Y por ultimo nVidia no tendria por que preocuparse demasiado por esta integracion CPU/GPU. Esto solo afectaria un poco sus plataformas de video integrado y very low end. Las graficas mas potentes van a seguir siendo discretas.

                  XRAYBoYX goxemanG 2 Respuestas Última respuesta Responder Citar 0
                  • Bm4nB
                    Bm4n @XRAYBoY
                    Última edición por

                    @XRAYBoY:

                    Me lo temía.Potencia(no comparable con ningún otro,claro),barato(en producción) y eficiente(¿presumir de mas vida en batería?)…Ventajas para ellos.
                    Eficiencia es un VIA Nano y lo demás tonterías.

                    Y esto ultimo,no creo que le haga gracia a Nvidia.(A no ser que sean absorbidos)
                    El espacio,en un mobile,sigue siendo ventaja para ellos y en cuanto al ahorro de energía,
                    todos preferimos gastar mas Watts y tener mejor rendimiento.

                    El tema es mejorar la potencia que tienen ahora en sus chipsets con gráficos integrados no competir con las tarjetas gráficas porque como ya se comento un CPU y un GPU tienen arquitecturas bastante diferentes, el consumo del procesador con gráficos integrados si aumenta un poco pero en conjunto (CPU + chipset) me supongo que será muy parecido.

                    El VIA Nano es otro mercado, umpc y ultraportatil; competirá con el Atom y el Geode y sorpresa Nvidia: Nvidia Tegra All-in-One Mobile Processors Aim to Nuke Intel's Atom, Promise 30 Hours HD Playback.

                    Yo estaría muy atento a Nvidia los próximos años, le veo los tintes de intentarse hacer un hueco en el mundo de los CPUs. Evidentemente estas tecnologías tampoco les preocupan mucho, por el momento… ya que no son competidores para sus tarjetas gráficas.

                    El consumo es muuuy importante, tanto que hay múltiples gamas de CPUs con diferentes consumos para diferentes tamaños de portatiles, ultraportatiles y umpc según la batería que tengan. Tienes C2D a 15W, y tendrás Atom a 3 o 4W, en estos lo primordial es el consumo. Evidentemente en sobremesa todavía no se ha puesto de moda el ecologismo 😉

                    hlbm signature
                    ↳ Mis componentes

                    1 Respuesta Última respuesta Responder Citar 0
                    • XRAYBoYX
                      XRAYBoY Veteranos HL @cdbular
                      Última edición por

                      @cdbular:

                      El ahorro de potencia siempre es un beneficio patra el ususario sobretodo si hablamos de aplciaciones mobiles.
                      El costo es evidentemente benefico para el usuario, al bajar costo de produccion baja el precio del producto final.
                      Y por ultimo nVidia no tendria por que preocuparse demasiado por esta integracion CPU/GPU. Esto solo afectaria un poco sus plataformas de video integrado y very low end. Las graficas mas potentes van a seguir siendo discretas.

                      Si bien es cierto que las primeras revisiones serán discretas,no espero una reducción del coste para el usuario,al menos en el primer año o mas.
                      (No van a vender un producto innovador,que vale casi por 2,arrasando [one more time] a la competencia y a menor precio).

                      Habría que ver que porcentaje pierde Nvidia para preocuparse o no (probablemente venderán 10 veces mas hardware low-end e integrados a ensambladores que tarjetas Hi-Tech)

                      De cualquier modo,solo son puntos de vista diferentes sobre hipótesis del futuro…
                      Y debo añadir que me congratularía sobremanera estar equivocado.

                      Salu2

                      cdbularC 1 Respuesta Última respuesta Responder Citar 0
                      • goxemanG
                        goxeman @cdbular
                        Última edición por

                        por todo lo que llevamos comentado…

                        saco en conclusion que estos micros pueden que marquen nueva etapa...

                        pero quien va a comprar este micro por mas de 1000€ contando que luego tendra que comprar un socket nuevo que seguro que tambien vale mas dinero que un 775...

                        y por otro lado todos los gamers no creo que le encuentren beneficio ya que no va a suponer mejora en los juegos debido a que actualmente no se aprovecha al 100% un dual y ya no hablemos de un quad...

                        asi que si alguien le encuentra alguna aplicacion logica en la que se le pueda sacar partido a esta tecnologia y que ademas valga la pena gastarse una cantidad 2000€ aproximadamente en lo que constituiria la torre...??

                        1 Respuesta Última respuesta Responder Citar 0
                        • cdbularC
                          cdbular @XRAYBoY
                          Última edición por

                          @XRAYBoY:

                          Si bien es cierto que las primeras revisiones serán discretas,no espero una reducción del coste para el usuario,al menos en el primer año o mas.
                          (No van a vender un producto innovador,que vale casi por 2,arrasando [one more time] a la competencia y a menor precio).

                          Habría que ver que porcentaje pierde Nvidia para preocuparse o no (probablemente venderán 10 veces mas hardware low-end e integrados a ensambladores que tarjetas Hi-Tech)

                          De cualquier modo,solo son puntos de vista diferentes sobre hipótesis del futuro…
                          Y debo añadir que me congratularía sobremanera estar equivocado.

                          Salu2

                          En cuanto lo primero. Que es mas barato? un Quad core o dos procesadores dual core?

                          En cuanto a lo segundo

                          Seguramente los graficos integrados se venden mas, pero la ganancia que onbtienen las empresas por ello es una minima porcion. Como vemos las mayor parte, por no decir casi todos los revenues provienen de los graficos discretos del sector entusiasta y mainstream.

                          Nvidia ya ha comentado sobre como pretende competir con fusion y larrabe

                          http://images.google.com.pr/imgres?imgurl=http://techreport.com/r.x/2008_4_11_Nvidia_CEO_shoots_down_CPUGPU_hybrids_Larrabee/gpufuture.jpg&imgrefurl=http://techreport.com/discussions.x/14538&h=286&w=510&sz=31&hl=es&start=26&um=1&tbnid=dEp6wLSyzMt38M:&tbnh=73&tbnw=131&prev=/images%3Fq%3DGPU%2Bmarketshare%2B2008%26start%3D21%26ndsp%3D21%26um%3D1%26hl%3Des%26lr%3D%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:en-US:official%26sa%3DN

                          Bm4nB XRAYBoYX 2 Respuestas Última respuesta Responder Citar 0
                          • Bm4nB
                            Bm4n @cdbular
                            Última edición por

                            XRAYBoY, puedes estar tranquilo, no van por ahí los tiros.
                            Goxeman, estamos hablando de procesadores caros porque los ejemplos y comparativas que han salido son de un CPU core Nehalem para servidor no para sobremesa, no quiere decir que todos lo modelos vayan a tener un precio tan elevado.

                            hlbm signature
                            ↳ Mis componentes

                            1 Respuesta Última respuesta Responder Citar 0
                            • XRAYBoYX
                              XRAYBoY Veteranos HL @cdbular
                              Última edición por

                              @cdbular:

                              En cuanto lo primero. Que es mas barato? un Quad core o dos procesadores dual core?

                              Hombre!… si sumamos 2 peras y 2 peras nos da 4 peras.Y saldrá mas barato comprar al pormayor.
                              (o cuando habiendo amortizado todo el I+D,los fabrican como churros.Espera un poco y verás lo que pasa con los precios de los Dual)

                              Pero si sumamos 1 pera(CPU) y 1 manzana(GPU),nos da una Manzanipera ®,alias Larrabee,injerto que tendrá su precio(y mercado) propio.

                              En cuanto a lo segundo,ese gráfico es de PC Desktop y donde se inflarán a vender low-end e integrado será en el mercado de portátiles.(excluido del gráfico)

                              Bm4n,intuyo que hay algo que se me pasa por alto.¿?
                              Ya dejo de escribir suposiciones y sigo leyendo la verdad del futuro.:mudo:
                              Que soy mu pesao! 😄

                              Salu2

                              Bm4nB cdbularC 2 Respuestas Última respuesta Responder Citar 0
                              • Bm4nB
                                Bm4n @XRAYBoY
                                Última edición por

                                @XRAYBoY:

                                Bm4n,intuyo que hay algo que se me pasa por alto.¿?
                                Ya dejo de escribir suposiciones y sigo leyendo la verdad del futuro.:mudo:
                                Que soy mu pesao! 😄

                                Jajaja, no hombre lo decía por alguna cosilla:
                                1º Intel CPU+IGP sustituye al Chipset+IGP, no pretende más.
                                2º O haces un procesador potente para gráficos o potente para aplicaciones.
                                3º No solo Intel evoluciona, Nvidia también.
                                4º Los juegos idem, cada vez necesitan más potencia y no solo de polígonos.
                                5º La memoria que usan las gráficas siempre va algo por delante de la de los CPUs.

                                Yo con esto por el momento no pensaría que con esto Intel o AMD pretendan sacar trozo de la tarta de las tarjeta gráficas. Eso ya lo hicieron antaño cuando integraron el IGP al chipset.

                                PD. Aun en el caso de que AMD e Intel se adueñaran de los gráficos integrados en chipsets (que no le da el pan a Nvidia) ya ves la tarta, en integrados solo se lleva menos de un 10% que hay que repartirlo entre las diferentes compañías, a Nvidia no le interesa competir por eso sino seguir con lo que mejor sabe hacer tarjetas gráficas tanto para sobremesa como portatiles y también porque no CPUs con gráficos para umpc y quien sabe si en un futuro CPUs mas potentes con sus gráficos integrados.

                                Lo que tienen es que siempre mantener lo que de verdad les da dinero que es la gama de gráficas para la gente que juega. Por decirlo a si el mercado de integradas para sobremesa es muy pobre y para portatiles cada dia más porque ahora se hacen gráficas muy buenas, pequeñas, eficientes y baratas. Yo creo que mietras Nvidia se centre en esto e incluso busque aumentar mercado… estos proyectos de Intel y ATI no le afectarían de lleno.

                                PD2 Y los nuevos mercados creo que le darán dinero a Nvidia, como el mercado de los móviles.

                                Hay madre como me desvio del tema de la rama... 😛 bueno no se si me explico...

                                hlbm signature
                                ↳ Mis componentes

                                1 Respuesta Última respuesta Responder Citar 0
                                • cdbularC
                                  cdbular @XRAYBoY
                                  Última edición por

                                  @XRAYBoY:

                                  Hombre!… si sumamos 2 peras y 2 peras nos da 4 peras.Y saldrá mas barato comprar al pormayor.
                                  (o cuando habiendo amortizado todo el I+D,los fabrican como churros.Espera un poco y verás lo que pasa con los precios de los Dual)

                                  Pero si sumamos 1 pera(CPU) y 1 manzana(GPU),nos da una Manzanipera ®,alias Larrabee,injerto que tendrá su precio(y mercado) propio.

                                  En cuanto a lo segundo,ese gráfico es de PC Desktop y donde se inflarán a vender low-end e integrado será en el mercado de portátiles.(excluido del gráfico)

                                  Bm4n,intuyo que hay algo que se me pasa por alto.¿?
                                  Ya dejo de escribir suposiciones y sigo leyendo la verdad del futuro.:mudo:
                                  Que soy mu pesao! 😄

                                  Salu2

                                  Pues si la idea de intel y AMD es impulsar sus plataformas de video integrado por encima de lo que pueda ofrecer nvidia, no tendria sentido que tuviesen un precio mucho mas alto.
                                  Ademas tengo serias dudas de que intel (que es el inflador de precios) pueda desarrollar una plataforma de graficos integrados superior a las de AMD o Nvidia.

                                  cdbularC Bm4nB 2 Respuestas Última respuesta Responder Citar 0
                                  • cdbularC
                                    cdbular @cdbular
                                    Última edición por

                                    Anandtech ha publicado un preview del nehalem a 2.66GHz. Hay algunos bechmarks, pero estos solo muestran el rendimiento de aplicaciones que aprovechan multipes threads, es evidente que corriendo estas aplicaciones el nehalem tendra mayor rendimiento que en un core2 Quad debido a que el nehalem puede procesar mas threads. Quisiera ver mas aplciaciones para observar el rendimiento con aplicaciones mas comunes y juegos. Uno de los benchmarks, el singletheraded cinebench muestra una diferencia que es solo del 2% clock for clock.

                                    Nehalem Preview

                                    neonet_argN 1 Respuesta Última respuesta Responder Citar 0
                                    • neonet_argN
                                      neonet_arg @cdbular
                                      Última edición por

                                      a medio día espinetebolas a publicado lo mismo en la seccion de noticias hl

                                      yo también he llegado a la misma conclusión, de hecho acabo de postear en noticias hl algo parecido a lo tuyo antes de ver tu post. lo primero q me llamó la atención es q todos los test salvo uno eran multi-hilo y q el único mono-hilo presentaba una diferencia de rendimiento de sólo un 2% respecto a los penryn clock por clock. a parte el consumo crece un 10%, q aunque lo intenten vender como un buen dato, a mi no me lo parece.

                                      debemos esperar mas benchs, con esto es insuficiente.

                                      cdbularC 1 Respuesta Última respuesta Responder Citar 0
                                      • cdbularC
                                        cdbular @neonet_arg
                                        Última edición por

                                        En las pruebas iniciales de multithreaded de cinebench el Reviewer cometio un "error", alguno de los lectores se ha dado cuenta y se lo hizo saber. Los numeros de cinebench son incorrectos. Aqui hay gato encerrado…de nuevo....

                                        neonet_argN 1 Respuesta Última respuesta Responder Citar 0
                                        • neonet_argN
                                          neonet_arg @cdbular
                                          Última edición por

                                          @cdbular:

                                          En las pruebas iniciales de multithreaded de cinebench el Reviewer cometio un "error", alguno de los lectores se ha dado cuenta y se lo hizo saber. Los numeros de cinebench son incorrectos. Aqui hay gato encerrado…de nuevo....

                                          si, tiene toda la pinta de ser muy poco fiable, no se puede hacer caso a este tipo de noticias hasta q varias webs reciban los micros y hagan sus pruebas bien. también es casualidad q el micro lo saquen impregnado de pasta térmica con la q no se ve nada, aunque ellos por supuesto explican el por qué, aunque yo no me creo las excusas 😛

                                          1 Respuesta Última respuesta Responder Citar 0
                                          • Bm4nB
                                            Bm4n @cdbular
                                            Última edición por

                                            @cdbular:

                                            Pues si la idea de intel y AMD es impulsar sus plataformas de video integrado por encima de lo que pueda ofrecer nvidia, no tendria sentido que tuviesen un precio mucho mas alto.
                                            Ademas tengo serias dudas de que intel (que es el inflador de precios) pueda desarrollar una plataforma de graficos integrados superior a las de AMD o Nvidia.

                                            Evidentemente, te refieres a superar lo que ofrece Nvidia con sus chipsets con IGP, no? Yo también dudo de que Intel tenga esa capacidad ya que tiene una corta experiencia con gráficos.
                                            @cdbular:

                                            En las pruebas iniciales de multithreaded de cinebench el Reviewer cometio un "error", alguno de los lectores se ha dado cuenta y se lo hizo saber. Los numeros de cinebench son incorrectos. Aqui hay gato encerrado…de nuevo.....

                                            Que error? No lo he leido.

                                            hlbm signature
                                            ↳ Mis componentes

                                            cdbularC 1 Respuesta Última respuesta Responder Citar 0
                                            • 1
                                            • 2
                                            • 3
                                            • 3 / 3
                                            • First post
                                              Last post

                                            Foreros conectados [Conectados hoy]

                                            2 usuarios activos (0 miembros e 2 invitados).
                                            febesin, pAtO,

                                            Estadísticas de Hardlimit

                                            Los hardlimitianos han creado un total de 543.3k posts en 62.8k hilos.
                                            Somos un total de 34.7k miembros registrados.
                                            robadams ha sido nuestro último fichaje.