Duda sobre conexiones DVI, HDMI, etc


  • 0

    Hola hardlimiteros;

    Tengo varias dudas respecto a estos dos formatos y quería ver si alguien sabe orientarme un poco:

    Hace poco descubrí que mi monitor (un Hanns-G guarrete de 19") tiene conexión DVI, pero no se si este tipo de conexión es para ver las cosas en HD o simplemente un VGA preparado para monitores LCD.

    El caso es que mi tarjeta (nVidia Geforce 8600GT) tiene 3 salidas: HDMI, DVI y VGA (yo la tengo conectada por VGA porque ni sabía que el monitor tenía otras entradas ). ¬¬

    Por lo que he visto la salida de la tarjeta es DVI M1-DA, y la entrada del monitor DVI-D.

    Las preguntas son:
    **- ¿Puedo conectar mi monitor a la entrada DVI y ganar calidad de imagen y/o nitidez?

    • ¿Debería conectar HDMI-a-DVI o DVI-a-DVI?
    • ¿Qué tipo de cable necesitaría?
      **
      Me gustaría saber qué opción me conviene más y si voy a ganar calidad de imagen antes de gastarme la pasta en un cable que a lo mejor no me sirve…

    Muchas gracias de anteman]o, se aceptan sugerencias de todo tipo! :ugly:



  • 1

    Hola compañero

    La verdad esque no ganarás nada entre VGA y DVI. Con el HDMI si ganarías, pero ya que tu monitor no tiene entrada HDMI, no tienes nada que hacer.

    Saludos.



  • 2

    La verdad esque no ganarás nada entre VGA y DVI. Con el HDMI si ganarías, pero ya que tu monitor no tiene salida HDMI, no tienes nada que hacer.

    Yo lo veo más bien al contrario… de dvi a hdmi a menos que necesites el audio no vas a notar nada, en cambio de vga a dvi estamos hablando de imagen analógica (y sus respectivas conversiones) a imágen digital. Por lo general el DVI siempre ha presentado imágenes más nitidas en 2D (texto sobretodo).
    Vamos yo al menos lo tenía entendido así xD No hay razón para estar usando el VGA teniendo la conexión DVI disponible.



  • 3

    @Sylver:

    Hola compañero

    La verdad esque no ganarás nada entre VGA y DVI. Con el HDMI si ganarías, pero ya que tu monitor no tiene salida HDMI, no tienes nada que hacer.

    Saludos.

    estooooo …... Sylver , es entrada no salida , que el monitor recibe señal , no la emite



  • 4

    Vale, vale, no me comáis… xD yo os comento, el cambio de imagen entre VGA y DVI, siendo franco, no me ha hecho notar diferencia después de probarlo. En cambio saltando de VGA o DVI a HDMI si que lo he notado. Hasta ahí mi experiencia xD OJO, también depende en gran medida del monitor, porque no es lo mismo un TFT marca cualquiera de 19" y unos añitos que un LG LCD de 21" (para no alejarnos mucho) de apenas 15 meses. (por arrojar valores como ejemplo)

    Saludos



  • 5

    Si tienes DVI en ambos lados…. que cable necesitarás? parece una pregunta de un concurso de madrugada, por 100€, vamos chicos llamad ya! :ugly:

    Pues seguramente le notes algo más de nitidez, tampoco esperes mucho porque se nota más en resoluciones mayores. PD. Como dice Krampak DVI puede portar señal de video analógica (como VGA) y digital (como HDMI) doble en el caso de los dual link y hasta USB en algunos casos; lo que no puede llevar es audio digital como el HDMI.



  • 6

    @Sylver:

    Hola compañero

    La verdad esque no ganarás nada entre VGA y DVI. Con el HDMI si ganarías, pero ya que tu monitor no tiene entrada HDMI, no tienes nada que hacer.

    Saludos.

    ¬¬ el vga tiene menos calidad. el dvi y el hdmi tienen la misma calidad teorica al ser señal digital, asi que la calidad real depende del cable (depende de la calidad del cable o funciona bien o funciona mal, cuando la señal es digital no hay termino medio y pagar de mas por un cable es tonteria).

    personalmente prefiero el dvi, aunque tenga la misma calidad que el hdmi, este ultimo suele hacer peor contacto en los conectores y tiende a fallar, ademas, todo lo que lleve las palabras high definition tiene sobrecoste by the face.

    @Sylver:

    Vale, vale, no me comáis… xD yo os comento, el cambio de imagen entre VGA y DVI, siendo franco, no me ha hecho notar diferencia después de probarlo. En cambio saltando de VGA o DVI a HDMI si que lo he notado. Hasta ahí mi experiencia xD OJO, también depende en gran medida del monitor, porque no es lo mismo un TFT marca cualquiera de 19" y unos añitos que un LG LCD de 21" (para no alejarnos mucho) de apenas 15 meses. (por arrojar valores como ejemplo)

    Saludos

    el hecho de que veas mejor la imagen por hdmi que por dvi tiene nombre… has oido hablar del efecto placebo? :troll:

    @Bm4n:

    Si tienes DVI en ambos lados…. que cable necesitarás? parece una pregunta de un concurso de madrugada, por 100€, vamos chicos llamad ya! :ugly

    que decias? :troll:



  • 7

    @incrediboy:

    ¬¬ el vga tiene menos calidad. el dvi y el hdmi tienen la misma calidad teorica al ser señal digital, asi que la calidad real depende del cable (depende de la calidad del cable o funciona bien o funciona mal, cuando la señal es digital no hay termino medio y pagar de mas por un cable es tonteria).

    personalmente prefiero el dvi, aunque tenga la misma calidad que el hdmi, este ultimo suele hacer peor contacto en los conectores y tiende a fallar, ademas, todo lo que lleve las palabras high definition tiene sobrecoste by the face.

    el hecho de que veas mejor la imagen por hdmi que por dvi tiene nombre… has oido hablar del efecto placebo? :troll:

    que decias? :troll:

    Que listo es este muchacho :ugly:
    Yo creo que entre VGA y DVI no hay una diferencia abismal, y sobre el efecto placebo… con dos monitores iguales uno al lado del otro conectados a la misma gráfica uno por DVI y otro por HDMI con valores de resolución exactamente iguales... tu me dirás, prueba prueba :troll:



  • 8

    Pues siento decir que el cable es el mismo :risitas:

    Si que hay diferencia, coge cualquier monitor 1080 o superior y verás claramente la diferencia de nitidez ;)



  • 9


  • 10

    Bueno, se agradecen todas las opiniones, no me esperaba tanto movimiento en un solo día… :fuckyea: ¡Gracias a todos!

    Aunque no me ha quedado muy claro si el cable es igual en todos los casos o tiene que tener diferentes pines. :ugly:

    He hablado con el dependiente de la tienda de mi barrio y me ha dicho que un cable HDMI a DVI es una apuesta arriesgada, porque la mitad de las veces no funcionan o se ve la pantalla en blanco y negro, que suele ser un trapi que hacen los chinos para engañar a la gente y con eso de las siglas HD cobrarle más (palabras textuales, lo juro).

    Vamos, que en mi caso me recomienda DVI-a-DVI porque más calidad que eso seguro que no le saco a mi guarrer-monitor...

    Así que esta tarde me pasaré a por un cable DVI-DVI con una chuletilla dibujada de los pines que tienen tanto tarjeta como monitor... y a ver qué me dicen, si lo tienen o qué.

    En caso de que tengan el cable que necesito, comentaré si he notado mejoría...



  • 11

    Yo pillé un dual porque me salía igual de precio pero si hubiera encontrado un single unos euros más barato me los hubiera ahorrado, para 1080p no hace falta un dual.

    Si lo vas a comprar en tienda física no creo que te ponga pegas para cambiarlo.



  • 12

    no os comais el coco ni mareeis al chaval

    DVI a DVI claramente es muy superior en calidad y nitidez a VGA a VGA

    VGA D-sub de 15 pines

    Pero este tipo de conector, que para monitores del tipo CRT van bastante bien, no son capaces de suministrar la suficiente calidad de imagen cuando se trata de monitores TFT u otros tipos similares.
    Esto es debido a que, sea el tipo de tarjeta gráfica que sea, la conexión con el monitor se realiza de forma analógica.
    La profundidad de color se define mediante voltaje simple, por lo que en teoría un monitor SVGA o VGA (del tipo CRT o de Tubo de Rayos Catódicos) no tiene prácticamente límite en cuanto al número de colores que es capaz de mostrar.
    El brillo de cada color se determina mediante una variación en la intensidad del rayo mientas este se desplaza por la línea correspondiente.

    Pero esto no ocurre del mismo modo cuando se trata de in monitor TFT, que como sabemos son los que se utilizan mayoritariamente en la actualidad.
    Y esto es así porque este tipo de pantallas no utilizan este sistema de rayos catódicos, sino que trabajan con una matriz de píxeles, y hay que asignar un valor de brillo a cada uno de ellos.

    Esto se hace mediante el decodificador, que toma muestras de entrada de voltajes a intervalos regulares.
    Este sistema plantea un problema cuando tanto la fuente emisora (en este caso la tarjeta) como la receptora (en este caso el monitor TFT) son digitales, ya que obliga a tomar este muestreo del centro mismo del píxel, para evitar de este modo ruidos y distorsiones del color.
    Esto provoca, entre otras cosas, que tanto el tono como el brillo de un píxel se pueda ver afectado por los de los píxeles que hay a su alrededor.

    Conector DVI:

    En el formato DVI esto se hace de otra forma, ya que se trata de un formato digital, por lo que el brillo de cada píxel se transmite mediante código binario.
    Esto hace que cuando una pantalla TFT trabaja con conexión DVI y en su resolución nativa (debemos recordar que las pantallas TFT tienen una resolución nativa, que es en la que dan su máxima calidad)
    cada píxel de salida se corresponde con un píxel de la pantalla, lo que hace que los píxeles tengan todo su color, calidad y brillo.
    Evidentemente, para que esto ocurra ambos elementos (tarjeta gráfica y monitor) deben tener conexiones digitales (DVI o HDMI).
    Esto es así porque los conectores DVI son capaces de transmitir tanto señal analógica como digital en uno de sus modelos (DVI-I), que es el que emplean las tarjetas gráficas.

    Los tipos, que se pueden ver en la imagen superior, son tres:

    DVI-D transmite sólo digital.
    DVI-A transmite sólo analógica.
    DVI-I transmite tanto señal digital como analógica.
    A su vez, los tipos DVI-D y DVI-I pueden ser duales (DL o Dual Link), es decir, que pueden admitir dos enlaces.

    El HDMI

    El HDMI, (High Definition Multimedia Interface), es el tipo de conector más usado actualmente y, claro está, el más nuevo.
    La principal diferencia con los demás tipos y en particular con el DVI es que a parte de transmitir la señal de video digital también es capaz de transmitir el audio.
    Y ambos sin comprimir.

    Esta conexión ofrece un ancho de banda de hasta 5 gigabytes por segundo, por eso se utiliza para enviar señales de alta definición, 1920×1080 píxeles (1080i, 1080p) o 1280×720 píxeles (720p).

    Existen tres tipos de conectores HDMI:

    El conector HDMI habitual es el tipo A, que dispone de 19 pines y es compatible hacia atrás con un enlace simple DVI, usado por monitores LCD y tarjetas gráficas modernas.
    Esto significa que una fuente DVI puede conectarse a un monitor HDMI, o viceversa, por medio de un adaptador adecuado.

    El conector HDMI tipo B tiene 29 pines y apenas está extendido actualmente, ya que fue diseñado para resoluciones más altas que las del formato 1080p (1920×1080 píxeles).

    Y el conector tipo C es igual que el tipo A pero con un tamaño más reducido. Es lo que sería el miniUSB al USB.

    Dentro de los tipos de HDMI encontramos tres especificaciones:

    HDMI 1.0 (Diciembre 2002).
    Cable único de conexión digital audio/video con bitrate máximo de 4.9 Gbit/s. Soporte hasta 165Mpixels/s en modo video (1080p60 Hz o UXGA) y 8-canales/192 kHz/24-bit audio.

    HDMI 1.2 (Agosto 2005).
    Se añade en esta especificación soporte para One Bit Audio, usado en Super Audio CD’s, hasta 8 canales. Disponibilidad HDMI Tipo A para conectores de PC.

    HDMI 1.3 (Junio 2006).
    Se incremente el ancho de banda a 340 MHz (10.2 Gbit/s) y se añade soporte para Dolby TrueHD y DTS-HD.
    TrueHD y DTS-HD son formatos de audio de bajas pérdidas usados en HD-DVD y Blu-ray Disc.
    Esta especificación dispone también de un nuevo formato de miniconector para videocámaras.

    CREO QUE QUEDA CLARO

    saludos



  • 13

    Creo que los copy&paste se os están yendo de la mano :risitas:





Has perdido la conexión. Reconectando a Hardlimit.