Drevalth se explicado mejor que yo, que tenia que ir a currar y no tenia tiempo, el consumo son los watios y es multiplicar los voltios por los amperios.
En cuanto a la segunda parte, pues decir que no hay nada de nada que sea 100% preciso, si mucho pero no al 100% y la corriente electrica no es una excepcion. Un ejemplo es los 230v que todo el mundo tiene en su casa, si usais un medidor o un SAI que indique el voltaje de entrada, vereis que os puede hacer picos de varios voltios arriba o abajo y no me refiero a 2 o 3v, pueden ser 20 o 30, y esos medidores miden una o unas cuantas veces por segundo, no los 2.000.000.000 impulsos que recibe una CPU a 2Gh, se ha demostrado incluso que el magnetismo de la tierra o las erupciones solares pueden afectar a la electricidad y, no se la causa, pero la temperatura tambien afecta a esos picos, es una de las causas que en los paises del norte con modem tengan ping de las adsl de aqui, hay menos temperatura y menos interferencias en los cables de cobre.
A todos los voltajes pasa lo mismo, aunque ese margen de error tambien se reduce. Si por un chupon de consumo de la CPU overcloqueada o que ha arrancado el DVD y la Grabadora al mismo tiempo o lo que sea, hay una bajada de voltaje de 0.2v en la CPU puede fallar teniendola al voltaje nominal ya que le llegaria menos voltaje que el que necesita, pero si manualmente se lo subes 0.2v esa bajada de 0.2 deja la CPU en su voltaje nominal y no a menos, por lo que no fallaria, esa es una de las causas por la que a mejor fuente mas overclock puedes hacer, al haber un mayor consumo la fuente aguanta mejor y con menos variacion de voltaje.
Si no me he explicado decidlo.
Saludos