La magnitude caractérise la luminosité d'une étoile.
Cette notion a été introduite par les Anciens pour classer les étoiles selon leur luminosité. Les étoiles étaient alors classées en étoiles de première grandeur pour les
plus brillantes puis venaient celles de deuxième grandeur et ainsi de suite jusqu'à la sixième grandeur, correspondant à la limite de visibilité à l'oeil nu.
Une valeur de 1 à 6 étaient ainsi attribuée à chaque étoile indiquant sa luminosité : c'est la magnitude.
Pour affiner la valeur de la magnitude en passant à des valeurs décimales, la difficulté de passer d'une échelle basée sur une impression visuelle à une échelle physique se posa.
En effet, nos sens (la vue en particulier) ne répondent pas de manière proportionnelle au signal reçu. Ainsi, une étoile 2 fois plus brillante qu'une autre ne parait qu'à peine plus brillante.
Le facteur entre la luminosité la plus faible visible à l'oeil nu et celle du Soleil est de 13 000 milliards .La magnitude de la première est de 6,5 et la seconde -26,5 , chaque écart de 1 magnitude correspondant à une multiplication par 2,5 de la luminosité.
L'origine de la classification des étoiles en grandeur, explique que la valeur de la magnitude diminue quand la luminosité augmente.
A partir des écarts de magnitude, il est possible de calculer l'écart en luminosité :
ainsi l'étoile Véga de la constellation de la Lyre (qui brille au zenith en été) a 2 magnitudes de moins que l'étoile polaire ; elle est donc 2,5 x 2,5 soit 6,25 fois plus brillante qu'elle. Vénus à son maximum de brillance atteint la magnitude -4, soit 4 magnitudes de moins que Véga, elle est donc 2,5 x 2,5 x 2,5 x 2,5 soit 39 fois plus brillante.