par shadoko » 09 Mars 2006, 01:00
Dans tous les calculs que j'ai vu, ces "marges d'erreur" représentent en fait la chose suivante, qui est une sorte de leitmotiv du statisticien de base: on fait comme si on avait une loi normale, et on appuie sur le bouton de la calculette. Plus précisément:
Tu prends une question oui/non. Tu as un proportion p de la population qui va dire oui, et 1-p qui va dire non. Tu veux l'estimer avec un échantillon de N personnes. Tu appelles X la proportion de tes N qui te répond oui (la variable aléatoire etc...). Ce X suit une loi (dite binomiale, et que tu peux calculer à la main).
Le "théorème central limite" te dit que si tu prends un truc qui suit une loi (n'importe laquelle) et que tu l'appelles Z, alors, la loi de la variable Y = (moyenne de Z sur N expériences) tend vers une loi normale, quand N tend vers l'infini (c'est une des raisons mahtématiques de penser que la loi normale a quelque chose d'universelle par rapport aux autres).
Ce théorème te permet de penser, dans ce qui nous occupe (et dans ce cas, d'ailleurs, il est facile à montrer à la main), que le X suit presque une loi normale, de moyenne et d'écart-type qui dépendent de N et de P. Donc, on peut calculer numériquement un "intervalle de confiance" comme si c'était une loi normale, une fois qu'on a N. En gros, ce que te disent tes chiffres, c'est: si le machin suit une loi normale, alors, il y a 95% (ou 99%, je ne sais pas) de chances que le résultat soit dans la fourchette que tu dis.
Pour les détails des calculs (si tu les veux vraiment), ils sont sûrement à des tas d'endroit sur internet. Si tu ne trouves vraiment pas, j'essaierai de te trouver une page web...