Econométrie

Réussis tes devoirs et examens dès maintenant avec Quizwiz!

51. Il faut utiliser un test non linéaire si l'hypothèse nulle est : 𝐻0 : 𝛽1⁄𝛽2 = 1

F

54. La fonction de log-vraisemblance est toujours positive.

F

56. Le nombre de degré de liberté d'un test du rapport des vraisemblances est égal au nombre de paramètres du modèle.

F

58. La variance de l'estimateur MV 𝜎̃2 d'un modèle de régression linéaire normal est plus grande ou égale à celle de l'estimateur des MCO 𝜎̂2 .

F

6. Si une variable explicative est le produit de deux autres variables explicatives, il y a multicolinéarité parfaite.

F

8. On doit prendre le 𝑅2 du modèle pour calculer le 𝑉𝐼𝐹.

F

9. L'estimateur des moindres carrés ordinaire de 𝜷 est toujours sans biais.

F

La loi 𝑡 de Student est identique à la loi normale si les degrés de liberté sont supérieurs à 30

F

11. L'hypothèse de stricte exogénéité est suffisante pour que 𝜷̂ soit sans biais

V

15. Plus le 𝑅2 est grand, plus la statistique F est grande.

V

22. La loi 𝐹(1 , 𝑁 − 𝐾) est équivalente au carré d'une loi 𝑡(𝑁 − 𝐾)

V

25. On peut calculer la statistique 𝐹 à partir des 𝑅2 des modèles contraints et non contraints

V

28. Le test 𝐶𝑈𝑆𝑈𝑀SQ vérifie la stabilité des paramètres dans le temps

V

29. Le test de Jarque et Béra repose sur des propriétés asymptotiques

V

3. Le R² est le rapport de la variation expliquée par rapport à la variation totale.

V

31. La limite en probabilité est un concept asymptotique.

V

36. Une réalisation est une observation particulière d'un processus stochastique.

V

42. Une marche aléatoire est une martingale.

V

44. Si le processus des variables dépendantes et explicatives est stationnaire et ergodique et si les régresseurs sont endogènes, l'estimateur des MCO est convergent.

V

13. Le critère des moindres carrés a) minimise la somme des carrés des erreurs b) maximise la somme des carrés des erreurs c) minimise le carré de la somme des erreurs d) minimise la somme des valeurs absolues des erreurs

a) minimise la somme des carrés des erreurs

58. Le test de 𝑊𝑎𝑙𝑑 est égal au test 𝐹 de Fisher : a) multiplié par le nombre de contraintes b) divisé par le nombre de contraintes c) multiplié par le nombre de paramètres d) divisé par le nombre de paramètres

a) multiplié par le nombre de contraintes

101. Sous les conditions de régularité de la fonction de log-vraisemblance, l'estimateur du maximum de vraisemblance : a) est asymptotiquement convergent. b) est convergent. c) est distribué selon la loi de probabilité de la vraisemblance. d) non convergent mais normalement distribué.

b) est convergent.

113. Dans le modèle LOGIT, le résidu LOGIT est : a) nul. b) orthogonal aux variables explicatives. c) de variance minimale. d) orthogonal aux paramètres estimés.

b) orthogonal aux variables explicatives.

54. La somme des carrés des résidus d'un modèle contraint est toujours ......... que la somme des carrés des résidus d'un modèle non contraint. a) plus grande b) plus grande ou égale c) plus petite d) plus petite ou égale

b) plus grande ou égale

106. L'estimateur MV de 𝜎2 d'un modèle de régression linéaire normal est : a) identique à l'estimateur des MCO 𝜎̂2 b) proportionnel à l'estimateur des MCO 𝜎̂2 c) sans biais d) est égal à 𝑆𝐶𝑅⁄(𝑁 − 𝐾)

b) proportionnel à l'estimateur des MCO 𝜎̂2

111. Dans un modèle LOGIT, pour modéliser la probabilité de choix, on utilise : a) une loi binomiale b) une loi logistique c) une loi normale. d) une loi uniforme

b) une loi logistique

102. La variance asymptotique de l'estimateur du maximum de vraisemblance : a) est asymptotiquement normalement distribuée. b) égale à l'opposé de l'inverse de la matrice d'information de Fisher. c) est convergente. d) est asymptotiquement égale au gradient de la log-vraisemblance.

b) égale à l'opposé de l'inverse de la matrice d'information de Fisher.

103. Le test du rapport des vraisemblances nécessite : a) l'estimation du modèle contraint uniquement. b) l'estimation du modèle non contraint uniquement. c) l'estimation des modèles contraint et non contraint. d) L'estimation d'aucun de ces modèles.

c) l'estimation des modèles contraint et non contraint.

10. L'hypothèse d'homoscédasticité est nécessaire pour que 𝜷̂ soit sans biais

F

12. L'omission d'une variable pertinente dans une régression entraîne toujours l'apparition d'un biais.

F

13. La variance inconditionnelle de 𝜷̂ est identique à sa variance conditionnelle :

F

14. L'hypothèse de normalité des erreurs est nécessaire pour que 𝜷̂ soit « BLUE »

F

2. La covariance d'échantillonnage entre les régresseurs et les résidus des moindres carrés ordinaires (MCO) est toujours positive.

F

20. Plus le 𝑅2 de la régression est grand, plus la significativité globale des paramètres est rejetée.

F

23. La loi 𝐹(𝐽 , 𝑁 − 𝐾) est équivalente à la loi 𝐹(𝑁 − 𝐾 , 𝐽).

F

27. Le test 𝐶𝑈𝑆𝑈𝑀 est utile en coupes instantanées

F

30. Le test de Jarque et Béra est utile en grand échantillon.

F

37. Un processus stochastique est stationnaire s'il a toujours la même valeur.

F

1. Une mesure naturelle de l'association entre deux variables aléatoires est le coefficient de corrélation.

V

17. Plus la probabilité critique est grande, plus vraisemblable sera l'hypothèse nulle.

V

18. On peut calculer la statistique 𝐹 de significativité globale à partir du 𝑅2 de la régression.

V

19. On peut calculer la statistique 𝐹 de significativité globale à partir du 𝑅̅̅² de la régression.

V

33. Si une séquence de variables aléatoires converge presque sûrement, alors elle converge en probabilité.

V

34. Si une variable aléatoire converge en distribution, alors elle converge en probabilité.

V

38. Toute fonction continue d'un processus stationnaire est aussi stationnaire.

V

4. Dans une régression multiple, il y a 𝑁 − 𝐾 degrés de liberté dans les résidus de moindres carrés ordinaires.

V

40. On peut estimer de manière convergente les deux premiers moments d'un processus stochastique ergodique avec une seule réalisation suffisamment longue de ce processus.

V

41. La moyenne d'un processus stochastique stationnaire et ergodique est un estimateur convergent de l'espérance des variables aléatoires de ce processus.

V

47. Le modèle de régression : 𝑦 = 𝛼 + 𝛽𝑥^𝛾 + 𝜀 est un modèle non linéaire dans les paramètres.

V

48 Le modèle de régression : 𝑦 = 𝛼 + 𝛽𝑥 + (1⁄𝛽)𝑧 + 𝜀 est un modèle non linéaire dans les paramètres.

V

50. Dans un modèle linéaire de probabilité, la variance de l'erreur dépend des probabilités de chaque choix.

V

50. Il faut utiliser un test non linéaire si l'hypothèse nulle est : 𝐻0: 𝛽1𝛽2 − 𝛽3 = 0.

V

52. La maximisation de la fonction de vraisemblance ou de la fonction de log-vraisemblance donne les mêmes paramètres estimés.

V

53. La fonction de vraisemblance est toujours positive.

V

55. On peut estimer la matrice de variance-covariance de l'estimateur du MV par l'inverse du produit extérieur du gradient.

V

57. L'estimateur MV 𝜎̃2 d'un modèle de régression linéaire normal est plus petit que l'estimateur des MCO 𝜎̂2 .

V

59. Dans un modèle linéaire normal, les résidus de l'estimation par MCO est identique aux résidus de l'estimation par MV.

V

7. Si la somme de toutes les variables explicatives est égale à zéro pour toutes les observations, il y a multicolinéarité parfaite.

V

73. VOIR QCM 73

VOIR QCM 73

VOIR QCM 94

VOIR QCM 94

1. L'élément 𝜀 dans un modèle économétrique est habituellement appelé : a) Le terme d'erreur. b) Un paramètre. c) Une hypothèse. d) Une variable dépendante.

a) Le terme d'erreur.

24. La somme des leviers dans une régression est égale... : a) au nombre de variables explicatives b) au nombre d'observations c) au degré de liberté de la régression. d) à 1.

a) au nombre de variables explicatives

116. Dans un modèle LOGIT ou PROBIT, l'effet marginal d'une variable explicative est maximal : a) au point où Pr(𝑦 = 1) = 0.50. b) au point où Pr(𝑦 = 1) = 1.00. c) au point où la vraisemblance est maximale. d) au point où la variable explicative est maximale.

a) au point où Pr(𝑦 = 1) = 0.50.

80. Un processus stochastique dont l'espérance et la variance de chaque variable aléatoire sont finies, et les covariances entre-elles sont nulles, est un processus : a) bruit blanc. b) fortement stationnaire. c) faiblement stationnaire. d) de marche aléatoire

a) bruit blanc.

118. Le test du multiplicateur de Lagrange nécessite l'estimation : a) du modèle contraint b) du modèle non contraint c) du maximum de vraisemblance. d) du modèle sans constante.

a) du modèle contraint

72. Si une séquence de variables aléatoires converge en probabilité, alors a) elle converge aussi en distribution b) elle converge aussi en moyenne quadratique c) elle converge aussi en presque sûrement d) elle converge vers zéro.

a) elle converge aussi en distribution

105. L'estimateur MV de 𝜷 d'un modèle de régression linéaire normal est : a) identique à l'estimateur des MCO 𝜷̂ b) proportionnel à l'estimateur des MCO 𝜷̂ c) plus petit que l'estimateur des MCO 𝜷̂ d) plus grand ou égal à l'estimateur des MCO 𝜷̂

a) identique à l'estimateur des MCO 𝜷̂

115. Dans un modèle LOGIT ou PROBIT, les effets marginaux indiquent : a) l'effet d'une variable explicative sur la probabilité de choix. b) l'effet d'une variable explicative sur la log-vraisemblance. c) l'effet d'une variable explicative sur l'estimateur du MV. d) l'effet d'une variable explicative sur la variable dépendante.

a) l'effet d'une variable explicative sur la probabilité de choix.

59. Lorsqu'il n'y a qu'une seule contrainte à tester : a) la statistique 𝐹 est égale à la statistique de 𝑊𝑎𝑙𝑑 b) la statistique 𝐹 est égale à la statistique t c) la statistique 𝐹 est nulle d) la statistique 𝐹 est égale à un.

a) la statistique 𝐹 est égale à la statistique de 𝑊𝑎𝑙𝑑

120. Pour des contraintes d'exclusion, la statistique de test du multiplicateur de Lagrange consiste à prendre : a) la statistique 𝑁 × 𝑅2 d'une régression des résidus de la régression contrainte sur l'ensemble des variables incluses et exclue du modèle. b) la statistique 𝑁 × 𝑅2 de la régression du modèle contraint. c) la statistique 𝐹 des paramètres des variables incluses dans la régression contrainte. d) la statistique 𝑅2 de la régression auxiliaire des résidus de la régression contrainte sur l'ensemble des variables incluses et exclue du modèle.

a) la statistique 𝑁 × 𝑅2 d'une régression des résidus de la régression contrainte sur l'ensemble des variables incluses et exclue du modèle.

Si 𝐸(𝑥𝑡𝜀𝑠) = 0, 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡 > 𝑠 alors la variable explicative 𝑥 est : a) prédéterminée b) endogène c) strictement stationnaire. d) faiblement stationnaire.

a) prédéterminée

52. Sous les hypothèses H1 à H3 : l'estimateur des MCC est : a) sans biais si la contrainte est correcte b) biaisé si la contrainte est correcte c) impossible à calculer. d) hétéroscédastique.

a) sans biais si la contrainte est correcte

44. Le test 𝐹 de significativité conjointe : a) teste l'ensemble des paramètres de pente de la régression b) teste l'ensemble des paramètres de la régression c) dépend de la somme des carrés totaux de la variable dépendante d) est distribué selon une loi 𝐹(𝑁 − 𝐾 , 𝐾 − 1)

a) teste l'ensemble des paramètres de pente de la régression

25. L'estimateur des moindres carrés ordinaire de 𝜷 est : a) un estimateur linéaire b) un estimateur quadratique c) une fonction convexe des erreurs d) la vraie valeur de 𝜷

a) un estimateur linéaire

46. Si on veut tester que le paramètre d'une variable est égal à 1, on utilise : a) un test 𝑡 b) un test 𝑧 c) un test de Wald d) un test de multicolinéarité

a) un test 𝑡

108. L'erreur quadratique moyenne d'un estimateur 𝜃̂ est : a) 𝐸(𝜃̂ − 𝜃)2 b) 𝐵𝑖𝑎𝑖𝑠2 c) 𝑉(𝜃̂ − 𝜃)2 − 𝐵𝑖𝑎𝑖𝑠 d) 𝑉(𝜃̂) − 𝐵𝑖𝑎𝑖𝑠2

a) 𝐸(𝜃̂ − 𝜃)2

30. Sous les hypothèses H1 à H3, si on introduit une variable non pertinente dans une régression : a) 𝜷̂^ reste sans biais b) 𝜷̂^ ne peut pas être estimé c) le paramètre estimé de cette variable est nul d) 𝜷̂^ devient biaisé

a) 𝜷̂^ reste sans biais

50. La probabilité critique indique : a) La probabilité que l'hypothèse nulle soit nulle. b) La probabilité que l'hypothèse nulle soit vraie. c) La probabilité que l'hypothèse nulle soit fausse. d) La probabilité que le paramètre soit critique.

b) La probabilité que l'hypothèse nulle soit vraie.

2. L'élément 𝛽 dans un modèle économétrique est habituellement appelé : a) Le terme d'erreur. b) Un paramètre. c) Une hypothèse. d) Une variable dépendante.

b) Un paramètre.

27. L'erreur d'échantillonnage est : a) nulle dans une régression par MCO b) calculée dans une régression par MCO c) fonction des erreurs d) fonction des résidus

b) calculée dans une régression par MCO

69. Soit une séquence de variables aléatoires 𝑍𝑁 qui converge en probabilité vers son espérance 𝐸(𝑍𝑁) = 𝜇, le carré de cette variable aléatoire : a) est d'espérance : 𝐸(𝑍𝑁2) = 𝜇2 b) converge en probabilité vers 𝜇2 c) converge en probabilité vers zéro d) ne converge pas vers une valeur précise.

b) converge en probabilité vers 𝜇2

70. Soit deux séquences de variables aléatoires 𝑌𝑁 et 𝑍𝑁 avec 𝑝𝑙𝑖𝑚 𝑌𝑁 = 𝜇 et 𝑝𝑙𝑖𝑚 𝑍𝑁 = 𝜔 ≠ 0, alors le ratio de ces deux variables aléatoires 𝑌𝑁⁄𝑍𝑁 a) est d'espérance : 𝜇⁄𝜔 b) converge en probabilité vers 𝜇⁄𝜔 c) converge en probabilité vers 𝜇 d) converge en espérance vers 𝜇⁄𝜔.

b) converge en probabilité vers 𝜇⁄𝜔

89. La méthode de Gauss - Newton permet : a) de calculer les quantiles de la loi normale b) d'estimer les paramètres des MCNL c) d'obtenir le parcours des comètes d) de réaliser des simulations d'un modèle économétrique.

b) d'estimer les paramètres des MCNL

23. L'influence d'une observation sur la régression dépend : a) du facteur d'inflation de la variance b) du levier de l'observation c) de l'importance de l'observation d) de l'erreur de l'observation

b) du levier de l'observation

117. Le test de Wald nécessite l'estimation : a) du modèle contraint b) du modèle non contraint c) du maximum de vraisemblance. d) du modèle sans constante.

b) du modèle non contraint

110. Dans un modèle linéaire de probabilité, les erreurs : a) sont autocorrélées b) sont hétéroscédastiques c) suivent une loi logistique d) suivent une loi normale.

b) sont hétéroscédastiques

29. L'estimateur 𝜷̂^ est sans biais a) sous les hypothèses H1 et H2 b) sous les hypothèses H1 à H3 c) sous les hypothèses H1 à H5 d) sous les hypothèses H1 à H6

b) sous les hypothèses H1 à H3

104. Le test du rapport des vraisemblances est distribué sous l'hypothèse nulle selon : a) une loi normale b) une loi du Khi-deux c) une loi 𝐹 de Fisher d) une loi de la vraisemblance

b) une loi du Khi-deux

92. Le test de Wald de plusieurs fonctions non linéaires des paramètres est distribué sous l'hypothèse nulle selon : a) une loi normale b) une loi du Khi-deux c) une loi du Khi-hosk d) une loi F de Fisher

b) une loi du Khi-deux

107. L'estimateur MV de 𝜎2 d'un modèle de régression linéaire normal est : a) sans biais et convergent b) sans biais et non convergent c) biaisé et convergent d) biaisé et non convergent

c) biaisé et convergent

90. Sous les hypothèses traditionnelles, l'estimateur des MCNL est : a) sans biais. b) de variance minimale. c) convergent. d) égal aux vrais paramètres du modèle.

c) convergent.

41. La statistique 𝑡 permet a) de mesurer l'effet de la variable considérée. b) de donner l'écart-type du paramètre estimé. c) de tester la significativité de la variable considérée. d) de tester la multicolinéarité

c) de tester la significativité de la variable considérée.

14. Dans l'estimation par moindres carrés, la matrice 𝑿′𝑿 : a) est singulière b) est rectangulaire c) est de rang-plein d) est nulle

c) est de rang-plein

60. Le test de 𝐶ℎ𝑜𝑤 permet de tester : a) la significativité conjointe des paramètres b) la différence de deux paramètres c) la différence des paramètres entre deux groupes d'observations d) la nullité des paramètres dans le second groupe d'observations.

c) la différence des paramètres entre deux groupes d'observations

119. Le test du multiplicateur de Lagrange consiste souvent à estimer une régression auxiliaire et à calculer : a) la fonction de vraisemblance b) la statistique 𝐹 de ce modèle c) la statistique 𝑁 × 𝑅2 de cette régression auxiliaire d) la statistique 𝑁 × 𝑅2 du modèle contraint.

c) la statistique 𝑁 × 𝑅2 de cette régression auxiliaire

34. Sous les hypothèses H1 à H5, la variance conditionnelle d'un paramètre estimé par MCO est d'autant plus grande : a) que la variance de l'erreur est faible. b) ne dépend pas de la variance de l'erreur c) que le nombre d'observation est faible d) que les degrés de liberté de la régression sont grands.

c) que le nombre d'observation est faible

47. Le test 𝑡 est distribué, sous l'hypothèse nulle : a) selon une loi du Khi-deux b) selon une loi 𝐹 de Fisher c) selon une loi t de Student d) selon une loi normale.

c) selon une loi t de Student

Les tests 𝐶𝑈𝑆𝑈𝑀 et 𝐶𝑈𝑆𝑈𝑀𝑆𝑄 sont basés : a) sur les résidus studentisés b) sur les résidus normalisés c) sur les résidus récursifs d) sur les résidus autocorrélés

c) sur les résidus récursifs

82. Une martingale est : a) un moyen de gagner un pari. b) un pari sportif. c) un processus stochastique. d) une variable aléatoire.

c) un processus stochastique.

57. Le test 𝐹 est distribué, sous l'hypothèse nulle, selon a) une loi normale b) une loi du Khi-deux c) une loi 𝐹 de Fisher d) une loi 𝑊 de Wald

c) une loi 𝐹 de Fisher

7. Si un changement dans la variable 𝑥 provoque un changement dans la variable 𝑦, la variable 𝑥 est appelée : a) une variable dépendante b) une variable expliquée c) une variable explicative d) variable de réponse

c) une variable explicative

32. Sous les hypothèses H1 à H5, la variance conditionnelle de l'estimateur des MCO est : a) 𝑉(𝜷̂^|𝑿) = 𝜎2(𝑿′𝑿) b) 𝑉(𝜷̂^|𝑿) = 𝜎2(𝑿𝑿′) c) 𝑉(𝜷̂^|𝑿) = 𝜎2(𝑿′𝑿)−1 d) 𝑉(𝜷̂^|𝑿) = 𝜎2(𝑿𝑿′)−1

c) 𝑉(𝜷̂^|𝑿) = 𝜎2(𝑿′𝑿)−1

93. L'estimateur du maximum de vraisemblance a été proposé par : a) Karl Gauss b) Karl Pearson c) Stanley Fisher d) Ronald Fisher

d) Ronald Fisher

71. La loi forte des grands nombres indique que la moyenne d'une variable aléatoire : a) converge en probabilité. b) converge en distribution. c) converge en moyenne quadratique d) converge presque sûrement.

d) converge presque sûrement.

3. Les paramètres d'un modèle économétrique : a) comprennent tous les facteurs non observés affectant la variable étudiée b) mesurent l'importance des variables explicatives du modèle c) effectuent des prédictions de la variable dépendante du modèle d) décrivent la force de la relation entre la variable étudiée et les facteurs qui l'affectent

d) décrivent la force de la relation entre la variable étudiée et les facteurs qui l'affectent

Si le modèle est correct, si 𝑝𝑙𝑖𝑚 (𝑿′𝑿⁄𝑁) = 𝑄 > 0 et 𝑝𝑙𝑖𝑚 (𝑋′𝜀⁄𝑁) = 0, alors l'estimateur des MCO : a) est sans biais. b) est de variance minimale. c) est normalement distribué. d) est convergent.

d) est convergent.

51. L'estimateur des moindres carrés contraint : a) est plus grand que l'estimateur des MCO b) est plus petit que l'estimateur des MCO c) est égal à l'estimateur des MCO d) est en général différent de l'estimateur des MCO

d) est en général différent de l'estimateur des MCO

38. On a une erreur de type 1 ou de première espèce a) si on accepte l'hypothèse nulle alors qu'elle est fausse. b) si on rejette l'hypothèse nulle alors qu'elle est fausse. c) si on accepte l'hypothèse nulle alors qu'elle est vraie. d) si on rejette l'hypothèse nulle alors qu'elle est vraie

d) si on rejette l'hypothèse nulle alors qu'elle est vraie

35. Sous les hypothèses H1 à H6, l'estimateur des MCO de la variance conditionnelle de 𝜺 : a) est égal à 𝜎2 b) suit une loi normale c) suit une loi t de Student d) suit une loi du Khi-deux

d) suit une loi du Khi-deux

112. Pour obtenir l'estimateur du modèle PROBIT, on utilise : a) une solution analytique. b) une solution chimique. c) une solution géométrique. d) une solution numérique.

d) une solution numérique.

5. Une variable dépendante est également connue sous le nom de . a) variable explicative b) variable de contrôle c) variable prédictive d) variable de réponse

d) variable de réponse

98. La matrice d'information de Fisher est égale : a) à l'opposé de la matrice Hessienne de la log-vraisemblance. b) à la matrice Hessienne de la log-vraisemblance c) à l'espérance de la matrice Hessienne de la log-vraisemblance. d) à l'opposé de l'espérance de la matrice Hessienne de la log-vraisemblance.

d) à l'opposé de l'espérance de la matrice Hessienne de la log-vraisemblance.

9. On a une absence de multicolinéarité parfaite si : a) 𝑁 = 𝐾 b) 𝑁 > 𝐾 c) 𝑟𝑎𝑛𝑔(𝑿) = 𝑁 d) 𝑟𝑎𝑛𝑔(𝑿) = 𝐾

d) 𝑟𝑎𝑛𝑔(𝑿) = 𝐾

16. Si la somme des carrés des résidus (𝑆𝐶𝑅) dans une analyse de régression est de 60 et que la somme des carrés totaux (𝑆𝐶𝑇) est égale à 80, quelle est la valeur du coefficient de détermination ? a) 0,25 b) 0.75 c) 1.33 d) 0.60

a) 0,25

43. Un intervalle de confiance à 95% : a) est plus grand qu'un intervalle de confiance à 90 % b) est plus grand qu'un intervalle de confiance à 99 % c) dépend de la valeur du vrai paramètre d) est plus grand que le paramètre estimé

a) est plus grand qu'un intervalle de confiance à 90 %

39. On a une erreur de type 2 ou de seconde espèce a) si on accepte l'hypothèse nulle alors qu'elle est fausse. b) si on rejette l'hypothèse nulle alors qu'elle est fausse. c) si on accepte l'hypothèse nulle alors qu'elle est vraie. d) si on rejette l'hypothèse nulle alors qu'elle est vraie

a) si on accepte l'hypothèse nulle alors qu'elle est fausse.

36. Sous les hypothèses H1 à H6, l'estimateur des MCO de 𝜷 : a) suit une loi normale b) suit une loi t de Student c) suit une loi du Khi-deux d) suit une loi F de Fisher

a) suit une loi normale

81. Un bruit blanc est un processus : a) fortement stationnaire. b) faiblement stationnaire. c) de marche aléatoire. d) muet.

b) faiblement stationnaire.

17. Dans une régression simple, le changement des unités de mesure des variables explicatives seulement n'affecte pas le a) la variable dépendante b) les coefficients de pente c) le R² d) le terme d'erreur

c) le R²

10. On a une stricte exogénéité des variables explicatives si a) 𝐸(𝜀𝑖) = 0 b) 𝐸(𝜀𝑖|𝑿) = 0 c) 𝐸(𝑿|𝜀𝑖) = 0 d) 𝐸(𝜀𝑖|𝒚) = 0

b) 𝐸(𝜀𝑖|𝑿) = 0

48. Un intervalle de confiance à 90% sera ....... un intervalle de confiance à 95%. a) identique à b) plus grand qu' c) plus petit qu' d) plus petit ou égal à

c) plus petit qu'

67. Soit une séquence de variables aléatoires de même espérance, cette séquence converge en probabilité : a) si sa variance est constante b) si sa variance tend vers une valeur finie non nulle c) si sa variance tend vers zéro. d) si sa variance tend vers l'infini.

c) si sa variance tend vers zéro.

79. Un processus stochastique i.i.d. signifie : a) un processus initialement indépendamment distribué. b) un processus identique indépendamment distribué. c) un processus indépendant et identiquement distribué. d) un processus indépendant et identiquement diminué.

c) un processus indépendant et identiquement distribué.

66. La convergence d'un estimateur implique : a) une absence de biais b) une efficacité asymptotique c) une bonne propriété de l'estimateur d) la vérification du théorème de Gauss-Markov

c) une bonne propriété de l'estimateur

83. Une marche aléatoire est : a) une séquence cumulée de constante. b) une séquence cumulée de variables aléatoires. c) une séquence cumulée de variables aléatoires i.i.d. d) une séquence cumulée de variables aléatoires normales.

c) une séquence cumulée de variables aléatoires i.i.d.

15. Si la somme des carrés expliqué par la régression (𝑆𝐶𝐸) est de 60 et que le coefficient de détermination est de 0.50, alors la somme des carrés totaux (𝑆𝐶𝑇) est : a) 30 b) 60 c) 90 d) 120

d) 120

6. Le modèle de régression linéaire multiple a) comprend une seule variable explicative b) est linéaire dans les variables explicatives c) ne comprend pas de constante d) est linéaire dans les paramètres

d) est linéaire dans les paramètres

55. Le test de 𝑊𝑎𝑙𝑑 est a) un test d'autocorrélation b) un test de combinaisons linéaires des paramètres c) un test de significativité conjointe des paramètres d) un test de nullité des paramètres

b) un test de combinaisons linéaires des paramètres

8. Dans le modèle de régression multiple : 𝑦 = 𝛽0 + 𝛽1𝑥1 + 𝛽2𝑥2 + 𝜀, 𝛽0 est a) la variable dépendante b) la variable indépendante c) l'ordonnée à l'origine d) le paramètre de pente

c) l'ordonnée à l'origine

61. Le test de 𝐶ℎ𝑜𝑤 est distribué sous l'hypothèse nulle, selon : a) une loi normale b) une loi du Khi-deux c) une loi 𝐹 de Fisher d) une loi 𝑊 de Wald

c) une loi 𝐹 de Fisher

88. L'estimateur des paramètres d'une régression non linéaire est donné : a) par la méthode des MCO b) par le maximum de vraisemblance c) par optimisation dynamique d) par la méthode itérative de Gauss - Newton

d) par la méthode itérative de Gauss - Newton

95. Les équations de vraisemblance : a) sont toujours non linéaires b) sont quadratiques dans les paramètres c) peuvent être linéaires d) peuvent être numériques

c) peuvent être linéaires

78. Si un processus stochastique est composé de variables aléatoires indépendantes et identiquement distribuées, alors le processus est : a) une loi normale. b) de variance nulle. c) identique. d) stationnaire.

d) stationnaire.

40. La statistique 𝑡 est le ratio a) du paramètre estimé à l'écart-type de la régression b) du paramètre estimé à son écart-type estimé. c) de l'écart-type estimé du paramètre à l'écart-type de la régression. d) de l'écart-type estimé du paramètre au paramètre estimé.

b) du paramètre estimé à son écart-type estimé.

La matrice 𝑷 = 𝑿(𝑿′𝑿)−1𝑿′ est a) est inversible b) effectue une projection sur le plan engendré par les variables explicatives c) effectue une projection sur le plan orthogonal à celui engendré par les variables explicatives d) effectue une projection sur le vecteur de la variable dépendante

b) effectue une projection sur le plan engendré par les variables explicatives

77. Si les hypothèses de Gauss-Markov sont vérifiées, et si les erreurs du modèle sont distribuées selon une loi uniforme, alors l'estimateur des MCO : a) est distribué asymptotiquement selon une loi uniforme. b) est distribué asymptotiquement selon une loi normale. c) a une distribution asymptotique dégénérée en un point. d) n'a pas de distribution asymptotique.

b) est distribué asymptotiquement selon une loi normale.

53. La variance de l'estimateur des multiplicateurs de Lagrange des contraintes dans les MCC a) n'est pas calculable parce qu'elle dépend de la matrice 𝑅 b) est estimable après l'estimation par MCO c) est plus grande que la variance de l'estimateur MCO d) est plus petite que la variance de l'estimateur MCO

b) est estimable après l'estimation par MCO

45. La variance de la prévision dépend : a) uniquement de la variance de l'erreur b) est plus grande que la variance de l'erreur c) dépend de la variable dépendante observée d) dépend uniquement des variables explicatives de la prévision.

b) est plus grande que la variance de l'erreur

91. Un test non linéaire nécessite : a) l'évaluation du gradient de la fonction non linéaire avec les vrais paramètres b) l'évaluation du gradient de la fonction non linéaire avec les paramètres estimés c) l'évaluation du gradient et de la matrice Hessienne de la fonction non linéaire avec les vrais paramètres d) l'évaluation du gradient et de la matrice Hessienne de la fonction non linéaire avec les paramètres estimés

b) l'évaluation du gradient de la fonction non linéaire avec les paramètres estimés

18. Considérons le modèle de régression linéaire multiple. Lequel des énoncés suivants est une propriété des estimations des moindres carrés ordinaires (MCO) de ce modèle ? a) la moyenne des résidus MCO est positive. b) la moyenne des résidus MCO est nulle. c) La covariance entre les régresseurs et les résidus MCO est positive d) Le point observé se trouve toujours sur le plan de régression des MCO.

b) la moyenne des résidus MCO est nulle.

Le test de 𝐽𝑎𝑟𝑞𝑢𝑒 et 𝐵é𝑟𝑎 teste : a) la normalité des résidus b) la normalité des erreurs c) l'asymétrie des erreurs d) l'aplatissement des résidus

b) la normalité des erreurs

11. L'hypothèse d'homoscédasticité requiert que a) l'erreur soit identique pour toutes les observations b) la variance conditionnelle de l'erreur soit identique pour toutes les observations c) la variance de y soit inférieure à l'infini d) la variance des variables explicatives soit constante

b) la variance conditionnelle de l'erreur soit identique pour toutes les observations

99. La borne inférieure de Rao - Cramèr établit : a) le minimum de la fonction de log-vraisemblance. b) le minimum de la variance asymptotique d'un estimateur convergent et asymptotiquement normal. c) le minimum de l'estimateur convergent des paramètres. d) le minimum de la matrice d'information de Fisher

b) le minimum de la variance asymptotique d'un estimateur convergent et asymptotiquement normal.

28. Sous les hypothèses H1 à H3, l'estimateur MCO est : a) de variance minimale b) sans biais c) linéaire dans les variables explicatives d) indépendant de l'erreur

b) sans biais

42. La statistique 𝑡 se compare à a) suit une loi normale b) suit une loi 𝑡 de Student c) suit une loi du Khi-deux d) suit une loi 𝐹 de Fisher

b) suit une loi 𝑡 de Student

56. Le test de 𝑊𝑎𝑙𝑑 est distribué, sous l'hypothèse nulle, selon a) une loi 𝑡 de Student b) une loi du Khi-deux c) une loi 𝐹 de Fisher d) une loi 𝑊 de Wald

b) une loi du Khi-deux

21. Le facteur d'inflation de la variance est : a) un test de multicolinéarité b) une mesure de la multicolinéarité c) une mesure de la qualité de la régression d) une variable d'un modèle d'explication des prix

b) une mesure de la multicolinéarité

100. La variance asymptotique d'un estimateur convergent et asymptotiquement normal est plus grande ou égale : a) à la matrice Hessienne de la fonction de log-vraisemblance. b) à la matrice d'information de Fisher. c) à la matrice de variance des MCO. d) à l'inverse de la matrice d'information de Fisher.

b) à la matrice d'information de Fisher.

87. Dans un modèle non linéaire, si on doit estimer 𝐾 paramètres, il y a : a) 𝐾 équations normales linéaires. b) 𝐾 équations normales non linéaires. c) 𝐾 solutions aux équations normales. d) 𝐾 estimations possibles.

b) 𝐾 équations normales non linéaires.

33. Sous les hypothèses H1 à H5, un estimateur sans biais de la variance conditionnelle de 𝜷̂^ est : a) 𝑉̂(𝜷̂^|𝑿) = 𝜎2(𝑿′𝑿)−1 b) 𝑉̂(𝜷̂^|𝑿) = (𝑆𝐶𝑅⁄(𝑁 − 𝐾))(𝑿′𝑿)−1 c) 𝑉̂(𝜷̂^|𝑿) = (𝑿′𝑿)−1 d) 𝑉̂(𝜷̂^|𝑿) = (𝑆𝐶𝑅⁄𝑁)(𝑿𝑿′)−1

b) 𝑉̂(𝜷̂^|𝑿) = (𝑆𝐶𝑅⁄(𝑁 − 𝐾))(𝑿′𝑿)−1

75. Un estimateur 𝛽̂ est convergent si : a) 𝑝𝑙𝑖𝑚 𝛽̂ = 0 b) 𝑝𝑙𝑖𝑚 𝛽̂ = 𝛽 c) lim 𝛽̂ = 𝛽 d) 𝑝𝑙𝑖𝑚 𝛽 = 𝛽

b) 𝑝𝑙𝑖𝑚 𝛽̂ = 𝛽

68. Si Pr ( lim 𝑍𝑁 = 𝛼), avec 𝑁→∞, la séquence de variable aléatoire : a) Converge en distribution b) Converge en moyen quadratique c) Converge presque sûrement d) Converge en probabilité

c) Converge presque sûrement

74. Un théorème central-limite établit : a) La convergence d'une séquence de variable aléatoire b) La convergence de la moyenne d'une variable aléatoire vers son espérance c) La distribution asymptotique de la moyenne d'une variable aléatoire d) La limite de la moyenne de la variable aléatoire

c) La distribution asymptotique de la moyenne d'une variable aléatoire

37. Sous les hypothèses H1 à H5, l'estimateur des MCO de 𝜷 : a) est corrélé avec le résidu b) est corrélé avec l'erreur c) est non-corrélé avec le résidu d) est non-corrélé avec l'erreur

c) est non-corrélé avec le résidu

4. L'erreur d'un modèle économétrique a) mesure l'effet observé des variables explicatives b) comprend les erreurs de mesure sur les variables explicatives c) incorpore les effets inobservables sur la variable dépendante d) mesure la variation des paramètres du modèle

c) incorpore les effets inobservables sur la variable dépendante

97. La matrice d'information de Fisher est : a) le produit extérieur du vecteur du gradient. b) le produit scalaire du vecteur du gradient. c) l'espérance du produit extérieur du vecteur du gradient. d) l'information contenue dans les variables du modèle.

c) l'espérance du produit extérieur du vecteur du gradient.

31. Sous les hypothèses H1 à H5, si la multicolinéarité est forte entre les variables explicatives, a) l'estimateur des MCO ne peut pas être calculé b) l'estimateur des MCO est biaisé c) l'estimateur des MCO est imprécis d) l'estimateur des MCO est hétéroscédastique

c) l'estimateur des MCO est imprécis

22. Si le levier d'une observation mesure : a) la taille de l'observation b) la variance de l'observation c) l'influence d'une observation dans une régression d) décrit l'erreur d'une observation.

c) l'influence d'une observation dans une régression

96. Le score est : a) la valeur de la log-vraisemblance maximisée. b) la valeur de la vraisemblance maximisée. c) le vecteur du gradient de la log-vraisemblance. d) la matrice Hessienne de la log-vraisemblance.

c) le vecteur du gradient de la log-vraisemblance.

26. L'estimateur des moindres carrés ordinaire de 𝜷 est : a) linéaire dans les paramètres b) linéaire dans les variables explicatives c) linéaire dans la variable dépendante d) linéaire dans les vrais paramètres

c) linéaire dans la variable dépendante

Si 𝐸(𝑥𝑡𝜀𝑠) = 0, 𝑝𝑜𝑢𝑟 𝑡𝑜𝑢𝑡 𝑡 𝑒𝑡 𝑠 alors la variable explicative 𝑥 est : a) strictement stationnaire. b) faiblement stationnaire. c) strictement exogène d) faiblement exogène.

c) strictement exogène

64. Le test de 𝐽𝑎𝑟𝑞𝑢𝑒 et 𝐵é𝑟𝑎 repose sur : a) le coefficient d'asymétrie des résidus b) le coefficient d'aplatissement des résidus c) la variance des résidus d) les troisième et quatrième moments de la distribution des résidus

d) les troisième et quatrième moments de la distribution des résidus

12. L'absence d'autocorrélation implique : a) que les observations soient statistiquement indépendantes b) que les observations ne dépendent pas de leur passé c) que les corrélations entre les erreurs et les variables explicatives soient nulles. d) que les covariances entre les erreurs de différents individus soient nulles

d) que les covariances entre les erreurs de différents individus soient nulles

86. Dans les moindres carrés non linéaires, les équations normales sont : a) linéaires b) quadratiques c) solutionnées analytiquement d) solutionnées numériquement

d) solutionnées numériquement

La matrice 𝑴 = 𝑰 − 𝑿(𝑿′𝑿)−1𝑿′ est a) inversible b) orthogonale à la variable dépendante c) orthogonale au terme d'erreur d) symétrique et idempotente

d) symétrique et idempotente

62. Le test 𝐶𝑈𝑆𝑈𝑀𝑆𝑄 est distribué sous l'hypothèse nulle, selon : a) une loi normale b) une loi du Khi-deux c) une loi 𝐹 de Fisher d) une loi spécifique

d) une loi spécifique

21. Si les contraintes sont exactes, la variance des MCC est plus grande que la variance des MCO.

F

24. Il suffit d'estimer le modèle contraint pour obtenir une statistique 𝐹.

F

26. Le test de Chow peut se calculer à partir des 𝑅2 des modèles complets et séparés en 2 groupes

F

32. Si une séquence de variables aléatoires converge en probabilité, alors elle converge en moyenne quadratique.

F

35. Un processus stochastique caractérise une coupe instantanée.

F

39. Si un processus stochastique est stationnaire, le carré de ce processus stochastique n'est pas être stationnaire.

F

43. Une martingale en différence a pour espérance la valeur précédente de la variable aléatoire.

F

45. L'estimateur des MCO est normalement distribué si le processus de la variable dépendante est une marche aléatoire.

F

46. Le modèle de régression : 𝑦 = 𝛼 + 𝛽𝑥 + 𝛾𝑥2 + 𝜀 est un modèle non linéaire dans les paramètres.

F

49. Le R² ajusté d'un modèle non linéaire a la même interprétation que celui d'un modèle linéaire.

F

5. Le 𝑅̅̅² est toujours supérieur au 𝑅².

F

109. Dans un modèle de régression linéaire normal, la log-vraisemblance maximisée dépend : a) du nombre de paramètre estimé : 𝐾 b) des degrés de liberté de la régression : 𝑁 − 𝐾 c) de la variance des paramètres estimés d) de la somme des carrés des résidus.

d) de la somme des carrés des résidus.

114. La log-vraisemblance d'un modèle PROBIT est : a) localement convexe. b) globalement convexe. c) localement concave. d) globalement concave.

d) globalement concave.

49. Si l'hypothèse nulle 𝐻0: 𝛽𝑘 = 0 appartient à l'intervalle de confiance, on dira que : a) le paramètre n'est pas significatif b) le paramètre est significatif c) le paramètre est biaisé d) le paramètre est de variance minimale

: a) le paramètre n'est pas significatif


Ensembles d'études connexes

FIN 3603 Mid Term - CONCEPTIUAL QUESTIONS

View Set

Insurance Licensing Test - Life & Health

View Set

ATI The Gastrointestinal System Test 4.0

View Set

Chapter 15 Real Estate Management

View Set

NU310 HESI (renal, urinary and reproductive)

View Set

Evaluation and Diagnosis: Chapter 17

View Set