Le lien qui existe entre des variables aléatoires de nature différente, par exemple entre la valeur X et la valeur Y, n'est pas nécessairement une conséquence de la dépendance directe d'une variable sur l'autre (la relation dite fonctionnelle). Dans certains cas, les deux quantités dépendent d'un ensemble de facteurs différents communs aux deux quantités, à la suite desquels des modèles liés les uns aux autres se forment. Lorsqu'une relation entre des variables aléatoires est découverte à l'aide de statistiques, nous ne pouvons pas prétendre avoir découvert la cause du changement continu des paramètres, mais nous n'avons vu que deux conséquences interconnectées.

Par exemple, les enfants qui regardent plus de films d'action américains à la télévision lisent moins. Les enfants qui lisent plus apprennent mieux. Il n'est pas si facile de déterminer quelles sont les causes et quels sont les effets, mais ce n'est pas la tâche des statistiques. Les statistiques ne peuvent qu'émettre une hypothèse sur la présence d'une connexion, étayée par des chiffres. S'il existe bien un lien, les deux variables aléatoires sont dites corrélées. Si une augmentation d'une variable aléatoire est associée à une augmentation de la deuxième variable aléatoire, la corrélation est dite directe. Par exemple, le nombre de pages lues par an et le score moyen (performance). Si, au contraire, une augmentation d'une valeur est associée à une diminution d'une autre, on parle de corrélation inverse. Par exemple, le nombre de films d'action et le nombre de pages lues.

La relation mutuelle de deux variables aléatoires est appelée corrélation, l'analyse de corrélation vous permet de déterminer la présence d'une telle relation, d'évaluer à quel point cette relation est étroite et significative. Tout cela est quantifié.

Comment déterminer s'il existe une corrélation entre les valeurs ? Dans la plupart des cas, cela peut être vu sur un graphique régulier. Par exemple, pour chaque enfant de notre échantillon, vous pouvez déterminer la valeur X i (nombre de pages) et Y i (score moyen de l'évaluation annuelle), et consigner ces données sous forme de tableau. Construisez les axes X et Y, puis tracez la série entière de points sur le graphique afin que chacun d'eux ait une paire spécifique de coordonnées (X i , Y i) de notre table. Étant donné que dans ce cas, nous avons du mal à déterminer ce qui peut être considéré comme une cause et quelle conséquence, peu importe quel axe est vertical et quel axe est horizontal.


Si le graphique ressemble à a), cela indique la présence d'une corrélation directe, s'il ressemble à b) - la corrélation est inverse. Manque de corrélation
À l'aide du coefficient de corrélation, vous pouvez calculer l'étroitesse de la relation entre les valeurs.

Supposons qu'il existe une corrélation entre le prix et la demande d'un produit. Le nombre d'unités de biens achetées, en fonction du prix de différents vendeurs, est indiqué dans le tableau :

On voit qu'on a affaire à une corrélation inverse. Pour quantifier l'étanchéité de la connexion, le coefficient de corrélation est utilisé :

On calcule le coefficient r dans Excel, en utilisant la fonction f x, puis des fonctions statistiques, la fonction CORREL. A l'invite du programme, nous entrons deux tableaux différents (X et Y) dans les deux champs correspondants avec la souris. Dans notre cas, le coefficient de corrélation s'est avéré être r = - 0,988. Il convient de noter que plus le coefficient de corrélation est proche de 0, plus la relation entre les valeurs est faible. La relation la plus proche avec corrélation directe correspond à un coefficient r proche de +1. Dans notre cas, la corrélation est inverse, mais aussi très proche, et le coefficient est proche de -1.

Que peut-on dire des variables aléatoires dont le coefficient a une valeur intermédiaire ? Par exemple, si nous obtenons r=0,65. Dans ce cas, les statistiques nous permettent de dire que deux variables aléatoires sont partiellement liées l'une à l'autre. Disons que 65% de l'impact sur le nombre d'achats a eu prix, et 35% - autres circonstances.

Et une autre circonstance importante doit être mentionnée. Puisque nous parlons de variables aléatoires, il y a toujours la possibilité que la connexion que nous avons remarquée soit une circonstance aléatoire. De plus, la probabilité de trouver une connexion là où il n'y en a pas est particulièrement élevée lorsqu'il y a peu de points dans l'échantillon, et lors de l'évaluation, vous n'avez pas construit de graphique, mais simplement calculé la valeur du coefficient de corrélation sur un ordinateur. Ainsi, si nous ne laissons que deux points différents dans un échantillon arbitraire, le coefficient de corrélation sera égal à +1 ou -1. Depuis le cours de géométrie de l'école, nous savons que vous pouvez toujours tracer une ligne droite passant par deux points. Pour évaluer la signification statistique du fait de la connexion que vous avez découvert, il est utile d'utiliser la correction dite de corrélation :

Alors que la tâche de l'analyse de corrélation est d'établir si ces variables aléatoires sont liées, l'objectif de l'analyse de régression est de décrire cette relation avec une dépendance analytique, c'est-à-dire à l'aide d'une équation. Nous considérerons le cas le plus simple, lorsque la connexion entre les points sur le graphique peut être représentée par une ligne droite. L'équation de cette droite est Y=aX+b, où a=Yav.-bXav.,

Sachant , nous pouvons trouver la valeur de la fonction par la valeur de l'argument aux points où la valeur de X est connue, mais pas Y. Ces estimations sont très utiles, mais elles doivent être utilisées avec prudence, surtout si la relation entre les quantités n'est pas trop étroite.

Nous notons également qu'à partir d'une comparaison des formules pour b et r, on peut voir que le coefficient ne donne pas la valeur de la pente de la droite, mais montre seulement le fait même de l'existence d'une connexion.

L'entreprise emploie 10 personnes. Le tableau 2 présente des données sur leur expérience de travail et

salaire mensuel.

Calculer à partir de ces données

  • - la valeur de l'estimation de la covariance de l'échantillon ;
  • - la valeur du coefficient de corrélation de Pearson de l'échantillon ;
  • - évaluer la direction et la force de la connexion en fonction des valeurs obtenues ;
  • - Déterminer la légitimité de l'affirmation selon laquelle cette entreprise utilise le modèle de management japonais, qui consiste à supposer que plus un employé passe de temps dans cette entreprise, plus son salaire doit être élevé.

Sur la base du champ de corrélation, on peut émettre l'hypothèse (pour la population générale) que la relation entre toutes les valeurs possibles de X et Y est linéaire.

Pour calculer les paramètres de régression, nous allons construire une table de calcul.

Moyens d'échantillonnage.

Exemples d'écarts :

L'équation de régression estimée ressemblera à

y = bx + a + e,

où ei sont les valeurs observées (estimations) des erreurs ei, a et b, respectivement, les estimations des paramètres b et dans le modèle de régression qu'il convient de trouver.

Pour estimer les paramètres b et c - utilisez LSM (moindres carrés).

Système d'équations normales.

a?x + b?x2 = ?y*x

Pour nos données, le système d'équations a la forme

  • 10a + 307b = 33300
  • 307 un + 10857 b = 1127700

On multiplie l'équation (1) du système par (-30,7), on obtient un système que l'on résout par la méthode de l'addition algébrique.

  • -307a -9424,9b = -1022310
  • 307 un + 10857 b = 1127700

On a:

1432.1b = 105390

Où b = 73,5912

Maintenant, nous trouvons le coefficient "a" de l'équation (1) :

  • 10a + 307b = 33300
  • 10a + 307 * 73,5912 = 33300
  • 10a = 10707,49

On obtient des coefficients de régression empiriques : b = 73,5912, a = 1070,7492

Équation de régression (équation de régression empirique) :

y = 73,5912 x + 1070,7492

covariance.

Dans notre exemple, la relation entre la caractéristique Y et le facteur X est élevée et directe.

Par conséquent, nous pouvons affirmer que plus un employé travaille longtemps dans une entreprise donnée, plus son salaire est élevé.

4. Tester des hypothèses statistiques. Lors de la résolution de ce problème, la première étape consiste à formuler une hypothèse testable et une alternative.

Vérification de l'égalité des parts générales.

Une étude a été menée sur les performances des étudiants dans deux facultés. Les résultats pour les variantes sont présentés dans le tableau 3. Peut-on prétendre que les deux facultés ont le même pourcentage d'excellents étudiants?

moyenne arithmétique simple

Nous testons l'hypothèse sur l'égalité des parts générales :

Trouvons la valeur expérimentale du critère de Student :

Nombre de degrés de liberté

f \u003d nx + ny - 2 \u003d 2 + 2 - 2 \u003d 2

Déterminer la valeur de tkp selon la table de distribution de Student

D'après la table de Student on trouve :

Ttabl(f;b/2) = Ttabl(2;0.025) = 4.303

D'après le tableau des points critiques de la distribution de Student à un niveau de signification b = 0,05 et un nombre de degrés de liberté donné, on trouve tcr = 4,303

Parce que tobs > tcr, alors l'hypothèse nulle est rejetée, les parts générales des deux échantillons ne sont pas égales.

Vérification de l'uniformité de la distribution générale.

La direction de l'université veut savoir comment la popularité de la Faculté des sciences humaines a changé au fil du temps. Le nombre de candidats ayant postulé pour cette faculté a été analysé par rapport au nombre total de candidats de l'année correspondante. (Les données sont données dans le tableau 4). Si l'on considère le nombre de candidats comme un échantillon représentatif du nombre total de bacheliers de l'année, peut-on affirmer que l'intérêt des collégiens pour les spécialités de cette faculté n'évolue pas dans le temps ?

Variante 4

Solution : Tableau de calcul des indicateurs.

Milieu de l'intervalle, xi

Fréquence cumulée, S

Fréquence, fi/n

Pour évaluer la série de distribution, on retrouve les indicateurs suivants :

moyenne pondérée

La plage de variation est la différence entre les valeurs maximale et minimale de l'attribut de la série primaire.

R = 2008 - 1988 = 20 Dispersion - caractérise la mesure de propagation autour de sa valeur moyenne (mesure de dispersion, c'est-à-dire écart par rapport à la moyenne).

Écart-type (erreur d'échantillonnage moyenne).

Chaque valeur de la série diffère de la valeur moyenne de 2002,66 par une moyenne de 6,32

Tester l'hypothèse sur la distribution uniforme de la population générale.

Afin de tester l'hypothèse sur la distribution uniforme de X, c'est-à-dire d'après la loi : f(x) = 1/(b-a) dans l'intervalle (a,b) il faut :

Estimez les paramètres a et b - les extrémités de l'intervalle dans lequel les valeurs possibles de X ont été observées, selon les formules (le * désigne les estimations des paramètres):

Trouver la densité de probabilité de la distribution estimée f(x) = 1/(b* - a*)

Trouver des fréquences théoriques :

n1 = nP1 = n = n*1/(b* - a*)*(x1 - a*)

n2 = n3 = ... = ns-1 = n*1/(b* - a*)*(xi - xi-1)

ns = n*1/(b* - a*)*(b* - xs-1)

Comparez les fréquences empiriques et théoriques à l'aide du test de Pearson, en supposant le nombre de degrés de liberté k = s-3, où s est le nombre d'intervalles d'échantillonnage initiaux ; si, cependant, une combinaison de petites fréquences, et donc les intervalles eux-mêmes, a été faite, alors s est le nombre d'intervalles restant après la combinaison. Trouvons les estimations des paramètres a* et b* de la distribution uniforme par les formules :

Trouvons la densité de la distribution supposée uniforme :

f(x) = 1/(b* - a*) = 1/(2013.62 - 1991.71) = 0.0456

Trouvons les fréquences théoriques :

n1 = n*f(x)(x1 - a*) = 0,77 * 0,0456(1992-1991.71) = 0,0102

n5 = n*f(x)(b* - x4) = 0,77 * 0,0456(2013.62-2008) = 0,2

ns = n*f(x)(xi - xi-1)

Puisque la statistique de Pearson mesure la différence entre les distributions empirique et théorique, plus sa valeur observée Kobs est grande, plus l'argument contre l'hypothèse principale est fort.

Par conséquent, la région critique pour cette statistique est toujours à droite : ) peut différer significativement des caractéristiques correspondantes du schéma d'origine (non déformé) (, n). Le schéma normal (, m) réduit toujours la valeur absolue du coefficient de régression Ql dans la relation (B. 15), et affaiblit également le degré d'étanchéité de la relation entre um (c'est-à-dire, réduit la valeur absolue du coefficient de corrélation r).

Influence des erreurs de mesure sur la valeur du coefficient de corrélation. Souhaitons estimer le degré de proximité de la corrélation entre les composantes d'une variable aléatoire normale bidimensionnelle (, TJ), mais nous ne pouvons les observer qu'avec quelques erreurs de mesure aléatoires, respectivement, es et e (voir le schéma de la dépendance D2 dans l'introduction). Par conséquent, les données expérimentales sont (xit i/i), i = 1, 2,. .., n, sont pratiquement des valeurs d'échantillon de la variable aléatoire bidimensionnelle déformée (, r)), où =

Méthode R.a. consiste à dériver une équation de régression (incluant une estimation de ses paramètres), à l'aide de laquelle on trouve la valeur moyenne d'une variable aléatoire si la valeur d'une autre (ou d'autres dans le cas d'une régression multiple ou multivariée) est connue. (En revanche, l'analyse de corrélation est utilisée pour trouver et exprimer la force de la relation entre les variables aléatoires71.)

Dans l'étude de la corrélation de signes qui ne sont pas reliés par un changement cohérent dans le temps, chaque signe change sous l'influence de nombreuses causes, prises comme aléatoires. Dans les séries de dynamiques, un changement leur est ajouté pendant le temps de chaque série. Ce changement conduit à ce que l'on appelle l'autocorrélation - l'influence des changements de niveaux des séries précédentes sur les suivantes. Par conséquent, la corrélation entre les niveaux des séries chronologiques montre correctement l'étroitesse de la relation entre les phénomènes reflétés dans les séries chronologiques, uniquement s'il n'y a pas d'autocorrélation dans chacun d'eux. De plus, l'autocorrélation conduit à une distorsion des erreurs quadratiques moyennes des coefficients de régression, ce qui rend difficile la construction d'intervalles de confiance pour les coefficients de régression, ainsi que la vérification de leur significativité.

Les coefficients de corrélation théorique et d'échantillon définis par les relations (1.8) et (1.8), respectivement, peuvent être calculés formellement pour tout système d'observation bidimensionnel ; ce sont des mesures du degré de proximité de la relation statistique linéaire entre les caractéristiques analysées. Cependant, seulement dans le cas d'une distribution normale conjointe des variables aléatoires étudiées et u, le coefficient de corrélation r a une signification claire en tant que caractéristique du degré de proximité de la connexion entre eux. En particulier, dans ce cas, le rapport r - 1 confirme une relation linéaire purement fonctionnelle entre les grandeurs étudiées, et l'équation r = 0 indique leur complète indépendance mutuelle. De plus, le coefficient de corrélation, ainsi que les moyennes et les variances des variables aléatoires et TJ, constituent ces cinq paramètres qui fournissent des informations complètes sur

Analyse de régression

Traitement des résultats de l'expérience par la méthode

Lorsque l'on étudie les processus de fonctionnement de systèmes complexes, on doit faire face à un certain nombre de variables aléatoires agissant simultanément. Pour comprendre le mécanisme des phénomènes, les relations de cause à effet entre les éléments du système, etc., nous essayons d'établir la relation de ces grandeurs à partir des observations reçues.

En analyse mathématique, la dépendance, par exemple, entre deux grandeurs est exprimée par le concept de fonction

où chaque valeur d'une variable correspond à une seule valeur de l'autre. Cette dépendance est appelée fonctionnel.

La situation avec le concept de dépendance des variables aléatoires est beaucoup plus compliquée. En règle générale, entre les variables aléatoires (facteurs aléatoires) qui déterminent le processus de fonctionnement des systèmes complexes, il existe généralement une telle relation dans laquelle, avec un changement d'une variable, la distribution d'une autre change. Une telle connexion est appelée stochastique, ou probabiliste. Dans ce cas, l'ampleur de la variation du facteur aléatoire Oui, correspondant à la variation de la valeur X, peut être décomposé en deux composantes. Le premier est lié à la dépendance. Ouià partir de X, et la seconde avec l'influence de "propres" composantes aléatoires Oui et X. Si la première composante est manquante, alors les variables aléatoires Oui et X sont indépendants. Si le deuxième composant est manquant, alors Oui et X dépendent fonctionnellement. En présence des deux composants, le rapport entre eux détermine la force ou l'étanchéité de la relation entre les variables aléatoires Oui et X.

Il existe divers indicateurs qui caractérisent certains aspects de la relation stochastique. Ainsi, une relation linéaire entre variables aléatoires X et Oui détermine le coefficient de corrélation.

où sont les espérances mathématiques des variables aléatoires X et Oui.

– les écarts-types des variables aléatoires X et Oui.


La dépendance probabiliste linéaire des variables aléatoires réside dans le fait que lorsqu'une variable aléatoire augmente, l'autre tend à augmenter (ou diminuer) selon une loi linéaire. Si variables aléatoires X et Oui sont liés par une stricte dépendance fonctionnelle linéaire, par exemple,

y=b 0 +b 1 x 1,

alors le coefficient de corrélation sera égal à ; où le signe correspond au signe du coefficient b 1.Si les valeurs X et Oui sont reliés par une dépendance stochastique arbitraire, alors le coefficient de corrélation variera dans

Il convient de souligner que pour les variables aléatoires indépendantes, le coefficient de corrélation est égal à zéro. Cependant, le coefficient de corrélation comme indicateur de la dépendance entre variables aléatoires présente de sérieux inconvénients. D'abord, à partir de l'égalité r= 0 n'implique pas l'indépendance des variables aléatoires X et Oui(à l'exception des variables aléatoires soumises à la loi de distribution normale, pour lesquelles r= 0 signifie en même temps l'absence de toute dépendance). Deuxièmement, les valeurs extrêmes ne sont pas non plus très utiles, car elles ne correspondent à aucune dépendance fonctionnelle, mais uniquement à une dépendance strictement linéaire.



Description complète de la dépendance Ouià partir de X, et, de plus, exprimée en relations fonctionnelles exactes, peut être obtenue en connaissant la fonction de distribution conditionnelle .

Il convient de noter que dans ce cas, l'une des variables observées est considérée comme non aléatoire. Fixer simultanément les valeurs de deux variables aléatoires X et Oui, en comparant leurs valeurs, nous pouvons attribuer toutes les erreurs uniquement à la valeur Oui. Ainsi, l'erreur d'observation sera la somme de sa propre erreur aléatoire de la quantité Oui et de l'erreur d'appariement provenant du fait qu'avec la valeur Oui pas tout à fait la même valeur correspond X qui a effectivement eu lieu.

Cependant, trouver la fonction de distribution conditionnelle, en règle générale, s'avère être une tâche très difficile. Le moyen le plus simple d'étudier la relation entre X et Oui avec une distribution normale Oui, puisqu'il est entièrement déterminé par l'espérance mathématique et la variance. Dans ce cas, pour décrire la dépendance Ouià partir de X vous n'avez pas besoin de construire une fonction de distribution conditionnelle, mais indiquez simplement comment, lors de la modification du paramètre X l'espérance mathématique et la variance du changement de valeur Oui.

Ainsi, nous arrivons à la nécessité de ne trouver que deux fonctions :

Dépendance à la variance conditionnelle du paramètre X est appelé skhodastichesky dépendances. Il caractérise le changement de précision de la technique d'observation avec un changement de paramètre et est utilisé assez rarement.

Dépendance de l'espérance mathématique conditionnelle Mà partir de X est appelé régression, il donne la vraie dépendance des quantités X et À, dépourvu de toutes les couches aléatoires. Par conséquent, le but idéal de toute étude de variables dépendantes est de trouver une équation de régression, et la variance n'est utilisée que pour évaluer l'exactitude du résultat.

Interprétation directe du terme corrélation - stochastique, probable, possible lien entre deux (paires) ou plusieurs (multiples) variables aléatoires.

Il a été dit plus haut que si pour deux SW ( X et Oui) on a l'égalité P(XY) =P(X) P(Y), alors les quantités X et Oui considéré comme indépendant. Eh bien, et si ce n'est pas le cas ! ?

Après tout, la question est toujours importante - et quelle force un SW dépend-il de l'autre ? Et le point n'est pas inhérent au désir des gens d'analyser quelque chose nécessairement dans une dimension numérique. Il est déjà clair que l'analyse des systèmes signifie des calculs continus, que l'utilisation d'un ordinateur nous oblige à travailler avec Nombres, pas des concepts.

Pour évaluer numériquement une éventuelle relation entre deux variables aléatoires : Oui(avec une moyenne MonOui) et - X(avec une moyenne Mx et écart-type S x) il est d'usage d'utiliser le soi-disant Coefficient de corrélation

Rx = . {2 - 11}

Ce coefficient peut prendre des valeurs de -1 à +1 - selon l'étroitesse de la relation entre ces variables aléatoires.

Si le coefficient de corrélation est nul, alors X et Oui appelé non corrélé . Il n'y a généralement aucune raison de les considérer comme indépendants - il s'avère qu'il existe, en règle générale, des relations non linéaires de quantités sous lesquelles Rxy = 0, bien que les quantités dépendent les unes des autres. L'inverse est toujours vrai - si les valeurs indépendant , ensuite Rxy = 0 . Mais si le module Rxy= 1, c'est-à-dire qu'il y a toutes les raisons de supposer la présence linéaire Communication entre Oui et X. C'est pourquoi ils parlent souvent de corrélation linéaire lors de l'utilisation de cette méthode d'estimation de la connexion entre les disjoncteurs.

Nous notons une autre façon d'évaluer la corrélation entre deux variables aléatoires - si nous additionnons les produits des écarts de chacune d'elles par rapport à sa valeur moyenne, alors la valeur résultante est

C xy \u003d S (X - M x)· (O-Mon)

ou covariance quantités X et Oui distingue deux indicateurs du coefficient de corrélation : Premièrement, faire la moyenne(divisé par le nombre d'observations ou de paires X, Oui) et deuxièmement, rationnement en divisant par les écarts-types correspondants.

Une telle évaluation des liens entre variables aléatoires dans un système complexe est l'une des étapes initiales de l'analyse du système, alors la question de la confiance dans la conclusion sur la présence ou l'absence de liens entre deux TS se pose ici dans toute son acuité.

Dans les méthodes modernes d'analyse des systèmes, cela se fait généralement. Par valeur trouvée R calculer la valeur auxiliaire :

W = 0,5 Ln[(1+R)/(1-R)]{2 - 12}

et la question de la confiance dans le coefficient de corrélation est réduite à des intervalles de confiance pour la variable aléatoire W, qui sont déterminés par des tables ou des formules standard.

Dans certains cas d'analyse de système, il est nécessaire de résoudre la question des relations entre plusieurs (plus de 2) variables aléatoires ou la question de corrélation multiple.

Laisser X, Oui et Z- des variables aléatoires, selon les observations sur lesquelles on a établi leur moyenne Mx, Mon,mz et écarts types S x, S y , S z .

On peut alors trouver jumelé coefficients de corrélation Rxy, R xz , R yz selon la formule ci-dessus. Mais ce n'est clairement pas suffisant - après tout, à chacune des trois étapes, nous avons simplement oublié la présence d'une troisième variable aléatoire ! Par conséquent, dans les cas d'analyse de corrélation multiple, il est parfois nécessaire de rechercher le soi-disant. privé coefficients de corrélation - par exemple score d'oscillation Z pour la communication entre X et Oui produit en utilisant le coefficient

Rxy.z = {2 - 13}

Et, enfin, nous pouvons poser la question - quelle est la relation entre ce SV et la totalité du reste ? La réponse à ces questions est donnée par les coefficients plusieurs corrélations R x.yz , R y.zx , R z.xy , les formules de calcul qui sont construites selon les mêmes principes - en tenant compte de la connexion d'une des quantités avec toutes les autres dans l'agrégat.

Vous ne pouvez pas prêter beaucoup d'attention à la complexité du calcul de tous les indicateurs de corrélations décrits - les programmes pour les calculer sont assez simples et sont disponibles sous forme prête à l'emploi dans de nombreux PPP d'ordinateurs modernes.

Il suffit de comprendre l'essentiel - si dans la description formelle d'un élément d'un système complexe, un ensemble de tels éléments sous la forme d'un sous-système ou, enfin, le système dans son ensemble, on considère Connexions entre ses parties individuelles, alors le degré de proximité de cette connexion sous la forme de l'influence d'un SW sur un autre peut et doit être évalué au niveau de la corrélation.

En conclusion, nous notons encore une chose - dans tous les cas d'analyse de système au niveau de la corrélation, les deux variables aléatoires avec une corrélation de paire ou toutes avec une corrélation multiple sont considérées comme "égales" - c'est-à-dire que nous parlons de l'influence mutuelle de SW les uns sur les autres.

Ce n'est pas toujours le cas - très souvent la question des connexions Oui et X est placé dans un plan différent - l'une des quantités est dépendante (fonction) de l'autre (argument).