Sujet 11: Couplage de Weil II

Rédacteur: Christine Plaza

A traiter [Modifier]

  • Propriétés du couplage de Weil, Théorèmes 11.7 et 3.10. Expliquer l'énoncé en détail et prouver quelques points.
  • Application, Corollaire 3.11.

Théorème 11.7 (propriétés du couplage de Weil) [Modifier]

Le couplage de Weil \(e_n : E[n]\)x\(E[n] \longrightarrow \mu_{n} \) (où \(\mu_{n}\) est le groupe des n-ièmes racines de l'unité) possède
les propriétés suivantes :

  1. \(e_{n}\) est bilinéaire, ie
    \( \space \space \space \space e_{n}(S_{1} + S_{2}, T) = e_{n}(S_{1},T)e_{n}(S_{2},T)\)
    \( \space \space \space \space e_{n}(S,T_{1} + T_{2}) = e_{n}(S, T_{1})e_{n}(S, T_{2})\)
  2. \(e_{n}\) est non-dégénérée pour chaque variable, ie
    \( \space \space \space \space e_{n}(S,T)=1 \forall T \in E[n] \Rightarrow S=\infty\)
    \(\space \space \space \space e_{n}(S,T)=1 \forall S \in E[n] \Rightarrow T=\infty\)
  3. Tout couple de points identiques est envoyé sur l'unité, ie
    \(\space \space \space \space \forall T \in E[n], e_{n}(T,T)=1 \)
  4. Il est antisymétrique, ie
    \( \space \space \space \space \forall S,T \in E[n], e_{n}(T,S) = e_{n}(S,T)^{-1}\)
  5. Il commute avec certains automorphismes :
    Soit \(\sigma : \bar{K} \longrightarrow \bar{K} \) un automorphisme tel que \(\sigma |_{K} = id\) , alors on a
    \(\space \space \space \space e_{n}(\sigma T, \sigma S)=\sigma (e_{n}(T,S)) \)

Preuve (11.7)

On va donner la preuve seulement pour \(1, 3\) et \(4\).

\(1\) Bilinéarité

Attention, la linéarité en chacune des variables ne peut pas se montrer de la même manière !

  • La linéarité en la première variable est directe.
    On rappelle la définition du couplage de Weil : \(e_{n}(S,T) = \frac{g(P+S)}{g(P)}\)
    Cette définition étant indépendante du choix du point \(P\), on prend ce qui nous arrange : \(P\) pour le premier terme, et \(P+S_{1}\) pour le deuxième terme. On a alors :

    \( \space \space \space \space e_{n}(S_{1},T)e_{n}(S_{2},T)=\frac{g(P+S_{1})}{g(P)}\frac{g((P+S_{1})+S_{2})}{g(P+S_{1})} =\frac{g(P+S_{1}+S_{2})}{g(P)} = e_{n}(S_{1}+S_{2},T)\)

    Ceci prouve la linéarité en la première variable

  • La bilinéarité en la deuxième variable demande plus de travail.
    Soient \(T_{1}, T_{2}, T_{3}\in E[n]\) tels que \(T_{1}+T_{2}=T_{3}\)
    Soient \(f_{i}, g_{i}\) les fonctions utilisées pour définir \(e_{n}(S,T_{i})\). On rappelle leurs propriétés utiles
    \(\space \space \space \space div(f_{i})=n[T_{i}]-n[\infty] \)
    \( \space \space \space \space f_{i}\circ n=g_{i}^n\)

    Posons \(D=T_{3}-T_{2}-T_{1}+\infty\). \(D\) est un diviseur de \(E\), \(deg(D)=0\) et \(sum(D)=T_{3}-T_{2}-T_{1}+\infty = \infty\). Par le théorème 11.2, il existe \(h\) tel que \(div(h)=D\).

    On arrive alors à faire le lien entre les diviseurs des \(f_{i}\) et les diviseurs de \(h\) :
    \(div(\frac{f_{3}}{f_{1}f_{2}})=n[T_{3}]-n[\infty]-(n[T_{1}]-n[\infty]+n[T_{2}]-n[\infty]) \)
    \( \space \space \space \space \space \space \space \space \space \space \space \space \space \space \space \space =n[T_{3}]-n[T_{1}]-n[T_{2}]+n[\infty] \)
    \( \space \space \space \space \space \space \space \space \space \space \space \space \space \space \space \space =ndiv(h)=div(h^n) \)

    On a donc montré \(div(f_{3})=div(f_{1}f_{2}h^n)\), ce qui implique que \(f_{3}\) et \(f_{1}f_{2}h^n\) diffèrent seulement d'une constante, ie
    \(\space \space \space \space \exists c \in \bar{K}^\times\) tel que \(f_{3}=cf_{1}f_{2}h^n\)
    Comme \(f_i \circ n=g_{i}^n\), on conclut que \( g_3=c^{1/n}(g_1)(g_2)(h\circ n) \)

    Donc par nos définitions, on a :
    \( \space \space \space \space e_n(S,T_1+T_2)=e_n(S,T_3)=\frac{g_3(P+S)}{g_3(P)}\)
    Et par ce qu'on a conclu plus haut :
    \( \space \space \space \space e_n(S,T_1+T_2)=...=\frac{g_1(P+S)} {g_1(P)} \frac{g_2(P+S)}{g_2(P)} \frac{h(n(P+S))} {h(n(P))} = e_n(S,T_1)e_n(S,T_2) \frac{h(n(P+S))} {h(n(P))} \)

    Le dernier terme vaut bien 1. En effet, \( nS=\infty\), alors :
    \( \space \space \space \space h(n(P+S))=h(nP+\infty)=h(nP)\).
    Et donc :
    \( \space \space \space \space \frac{h(n(P+S))} {h(n(P))}=1 \Longrightarrow \) On a bien la linéarité en la deuxième variable.
\(3\) Points identiques envoyés sur l'unité

Soit \(T \in E[n]\) , montrons que \( e_n(T,T)=1\)

  • Notons \(\tau_{jT} \) la fonction qui ajoute \(jT\). Donc \( f \circ \tau_{jT} (P)=f(P+jT)\)

    Le diviseur de \(f \circ \tau_{jT} \) est \(n[T-jT]-n[-jT] \) Alors :

    \( \space \space \space \space div( \Pi_{j=0}^{n-1} f \circ \tau_{jT}) = \Sigma_{j=0}^{n-1} div(f \circ \tau_{jT}) =\Sigma_{j=0}^{n-1}(n[T-jT]-n[-jT]) = 0 \)

    Or \(div(\tilde{f})=0 \Rightarrow \tilde{f} \) est constante. Donc \( \Pi_{j=0}^{n-1} f \circ \tau_{jT} = cst\)

  • On peut alors conclure que \( (\Pi_{j=0}^{n-1} g \circ \tau_{jT'})^n = cst \). En effet :

    \( \space \space \space \space (\Pi_{j=0}^{n-1} g \circ \tau_{jT'})^n = \Pi_{j=0}^{n-1} (g \circ \tau_{jT'})^n =\Pi_{j=0}^{n-1} f \circ n \circ \tau_{jT'} = \Pi_{j=0}^{n-1} f \circ \tau_{jT} \circ n = cst \)

    Ces égalités viennent du fait que \(g^n=f \circ n\) et \(nT'=T\).

  • Comme \( \Pi_{j=0}^{n-1} g \circ \tau_{jT'} \) est une constante, sa valeur ne dépend pas du point en laquelle elle est évaluée. Donc on l'évalue en \(P\) et en \(P+T'\) :

    \( \space \space \space \space \Pi_{j=0}^{n-1} g \circ \tau_{jT'} (P) =\Pi_{j=0}^{n-1} g \circ \tau_{jT'} (P+T') \)

    \( \Rightarrow \Pi_{j=0}^{n-1} g(P+jT')=\Pi_{j=0}^{n-1} g(P+T'+jT') \space \space \space \space\)(définitions de \( \tau_{jT'} \))

    \( \Rightarrow \Pi_{j=0}^{n-1} g(P+jT')=\Pi_{j=0}^{n-1} g(P+(j+1)T') \)

    \( \Rightarrow \Pi_{j=0}^{n-1} g(P+jT')=\Pi_{j=1}^{n} g(P+jT') \space \space \space \space \) (shift d'indice)

    On peut imposer que \(P\) est choisi tel que tous les termes du produit sont finis et non-nuls.Par conséquent, en enlevant les termes égaux, on obtient :

    \( \space \space \space \space g(P) = g(P+nT') \space \space \space \space \)
    \( \space \space \space \space g(P) = g(P+T) \space \space \space \space\) (Car \(nT'=T \))

  • On a bien montré
    \( \space \space \space \space 1=\frac{g(P+T)}{g(P)}=e_n(T,T) \space \space \space \space \blacksquare \)
\(4\) Anti-symétrie

On utilise \(1.\) et \(3.\) sur deux points bien choisis :

\(1=e_{n}(S+T,S+T) = e_{n}(S,S)e_{n}(S,T)e_{n}(T,S)e_{n}(T,T)=e_{n}(S,T)e_{n}(T,S)\)

Donc on a bien \( e_{n}(S,T)=e_{n}(T,S)^{-1}\)

Théorème 3.10 [Modifier]

Soient {\(T_{1}, T_{2}\)} une base de \(E[n]\).
Alors \(e_{n}(T_{1}, T_{2})\) est une n-ième racine primitive de l'unité.

Preuve (3.10)

Supposons que \(e_{n}(T_{1},T_{2})=\zeta\) , où \(\zeta^d =1\).
But : Montrer que \(\zeta\) est une racine primitive (du groupe des n-ièmes racines de l'unité)
\(\Rightarrow\) Donc il faut montrer que \(n|d\).

  • Par bilinéarité, puis par hypothèse on a :
    \( \space \space \space \space e_{n}(T_{1},dT_{2})=e_{n}(T_{1},T_{2})^d=1\)
    Et par bilinéarité, puis par la propriété \((3)\) on a :
    \( \space \space \space \space e_{n}(T_{2},dT_{2})=e_{n}(T_{2},T_{2})^d=1^d=1\)

  • Soit \(S \in E[n]\). Comme {\(T_{1},T_{2}\)} est une base de \(E[n]\), alors il existe deux entiers \(a\) et \(b\) tels que
    \( \space \space \space \space S=aT_{1}+bT_{2}\).
    Donc par le point précédent, on a
    \( \space \space \space \space e_{n}(S,dT_{2})=e_{n}(aT_{1}+bT_{2},dT_{2})=e_{n}(T_{1},dT_{2})^ae_{n}(T_{2},dT_{2})^b=1^a1^b=1\)
    Donc on a montré :
    \(\space \space \space \space \forall S \in E[n], e_{n}(S,dT_{2}) = 1\)
    Or \(e_{n}\) et non-dégénérée par la propriété \((2)\), ce qui implique
    \( \space \space \space \space dT_{2} = \infty\)

  • Il reste à montrer que \(dT_{2}=\infty \Leftrightarrow n|d\)
    [ \(\Leftarrow\) ] :
    \(n|d \Rightarrow\) Il existe \(a \in \mathbb{N}\) tel que \(d=an\)
    Donc :
    \(\space \space \space \space dT_{2} = a(nT_{2})=a\infty=\infty\) ( \(dT_{2} \in E[n] \Rightarrow nT_{2}=\infty\))
    On a bien \(dT_{2}=\infty\)

    [ \(\Rightarrow\) ] :
    \(dT_{2}=\infty\) et \(T_{2}\) est une base de \(E[n]\) donc \(mT_{2} \neq \infty\) si \(m<n\)
    Donc on a bien \(n|d \).

  • On a bien montré que \(e_{n}(T_{1}, T_{2})^d=1 \Rightarrow n|d\).
    Donc c'est une n-ième racine primitive de l'unité. \( \blacksquare \)

Corollaire 3.11 [Modifier]

Si \(E[n] \subset E(K)\), ie si les points de \(E[n]\) ont des coordonnées dans \(K\) (et non dans \(\overline{K}\)),
alors \(\mu_{n} \subset K\)

Preuve (3.11)

  • Soit {\(T_{1}, T_{2}\)} une base de \(E[n]\).
    Alors par le théorème \(3.10\), \(e_{n}(T_{1},T_{2})=\zeta\) est une n-ième racine primitive de l'unité.

  • Soit \(\sigma : \bar{K } \mapsto \bar{K}\) un automorphisme tel que \(\sigma |_{K} = id\) .
    Par hypothèse, \(T_{1}\) et \(T_{2}\) ont leurs coordonnées dans \(K\), donc \(\sigma(T_{1})=T_{1}, \sigma(T_{2})=T_{2}\)
    On a donc :
    \(\zeta = e_{n}(T_{1},T_{2})=e_{n}(\sigma T_{1},\sigma T_{2}) = \sigma (e_{n}(T_{1},T_{2}))=\sigma(\zeta) \)

  • \(\sigma(\zeta)=\zeta\) pour tout \(\sigma\) automorphisme de \(\bar{K} \Rightarrow \zeta \in K\).
    (Par le théorème fondamental de la théorie de Gallois)

  • On a donc montré que \(K\) contient une n-ième racine primitive de l'unité, et donc \(\mu_{n} \subset K\). \(\blacksquare\)

Références [Modifier]

[1] Lawrence C. Washington, Elliptic Curves: Number Theory and Cryptography, Section 11.2.