Centralizers in GL (n, p)

Er lijken een aantal rationele canonieke vormen te bestaan. Het beste ding over normen is hoeveel er zijn om uit te kiezen. De standaard die ik kies, lijkt echter een centralisatie-eenheid te hebben die moeilijk te beschrijven is.

1) Is er een verwijzing die een specifieke (hopelijk mooie) rationele canonieke vorm kiest, en zijn (hopelijk mooie) centralisator berekent?

Alternatief,

2) Is er een mooie beschrijving van de centralisatie van mijn keuze van canonieke vorm?

Matrices zijn over commutatieve (meestal eindige prime) velden.

Elke matrix is ​​vergelijkbaar met een directe som van matrices waarvan het minimale polynoom de vorm irr ^ pow heeft, voor sommige irreducibele polynome irr en sommige positieve integer pow. Hoewel er onenigheid bestaat over hoe dit te organiseren, is het een algemeen idee om canonieke vormen geassocieerd te hebben met paren [irr, pow], (de andere is om coprime irr samen te groeperen: is het Z/2Z × Z/3Z of is het Z/6Z? We kiezen voor Z/2Z × Z/3Z).

Dus gezien een paar [irr, pow], heb ik twee hoofdmanieren gezien om het canonieke blok te associëren: neem ofwel "de" bijbehorende matrix van irr ^ pow, of neem een ​​blok diagonale matrix met pow-blokken gelijk aan de bijbehorende matrix van irr en vul vervolgens 1 s in op de sub-/sup-diagonaal die u hebt gebruikt voor de begeleidende matrix. De eerste legt duidelijker een ontembare directe ontbinding voor, maar verbergt een compositieserie. De laatste legt subtieler de directe sum-decompositie vast, maar maakt de compositieserie heel duidelijk. Beide zijn behoorlijk mooi. In het geval irr de graad 1 heeft, is de laatste een Jordan-blok en de eerste niet.

Dus ik koos voor het laatste. Als irr = x 2 -x-1 bijvoorbeeld irreducibel is en pow = 3, krijgen we blok B:

`B = $\begin{bmatrix} .&1&.&.&.&.\\% 1&1&1&.&.&.\\% .&.&.&1&.&.\\% .&.&1&1&1&.\\% .&.&.&.&.&1\\% .&.&.&.&1&1\\% \end{bmatrix}$

Als α een stam is van x 2 -x-1, dan verwachtte ik dat deze vent de bom zou zijn van b:

`b = $\begin{bmatrix} \alpha&1&.\\ .&\alpha&1\\ .&.&\alpha\\ \end{bmatrix}$

en dus verwachtte ik dat scalaire matrices (opgeblazen) zich in de centralizer van B zouden bevinden, omdat ze zich in de centralizer van b bevinden. Met andere woorden, de matrix a:

`a = $\begin{bmatrix} \alpha&.&.\\ .&\alpha&.\\ .&.&\alpha\\ \end{bmatrix}$

centraliseert b, dus ik verwachtte de matrix A:

`A = $\begin{bmatrix} .&1&.&.&.&.\\% 1&1&.&.&.&.\\% .&.&.&1&.&.\\% .&.&1&1&.&.\\% .&.&.&.&.&1\\% .&.&.&.&1&1\\% \end{bmatrix}$

om B te centraliseren, maar natuurlijk AB ≠ BA. Voor een bepaalde B kan men gewoon een aantal vergelijkingen oplossen, maar in ieder geval lijken de oplossingen niet eenvoudig algoritmisch te beschrijven. Ik maak me zorgen dat we misschien de iets lelijkere canonieke vorm wensten die eigenlijk de uitbarsting van b is:

$\tilde B = \begin{bmatrix} .&1&1&.&.&.\\% 1&1&.&1&.&.\\% .&.&.&1&1&.\\% .&.&1&1&.&1\\% .&.&.&.&.&1\\% .&.&.&.&1&1\\% \end{bmatrix}$

Ik heb dit formulier echter niet in een referentie gevonden en ik wil graag een redelijke referentie hebben om mijn keuzes te rechtvaardigen (vooral als ze kiezen voor lelijkere, minder dunne matrices).

1 ') Welke verwijzing gebruikt $ \ tilde B $ als de rationele canonieke vorm van B?

Of anders:

2 ') Waar zijn de' scalars 'in de centralizer van B?

Ik zou liever B gebruiken, maar als ik de scalaire matrices in deze vorm niet eens kan zien, dan lijkt het inderdaad een erg slechte vorm.

Voor de nieuwsgierigen is de andere leidende canonieke vorm van B:

$\hat B = \begin{bmatrix} .&1&.&.&.&.\\% .&.&1&.&.&.\\% .&.&.&1&.&.\\% .&.&.&.&1&.\\% .&.&.&.&.&1\\% 1&3&0&-5&0&3\\% \end{bmatrix}$

Het is mooi, maar ook niet voor de hand liggend wat de samenstellingsfactoren zijn. Deze vorm (samen met de Z/6Z-stijlgroepering van onherleidbare factoren) wordt gebruikt door GP/Pari. Transposities en alternatieve groeperingen van factoren maken een grote verscheidenheid aan canonieke vormen mogelijk.

Het beste antwoord is gericht op het gemak van het expliciet neerschrijven van generatoren van de centraliseerder van B over een eindig primitief veld dat net (irr, pow) is gegeven, of zal zowel het neerschrijven van de canonieke vorm van (irr, pow) als de centralizer behandelen. Een inductief antwoord geeft er misschien de voorkeur aan om niet-priemgetallen toe te staan, maar voegt algemeenheid toe ten koste van de duidelijkheid en expliciete algoritmen zijn voor mij niet nuttig.

Edit: Both B and $\hat B$ have the nice property that given a generator w for the indecomposable module acted on by the original operator M, a basis realizing the matrix is easy to find. For B this is vi = w⋅Mj⋅irr(M)k where i−1 = k⋅deg(irr) + j and 0 ≤ j < deg(irr), for i = 1, 2, … deg(irr)⋅pow. For $\hat B$ this is vi = w⋅Mi−1, for i = 1, 2, … deg(irr)⋅pow.

Om $ \ tilde B $ te gebruiken, heb ik een soortgelijk expliciet begrip van de basis nodig die het definieert.

1 ") Hoe drukt men een basis uit van k [x]/(irr ^ pow) in termen van de coset van 1 zodat de operator die overeenkomt met x de vorm $ \ tilde B $ heeft, dat wil zeggen, blok Toeplitz met de diagonaal de bijbehorende matrix van irr, de superdiagonaal een identiteit en de andere diagonalen 0?

Ik ben natuurlijk nog steeds nieuwsgierig naar 2 '. Ik denk dat een antwoord op 1 "beide een antwoord zou bieden voor 2 'en voldoende zou zijn, zelfs zonder een expliciete verwijzing, om het antwoord van Robin Chapman op 1 af te maken.

7

2 antwoord

Om te beginnen het geaccepteerde gebruik voor "rationele canonieke vorm" in de literatuur is voor een diagonale som $ C (f_1) \ oplus C (f_2) \ oplus \ cdots \ oplus C (f_k) $ waar $ C (f_i) $ is de begeleidende matrix voor een monisch polynoom $ f $ en $ f_1 \ mid f_2 \ medio \ cdots \ mid f_k $. Dat gezegd hebbende, als ik een centralisator moest vinden Het is beslist niet de canonieke vorm die ik zou kiezen.

Zoals altijd moeten we $ V = k ^ n $ zien als een $ k [X] $ - module waarbij $ X $ handelt via $ A $. Als de minimale veelterm van $ A $ $ u_1 ^ {a_1} \ cdots u_k ^ {a_k} $ is met de $ p_i $ verschillende irreducibles dan $ V $ splitst uniek in een directe som van submodules $ M_1 \ oplus \ cdots \ oplus M_k $, waarbij $ M_i $ wordt vernietigd door een macht van $ u_i $. Zowel $ A $ en ts centralizer repareren elke $ M_i $, dus dat kunnen we terugbrengen tot het geval dat de minimale veelterm $ u ^ a $ met $ u $ onherleidbaar is.

Let $u$ have degree $r$ and let $C\in M_r(k)$ be the companion matrix for $u$ or any conjugate for it. I claim that $A$ is conjugate to a diagonal sum of ``Jordan-style blocks'' like $$J=\left(\begin{matrix} C&I&O&O\\\ O&C&I&O\\\ O&O&C&I\\\ O&O&O&C \end{matrix}\right).$$ This is just a question of checking this has the minimum polynomial $u^a$. As we are working in $GL(n,p)$ then $C\ne0$ and over a finite field then the diagonal sum of copies of $C$ is a polynomial in $A$ (indeed $A^{p^rs}$ for suitable $s$). Thus each matrix in the centralizer of $A$ has a block decomposition into $r$-by-$r$ blocks which commute with $C$ and so are polynomials in $C$. So, finding the centralizer of $A$ is equivalent to finding the centralizer of the matrix $A'$ over $k'=k(\alpha)$ where $\alpha$ is a zero of $u$ and $A'$ is obtained by replacing the above Jordan-style blocks by standard Jordan blocks $$J'=\left(\begin{matrix} \alpha&1&0&0\\\ 0&\alpha&1&0\\\ 0&0&\alpha&1\\\ 0&0&0&\alpha \end{matrix}\right).$$ The centralizer of $A'$ is the same as that of $A'-\alpha I$ which is a very sparse matrix. At this stage I would just find the centralizer in the matrix algebra by explicit calculation and extract the nonsingular elements as the centralizer in the matrix group.

Added (6/6/2010) I claimed that $J$ had the minimum polynomial $u^a$. Let $k'=k(\alpha)$. The matrix $J'$ gives the action of $x$ on a standard $k'$-basis for the $k'[x]$-module $k'[x]/((x-\alpha)^a)$. Therefore $J$ gives the action of $x$ on a $k$-basis for $k'[x]/((x-\alpha)^a)$ considered as a $k[x]$-module. To see that $J$ has minimum polynomial $u^a$ it suffices to show that some element of $k'[x]/((x-\alpha)^a)$ has annihilator $u^a$ over $k[x]$. But the element $1$ has annilhator $(x-\alpha)^a k'[x]$ over $k'[x]$ and so has annihilator $k[x]\cap (x-\alpha)^a k'[x]=u^a k[x]$ over $k[x]$, provided the extension $k'/k$ is separable (so that $x-\alpha$ is not a repeated factor of $u$).

Dus de bewering geldt voor eindige velden, niet noodzakelijkerwijs voor algemeen velden van eerste kenmerk. Het zou interessant zijn om de details voor onafscheidelijke onherleidbare polynomen.

5
toegevoegd
Ik weet niet zeker waar je het over hebt in je opmerkingen, maar ik veronderstel dat ik pleit voor het gebruik van wat je het $ \ hat B $ -formulier noemt. Een andere manier om dit te beschrijven begint met een Jordan-blok van grootte $ t $ met diagonale elementen $ \ alpha $. Dit geeft een endomorfisme van de vectorruimte $ k (\ alpha) ^ t $ over $ k (\ alpha) $. Maar we kunnen $ k (\ alpha) ^ t $ identificeren met $ k ^ {rt} $ door een $ k $ -basis van $ k (\ alpha) $ te kiezen. Dit geeft een matrix van de vorm $ \ hat B $. (Het kiezen van de basis $ 1, \ alpha, \ alpha ^ 2, \ ldots, \ alpha ^ {r-1} $ geeft een begeleidende matrix voor $ C $.)
toegevoegd de auteur Marcio Aguiar, de bron
Misschien bedoelde ik $ \ tilde B $ in plaats van $ \ hat B $: deze verschillen niet veel op mijn scherm. :-(
toegevoegd de auteur Marcio Aguiar, de bron
Dus u raadt aan het $ \ tilde B $ -stijlformulier te gebruiken, waar de scalaires erg gemakkelijk te zien zijn? Ik heb maar één referentie gevonden die dit vergelijkbaar doet (Shilov's Lineaire Algebra), maar alleen voor het echte veld en niet met behulp van begeleidende matrices voor de diagonale blokken (dus de mooie superdiagonaal is er niet altijd). Ik ben er bijna van overtuigd om $ \ tilde B $ te gebruiken, omdat de berekening van de centralizer bijna identiek is aan de Jordan-versie (en dus de inductieve oplossing gebruikt), maar ik weet niet precies wat de basis precies betekent.
toegevoegd de auteur David Korn, de bron
... ik weet niet zeker wat de basis precies betekent. $ \ hat B $ neemt een module-generator van je M k en past de originele operator toe totdat we lineaire afhankelijkheid krijgen. $ B $ neemt de generator en past de oorspronkelijke operator toe tot de graad van u, en past dan u (operator) toe. Hoe genereer je de basisvectoren van $ \ tilde B $ van een module-generator?
toegevoegd de auteur David Korn, de bron
Reacties zijn moeilijk te formatteren, dus heb ik het vraaggedeelte van de opmerking in de vraag herschreven. Ik vind je antwoord leuk, want werken via k (α) is gewoon logisch. Als ik het op die manier kan doen, dan zal ik dat doen. Ik heb echter nog niet ontdekt hoe ik deze versie van de RCF constructief kan vinden (velduitbreidingen kunnen onbetaalbaar zijn als ze stoppen met het gebruik van geoptimaliseerde veldrekenkunde, dus ik moet het op een eenvoudiger niveau doen). Ik heb de antwoorden voor B en $ \ hat B $ opgeschreven en zeker $ \ tilde B $ heeft een vergelijkbaar eenvoudig antwoord, maar het blijft me ontgaan.
toegevoegd de auteur David Korn, de bron
Ik weet niet zeker waar je het over hebt in je reactie, maar ik heb de vermeldingen van $ \ hat B $ gegeven. Het is duidelijk niet in de vorm die je beschrijft. Ik vroeg om een ​​basis voor M, niet voor k (α).
toegevoegd de auteur David Korn, de bron
Ach, sorry, het is moeilijk om goede namen te vinden voor 3 of 4 versies van hetzelfde. B-hat is de gigantische metgezelmatrix van irr ^ pow. B ~ is degene die je krijgt door eerst alles over k (α) te bekijken en vervolgens te beperken tot k. Q Telkens wanneer ik een basis probeer op te schrijven voor M = k [x]/(irr (x) ^ pow), slaag ik er niet in de matrix B ~ te krijgen. Ik kan niet tegelijkertijd zowel de "pow" als de "deg (irr)> 1" verwerken, hoewel ik ze elk afzonderlijk aankan. De basis is niet {1, x, ..., x ^ (d * pow-1)}, omdat dat de gigantische metgezelmat geeft. De basis is niet {1, irr (x), ..., irr (x) ^ (pow-1)}, omdat die niet overspant.
toegevoegd de auteur David Korn, de bron

Hier is deel 1 "opgelost, maar het antwoord is ingewikkeld en te lang voor een opmerking of bewerking. Notatie is vergelijkbaar, maar niet identiek aan eerder:

Laat f een scheidbare, onherleidbare veelterm van graad d zijn. Laat B de blok-Toeplitz-matrix zijn waarvan de diagonale blokken de begeleidende matrix van f zijn, waarvan de eerste super-diagonale blokken de identiteitsmatrix zijn en waarvan de andere blokken 0 zijn. Laat b het aantal diagonale blokken zijn. Laat {v i : i = 1, ..., b * d} de standaardbasis zijn. We willen elke v i voor i≥2 uitdrukken in termen van v 1 , f, en b. In termen van k [x] -modules is B de actie van x op de module M = k [x]/(f ^ b) in de basis waar v 1 = 1 + (f ^ b) en v i zijn onbekende polynomen gerelateerd aan f en b.

De matrix zegt expliciet dat v i ⋅B = v i + 1 + v i + d wanneer d i-1 niet deelt. Dit kan worden opgelost voor:

v i + 1 = v i ⋅B - v i + d , voor het niet delen van i-1

wat kan worden herhaald om uit te drukken:

v k⋅d + i + 1 = v k⋅d + 1 ⋅B i - i⋅v ( k + 1) ⋅d + 1 ⋅B i-1 voor ka niet-negatief geheel getal en ia positief geheel getal.

In het bijzonder, als we v k⋅d + 1 kennen voor k = 0, ..., b-1, kennen we de hele basis. Als we alleen maar verlangen dat onze matrix blok-boven driehoekig is met de juiste diagonale blokken, dan kunnen we deze basisvectoren vrij kiezen tussen de generatoren van de submodules (f ^ k)/(f ^ b) ≤ M. Met andere woorden, we kunnen ze vrij kiezen uit de null-ruimte van f ^ k zolang ze zich niet in de lege ruimte van f ^ (k + 1) bevinden.

Laat w k = v k⋅d + 1 . Om precies de juiste blokken boven de diagonaal te krijgen gebruiken we de relatie:

$$ \ sum_ {k = 0} ^ {b-1} w _ {(k + K)} \ cdot \ frac {(- 1) ^ k} {k!} f ^ {(k)} (B) = 0 $$

waar we w k = 0 uitbreiden voor k ≥ b, en K is een niet-negatief geheel getal. Hier hebben we een gereduceerde afgeleide f (k) (x)/(k!) Nodig die zonder deling geschreven kan worden, en dus ook geldig is voor kenmerkende deling K !.

Met deze relatie kunnen we oplossen voor w k + 1 in termen van w k en w k + i voor i ≥ 2. Dit vereist verdeling door f '(B), en dus f moet scheidbaar zijn. Om deze herhaling op te lossen, vond ik het het gemakkelijkst om op te lossen van w b-1 terug naar w 2 , om cirkelvormige oplossingen te vermijden. Als b of d klein is (zeg ≤ 3), kan dit vrij gemakkelijk met de hand worden gedaan, maar verder zijn de resultaten beter te zien als recursieve algoritmen dan als expliciete formules.

Bijvoorbeeld, als Min (b-1, d) ≤ 2, dan:

w k + 1 = w k ⋅ f (B)/f '(B)

en als Min (b-1, d) ≤ 3, dan:

w k + 1 = w k ⋅ f (B)/(f '(B) - f (B) ⋅f "(B)/(2 ⋅f '(B)))

De volgende uitdrukking is behoorlijk lang.

Het lijkt vreemd dat twee van de andere canonieke vormen zulke mooie basen hebben, terwijl deze codeert voor de Taylor-reeks van f. In termen van polynomen, de basis voor d = 2, is b = 3:

{1, x - f/f ', f/f', x⋅f/f '- (f/f') 2 , (f/f ') 2 , x⋅ (f/f ') 2 }

Ik geloof dat dit betekent dat het moeilijk zou zijn om te begrijpen hoe de scalaires ingebed zijn in mijn oorspronkelijk canonieke vorm, tenzij b of d vrij klein was.

Het lijkt mij dat als f niet scheidbaar is, de matrix B nog steeds de juiste minimale polynoom heeft, maar dat de verschillende canonieke vormen niet geconjugeerd hoeven te zijn. In het bijzonder, voor f (x) = x 2 -t over Z/2Z (t), lijkt het aannemelijk dat de begeleidende matrix van f 2 niet geconjugeerd is aan de blok diagonale matrix genaamd "B" in dit antwoord.

0
toegevoegd