Trasparenza, Glasnost, Transparency

Informazione di una Password

Data: 18 set 2003


Sito on line dal 2003
Home page
email
Chi sono
Translation
Sia A, insieme degli n caratteri ascii stampabili e p[ßk] la probabilità dei simboli di A. Il modello è in tal caso:

M=(A,p)     (1)

Se la password P è composta da N caratteri allora lo spazio dei simboli sarà AA•...•A = AN, quello delle probabilità sarà p[ßk1,ßk2,...,ßkN] e darà luogo al modello della password P.

MP=(AN,p)     (2)

Nella teoria dell'inforazione si definisce l'informazione del simbolo ßk come:

i[ßk] = -log2(p(ßk))     con unità di misura in bit     (3)

L'intera password porta invece una informazione pari a:

i[P] = -log2(p(P))     con unità di misura in bit     (4)

con il logaritmo in base 2 che verrà d'ora in poi sottointeso.
Il modello M visto come sorgente di informazione ha una informazione media ovvero una entropia pari a:

H[M] = ∑nk=1 p(µk) i[µk]     con unità di misura in bit     (5)

analogamente il modello della password MP ha un'informazione media ovvero una entropia pari a:

H[MP] = ∑k1,k2,..kN p[µk1k2,...,µkN] i[µk1k2,...,µkN]     con unità di misura in bit     (6)

Valgono le regole di scomposizione per la probabilità di P:

p(P) = p(ß1)+p(ß21)+...+p(ßN1,...,ßN)     (7)

se gli N simboli sono indipendenti anche l'informazione di P è scomponibile:

i[P] = ∑Nk=1 i[ßk]     (8)

Sia IN lo spazio delle password P a simboli indipendenti:

IN = { P=(ß12,...,ßN) tale che P abbia simboli indipendenti }

poiché intendiamo muoverci all'interno dello spazio delle password che un umano può pensare, possiamo affermare che difficilmente si memorizzano simboli indipendenti che quindi avranno probabilità bassa e perciò informazione alta. In pratica la nostra mente è un processo di markoff quando genera una passwd.

Possiamo quindi fare la supposizione che:

p(IN) ≤ p(AN-IN)     per ogni elemento dei due insiemi
i[AN-IN] ≤ i[IN]     per ogni elemento dei due insiemi

Il massimo e il minimo di informazione delle password indipendenti sono:

i*N = min { i[IN] }
i*N = max { i[IN] }

è interessante considerare l'informazione della password meno severa tra quelle indipendenti cioè la migliore tra quelle non indipendenti che porta l'informazione i*N, da cui si ha il rendimento per una generica password pari a:

µ = i[P] / i*N

E utile notare che non appena si scelgano password al limite dell'indipendenza, il rendimento si avvicina a 1, superando l'unità solo se si trovano password a simboli indipendenti.

Un altro punto di vista è il considerare la generazione di una parola segreta infinita e quindi un processo markoviano, in tal caso meno memoria ha il processo e più il rendimento si avvicina all'unità.

Sarebbe interessante anche una nuova definizione di rendimento dove anche se il processo ha memoria il rendimento è unitario per N->∞. A tal fine si potrebbe fare ricorso all'entropia di una sorgente che emetta un simbolo dell'alfabeto A e applicare le proprietà dei processi ergodici per ricavare tale entropia da una password infinita, il rendimento sarebbe allora il classico rapporto tra H(A)/log(N), se la password è breve tale sviluppo ha poco senso.

Segue un ragionamento che non porta a nessuna conclusione ma che ho tentato di sviluppare.



Rispetto alle singole sorgenti M1,...,MN di cui è composta MP, si può riscrive la sua entropia come:

H[MP] = H[M1]+H[M2|M1]+...+H[MN|M1,...,MN]     (6)

Dove la formula per determinare l'entropia di una sorgente condizionata da un'altra sorgente è una immediata estensione della formula (4) e (5) qual ora si considerino le probabilità condizionate al posto di quelle incondizionate.

A questo punto le mie informazioni sicure si fermano e quindi inizia la mia fantasia. Cerco di trasporre tutti i ragionamenti visti per le sorgenti in ragionamenti sui simboli, sui caratteri.

Comincio col definire l'entropia del simbolo ßk della password P:

Ĥ[ßk] = p(ßk) i[ßk]

da cui l'entropia della password:

Ĥ[P] = p[P] i[P]

visto che per l'informazione vale:

i[ß12] = i[ß1]+i[ß21]

dopo pochi passaggi si arriva a  Ĥ[ß12] ≤ Ĥ[ß1]+Ĥ[ß21] che generalizzata (suppongo la generalizzazione) per la password diventa:

Ĥ[P] ≤  Ĥ[ß1]+ Ĥ[ß21]+...+ Ĥ[ßN1,...,ßN]

si può anche definire l'entropia per carattere come:

Ĥs[P] = Ĥ[P]/N

Ovviamente in tutte le formule si ha  Ĥ[]≤H[] in quanto Ĥ viene calcolato sul simbolo mentre H sull'intero alfabeto.

Nel caso particolare di simboli ß1 e ß2 indipendenti si ha:

i[ß12] = i[ß1]+i[ß2]

Ĥ[ß12] = Ĥ[ß1]p(ß2) + Ĥ[ß2]p(ß1)

da cui discende Ĥ[ß12]≤Ĥ[ß1]+Ĥ[ß2] e quindi in generale:

Ĥ[P] ≤ ∑ Ĥ[ßk]     P a simboli ßk indipendenti

Ora consideriamo la formula esatta nel caso di simboli indipendenti nella password, consideriamo il caso di tre soli caratteri:

Ĥ[P] = p(ß1)p(ß2)p(ß3) i[ß123]

Ĥ[P] =  Ĥ[ß1]p(ß2)p(ß3) + Ĥ[ß2]p(ß1)p(ß3) + Ĥ[ß3]p(ß1)p(ß2)

Ĥ[P] = ( Ĥ[ß1]+Ĥ[ß2]+Ĥ[ß3] ) • [ µ1p(ß2)p(ß3)+µ2p(ß1)p(ß3)+µ3p(ß1)p(ß2) ]

dove µk = Ĥ[ßk] / ( Ĥ[ß1]+Ĥ[ß2]+Ĥ[ß3] ) è quindi una media pesata di tutte le coppie di probabilità della password.

Si potrebbe considerare p(ßk)=cost=p e quindi:

Ĥ[P] =p^3(-3logp), porre p=1/n e rispetto a questo Ĥ massimo (è massimo?) calcolare il rendimento

In tutto il ragionamento manca il concetto di massimo teorico dell'entropia di P.

Lascio quindi questo ragionamento incompleto, forse qualcuno ha già teorizzato su questo.

Se siete persone comunicative non dimenticatevi di mettere la vostra opinione: scrivete il commento, premete "Inserisci" e il commento è immediatamente pubblicato: grazie!




lepre veloce



Altri testi sullo stesso argomento li trovate elencati di seguito sotto l'argomento Matematica

Diaspora* button
-
Facebook button
0
Twitter button
-
Google+ button
0
LinkedIn button
0
TzeTze button
voti: 0
Data: 18 set 2003
Letture di questo articolo: 1340
argomento: Matematica, articoli: Filtri Bayesiani, Anonymous Remailer (GnuPG e la posta elettronica), Palladium, Cifrario matriciale, Nozioni di Crittografia, La precisione dei sondaggi, Sondaggi

argomento: Informatici, articoli: Internet di una volta, La Fine del Personal Computer, Appunti di Storia


Firefox: Riprenditi il web




Statistiche Europee d'uso dei browser 27/03/2017 :
Chrome...53%
Firefox..21%
IE.......9%
Safari...6%

Fonte: StatCounter

Borsa valori della moneta Bitcoin (28/03/2017):

prezzo di 1 bitcoin:
918.19 €
LTC
DRK


Fonte: Bitcoincharts.com

Sostieni Wikileaks!
Se hai qualche bitcoin fai una donazione a wikileaks all'indirizzo:
1HB5XMLmzFVj8ALj6 mfBsbifRoD4miY36v

Queste sono le donazioni fatte fin'ora: 4021 bitcoin.




L'intero sito kensan.it ha avuto questi Share:

facebook: 6112
twitter: -
google+: 57
linkedIn: 0




IL TUO 5 PER MILLE PER GLI OSPEDALI DI EMERGENCY codice fiscale:
971 471 101 55







Ciao Anonimo, commenta questo articolo!

Questo articolo è stato commentato 2 volte.

Ultimo commento inserito da kensan martedì 26 febbraio con il titolo: Mi hai letto?.

commenti abilitati per gli anonimi
Pubblicità
kensan logo Licenza Creative Commons 3.0
I miei testi sono sotto la Licenza "Creative Commons 3.0 Italia": se sei interessato a pubblicare i miei articoli leggi le note aggiuntive dove troverai anche le attribuzioni dei diritti per tutte le immagini pubblicate.
Questo sito memorizza sul tuo pc uno o più cookie di tipo tecnico, leggi l'informativa estesa.
Kensan geek site

e-mail
e-mail cifrata