Entropia

A entropia de um sistema dinâmico dá-nos uma ideia da complexidade desse sistema inerente ao grau de incerteza e à informação envolvida na sua evolução com o tempo. No caso da cadeia de Markov (ver "O modelo") associada ao vector de probabilidades \(x=\left(x_{1},\cdots,x_{n}\right)\) e à matriz de transição entre o estado de índice \(j\) e o estado de índice \(i\), \(P=\left(p_{ij}\right)_{1\leq i,j\leq n}\), a entropia é dada por \[E=-\sum_{ij=1}^{n}x_{i}p_{ij}log_{2}\left(p_{ij}\right)\]

Para ver como varia a entropia, pode experimentar o applet abaixo, no qual é possível seleccionar o número de páginas desejado e interligá-las do modo que desejar. De que forma varia a entropia com o número de páginas e com o parâmetro \(p\)?

Instruções gerais

Instruções específicas: Em cada situação, é apresentado à direita o respectivo valor de entropia. Fixando o número de páginas e o valor do parâmetro \(p\), a entropia do sistema varia entre um certo valor máximo e um valor mínimo fixos. Cada vez que um destes valores é atingido, tal é assinalado no applet. Por exemplo, se não escolhermos nenhuns links, então a entropia do sistema é máxima. Será que esta é a única situação em que tal acontece? E quando é que a entropia do sistema é mínima?

Para saber mais, pode consultar esta página.