Cap´ıtulo 3 M´ etodos de resolu¸c˜ ao do problema de fluxo de carga
3.1
M´ etodos iterativos baseados na matriz Y
I Baseados na resolu¸c˜ ao do sistema de equa¸co ˜es lineares I = Y · E de maneira iterativa I Exemplos: Gauss/Gauss-Seidel, Glimn-Stagg, Ward-Hale, etc. 3.1.1
M´ etodos de Gauss/Gauss-Seidel
I Considerar um sistema de n equa¸co ˜es alg´ ebricas lineares A · x = b Tomando a linha i da equa¸c˜ ao matricial acima: i
PSfrag replacements
xi
Aii
i
.
A
n X
Aii xi +
j=1 n X
bi =
x
b
Aij xj = bi
i = 1, . . . , n
Aij xj = bi
i = 1, . . . , n
j=1,j6=i
–1–
Resolvendo para xi tem-se:
xi =
1 · bi − Aii
n X
j=1,j6=i
i = 1, . . . , n
Aij xj
Para uma itera¸c˜ ao (m + 1), o processo iterativo pode ser definido como:
(m+1)
xi
=
1 · bi − Aii
n X
j=1,j6=i
(m) Aij xj
i = 1, . . . , n
M´ etodo de Gauss
(m+1)
Para a obten¸c˜ ao de xi da itera¸c˜ ao anterior)
(m)
s˜ ao utilizados os valores de xi
(todos os valores
Uma forma alternativa para o processo iterativo ´ e:
(m+1)
xi
=
1 · Aii
bi −
i−1 X
(m+1)
Aij xj
j=1
−
n X
(m)
Aij xj
j=i+1
!
i = 1, . . . , n
M´ etodo de Gauss-Seidel
(m+1)
Para a obten¸c˜ ao de xi s˜ ao utilizados os valores mais recentes dispon´ıveis dos elementos do vetor x
–2–
Exemplo
Processo iterativo utilizando os m´ etodos de Gauss e Gauss-Seidel para n = 3: Gauss (m+1) x1 (m+1)
x2
(m+1)
x3
1 = A11 1 = A22 1 = A33
h
(m) A12x2
(m) A13x3
i
+ · b1 − h i (m) (m) · b2 − A21x1 + A23x3 h i (m) (m) · b3 − A31x1 + A32x2
Gauss-Seidel (m+1) x1 (m+1)
x2
(m+1)
x3
1 = A11 1 = A22 1 = A33
h
(m) A12x2
(m) A13x3
i
+ · b1 − i h (m) (m+1) + A23x3 · b2 − A21x1 i h (m+1) (m+1) + A32x2 · b3 − A31x1
–3–
3.1.2
Resolu¸c˜ ao do problema de fluxo de carga pelo m´ etodo de Gauss-Seidel
encia podem ser modelados como um sistema de equa¸co ˜es I Os sistemas de potˆ alg´ ebricas lineares: I =Y·E I O equacionamento para a utiliza¸c˜ ao do m´ etodo de Gauss-Seidel ´ e: Sk∗ = Ek∗ · Ik = Ek∗ ·
X
Ykn En = Ek∗ ·
n∈K
X
Ykn En + Ek∗ Ykk Ek
n∈Ωk
em que Ωk ´ e o conjunto de barras vizinhas da barra k e K ´ e o conjunto das barras em Ωk mais a pr´ opria barra k. A tens˜ ao Ek ´ e obtida por: Ek =
1 · Ykk
Sk∗ Ek∗
−
X
Ykn En
n∈Ωk
!
Utilizando o m´ etodo de Gauss-Seidel tem-se, para uma itera¸c˜ ao (m + 1): (m+1)
Ek
=
1 · Ykk
Sk∗ (m) Ek ∗
−
k−1 X
YknEn(m+1) −
n=1
NB X
n=k+1
Ykn En(m)
!
em que NB ´ e o n´ umero total de barras. (m+1)
I O valor de Sk utilizado na express˜ ao de Ek
depende do tipo de barra:
Se a barra for PQ, Sk ´ e especificado; Se a barra for PV, somente Pk ´ e especificado (Qk ´ e calculado). Ent˜ ao, estima-se Qk com base nos valores atuais das tens˜ oes.
I Se a barra for slack, a tens˜ ao n˜ ao ´ e atualizada. Se a barra for PV, somente a magnitude da tens˜ ao ´ e atualizada.
–4–
rag replacements Exemplo
Considere a rede de 2 barras e 1 linha de transmiss˜ ao mostrada a seguir. Dados E1
E2
z
S1
E1 = 1,0112∠0◦ pu z = 0,01 + j 0,05 pu S2 = −1,0∠0◦ pu
S2
1
2
referˆ encia
carga
A matriz admitˆ ancia da rede ´ e:
Y=
3,8462 − j 19,2308 −3,8462 + j 19,2308 −3,8462 + j 19,2308 3,8462 − j 19,2308
A atualiza¸c˜ ao da tens˜ ao E2 ´ e realizada por:
(m+1)
E2
=
1 Y22
"
S2 (m)
E2
!∗
− Y21E1
#
O resultado do processo iterativo ´ e:
Itera¸c˜ ao
E2 [pu]
0 1 2 3 4
1+j0 1,0012 − j 0,0500 0,9987 − j 0,0493 0,9987 − j 0,0494 0,9987 − j 0,0494
Solu¸c˜ ao: E2 = 1∠ − 2,8◦ pu
–5–
A potˆ encia na barra de referˆ encia ´ e: ∗ = E1 S1 = E1 I12
∗ 1 (E1 − E2 ) = 1,01 + j 0,05 pu z
3.1.3
Acelera¸c˜ ao da convergˆ encia
encia pode ser acelerada atrav´ es da utiliza¸c˜ ao de parˆ ametros de I A convergˆ acelera¸c˜ ao. O m´ etodo mais popular ´ e o chamado m´ etodo SOR (successive overrelaxation). Para o m´ etodo Gauss-Seidel:
(m+1)
zi
(m+1)
xi
=
1 · Aii
bi −
(m+1)
= ωzi
i−1 X
(m+1)
Aij xj
j=1
−
n X
(m)
Aij xj
j=i+1 (m)
+ (1 − ω)xi
I ω = 1 → Gauss-Seidel sem acelera¸c˜ ao.
–6–
i = 1, . . . , n
!
i = 1, . . . , n
I A acelera¸c˜ ao corresponde a uma extrapola¸c˜ ao: (m+1)
x
(m)
=x
+ω· z
(m+1)
−x
= x(m) + ω · ∆x
(m)
x(m+1) z (m+1) PSfrag replacements
x(m) ∆x ω · ∆x
I Para cada problema existe um ω o ´timo, mas para a maioria dos problemas pr´ aticos, valores aproximados (emp´ıricos) s˜ ao escolhidos. V´ arias tentativas foram feitas para se obter um valor o ´timo de ω. Em geral, o esfor¸co de obten¸c˜ ao n˜ ao compensa. I Acelera¸c˜ ao tamb´ em pode ser usada para a solu¸c˜ ao de redes el´ etricas, onde normalmente se escolhe um fator de acelera¸c˜ ao 1 < ω < 2. Uma boa escolha de ω pode resultar em uma taxa de convergˆ encia de at´ e duas vezes a original.
–7–
3.1.4
Avalia¸c˜ ao dos m´ etodos baseados na matriz Y
I M´ etodo simples. I N´ umero de elementos da somat´ oria ´ e pequeno (valor t´ıpico ´ e 3). I Pequeno espa¸co de armazenamento ´ e necess´ ario. No caso do m´ etodo de Gauss-Seidel os valores da itera¸c˜ ao anterior n˜ ao precisam ser armazenados. I Pequeno n´ umero de c´ alculos por itera¸c˜ ao. I Convergˆ encia lenta. I O m´ etodo converge se Y ´ e diagonal dominante: n X
| Yij |<| Yii |
i = 1, . . . , n
j=1,j6=i
Em sistemas el´ etricos esta caracter´ıstica ´ e normalmente encontrada. Entre os fatores que podem afetar a dominˆ ancia diagonal e tamb´ em a convergˆ encia do m´ etodo est˜ ao: • • • •
jun¸c˜ ao de impedˆ ancias s´ erie muito grandes e pequenas; capacitˆ ancias grandes (como em cabos); linhas EHV longas; compensa¸c˜ ao s´ erie e shunt.
I A escolha da barra de referˆ encia afeta as caracter´ısticas de convergˆ encia. A melhor escolha ´ e a barra para a qual sua linha ´ e a menos dominante diagonalmente. I Quanto maior a rede, os m´ etodos baseados na matriz Y se tornam menos competitivos em rela¸c˜ ao a outros m´ etodos.
–8–
3.2
M´ etodos iterativos baseados na matriz Z
etodos baseados na matriz Y e os baseados na I A maior diferen¸ca entre os m´ matriz Z ´ e que a equa¸c˜ ao da rede ´ e tratada em termos da matriz impedˆ ancia: E = Z·I I As correntes nodais s˜ ao avaliadas por: Ik =
Sk Ek
∗
k = 1, . . . , n
e s˜ ao substitu´ıdas em: Ek =
n X
Zkm Im
k = 1, . . . , n
m=1
I Existem outras propostas com pequenas varia¸co ˜es. 3.2.1
Avalia¸c˜ ao dos m´ etodos baseados na matriz Z
I A matriz Z ´ e cheia (n˜ ao esparsa). I Normalmente a matriz Z ´ e constru´ıda diretamente, e n˜ ao atrav´ es da invers˜ ao de Y. Existem m´ etodos de constru¸c˜ ao de Z (que envolvem grande esfor¸co de c´ alculo). ´ necess´ IE ario um grande espa¸co de mem´ oria para o armazenamento da matriz. I Maior n´ umero de c´ alculos ´ e necess´ ario no processo iterativo. I Para redes muito grandes, mem´ oria e volume de c´ alculos se tornam impr´ aticos. I Como cada tens˜ ao ´ e avaliada em fun¸c˜ ao de todas as correntes, a convergˆ encia ´ e mais confi´ avel e r´ apida, comparada com os m´ etodos baseados na matriz Y.
–9–
I A escolha da barra de referˆ encia n˜ ao ´ e t˜ ao importante neste caso. Pode-se escolher a barra para a qual a soma dos elementos da linha da matriz Z ´ ea maior. I Em geral m´ etodos baseados na matriz Z n˜ ao s˜ ao atrativos se comparados com os baseados na matriz Y. 3.3
M´ etodo iterativo de Newton
3.3.1
Resolu¸c˜ ao de sistemas alg´ ebricos pelo m´ etodo de Newton
I Considerar a equa¸c˜ ao alg´ ebrica n˜ ao-linear:
g (x) = 0
I Pretende-se determinar o valor de x para o qual a fun¸c˜ ao g (x) se anula. Em termos geom´ etricos a solu¸c˜ ao da equa¸c˜ ao acima corresponde ao ponto xs em que a curva g (x) corta o eixo horizontal x:
g (x)
PSfrag replacements
xs
x0 – 10 –
x
I Considerar que um ponto x0 suficientemente pr´ oximo de xs seja conhecido. Neste caso, pode-se estimar a distˆ ancia entre x0 e xs atrav´ es da expans˜ ao da fun¸c˜ ao g (x) em torno de x0. A expans˜ ao de g (x) em s´ erie de Taylor desprezando os termos de ordem igual e superior a 2 resulta em: d g (x0) · ∆x dx = g (x0) + g 0 (x0 ) · ∆x
g (x0 + ∆x) = g (x0) +
Se ∆x for considerado como sendo aproximadamente a distˆ ancia entre x0 e xs: ∆x ≈ xs − x0
g (x0 + ∆x) ≈ g (xs) = 0 Logo:
g (x0) + g 0 (x0) · ∆x ≈ 0 ∆x ≈ −
– 11 –
g (x0) g 0 (x0)
Interpreta¸c˜ ao gr´ afica:
g (x)
PSfrag replacements
xs x1
x0
x
∆x
Como o resultado ´ e aproximado, ent˜ ao: x0 + ∆x = x1 6= xs Por´ em, se x0 est´ a suficientemente pr´ oximo de xs, ent˜ ao: x1 − x s = ε em que ε ´ e muito pequeno. I A resolu¸c˜ ao do problema pelo m´ etodo de Newton resulta em um processo iterativo baseado nas id´ eias apresentadas anteriormente.
– 12 –
I Processo iterativo: (1) Inicializar o contador de itera¸co ˜es ν = 0. Escolher um ponto inicial x = x(ν) = x(0) . (2) Calcular o valor da fun¸c˜ ao g (x) no ponto x = x(ν) → g x(ν) . (3) Comparar o valor calculado g x(ν) com uma tolerˆ ancia especificada ε. Se | g x(ν) |≤ ε, ent˜ ao x = x(ν) corresponder´ a` a solu¸c˜ ao procurada dentro da faixa de tolerˆ ancia ±ε. Caso contr´ ario, prosseguir. g(x) g x(0)
PSfrag replacements
+ε −ε
x xs
x(0)
edio (4) Linearizar a fun¸c˜ ao g (x) em torno do ponto x(ν) , g x(ν) por interm´ da s´ erie de Taylor desprezando os termos de ordem igual e superior a 2:
g x
(ν)
+ ∆x
(ν)
d (ν) + g x ≈g x · ∆x(ν) dx (ν) 0 (ν) ≈g x +g x · ∆x(ν)
(ν)
Este passo se resume de fato ao c´ alculo da derivada g 0 x(ν) .
– 13 –
(5) Resolver o problema linearizado, ou seja, encontrar ∆x(ν) tal que:
g x
(ν)
+g
0
x
(ν)
e o novo ponto:
· ∆x(ν) = 0 ∆x(ν)
g x(ν) = − 0 (ν) g x
x(ν+1) − x(ν) = ∆x(ν) x(ν+1) = x(ν) + ∆x(ν) g x(ν) (ν+1) (ν) x = x − 0 (ν) g x g(x) g x(0)
PSfrag replacements
+ε −ε
x xs
x(1)
De acordo com a figura: x(1)
(0) g x = x(0) − 0 (0) g x – 14 –
x(0)
Outra maneira simples de obter essa express˜ ao ´ e a seguinte (em u ´ltima an´ alise esta maneira tem o mesmo significado da lineariza¸c˜ ao anterior):
Dado o ponto x(0), a derivada da curva de g (x) calculada neste ponto ´ e: d (0) 0 g x = g x(0) = α dx que representa a declividade da reta tangente ` a fun¸c˜ ao g (x) no ponto (0) x .
A equa¸c˜ ao da reta tangente ` a curva g (x) e que passa por x(0) ´ e: y = α·x+β
O valor de α ´ e conhecido (derivada da curva). Deseja-se obter o (1) (1) ponto x para o qual a reta corta o eixo x (e, portanto, g x = 0). (1) O ponto x ´ e obtido a partir da id´ eia de que uma reta pode ser determinada a partir de ao dois pontos. Esses dois pontos ser˜ (0) (0) (1) (1) : e x ,g x x ,g x 0 = α · x(1) + β g x(0) = α · x(0) + β Subtra´ındo a segunda equa¸c˜ ao da primeira: (0) (1) (0) −g x =α· x −x e, finalmente: x(1)
(0) g x = x(0) − 0 (0) g x
– 15 –
(6) Fazer ν ← ν + 1 e voltar para o passo (2). I Desenvolvimento do processo iterativo:
PSfrag replacements g x(0)
g x(1)
g (x)
g x(2) +ε −ε
x xs x(3) x(2) x(1) solu¸c˜ ao
x(0)
→ De acordo com o crit´ erio predefinido (escolha de ε), x(3) est´ a suficiente (3) mente pr´ oximo de xs (g x dentro da faixa ±ε) a ponto de poder ser considerado como a solu¸c˜ ao da equa¸c˜ ao g (x) = 0.
– 16 –
I Uma vers˜ ao modificada do m´ etodo acima ´ e obtida considerando-se a derivada constante, ou seja, ela ´ e calculada somente uma vez no ponto x(0) e utilizada em todas as itera¸co ˜es (Von Mises):
PSfrag replacements
g (x)
g x(0)
g x(1)
g x(2) g x(3)
+ε −ε
x xs
x(3) x(2) x(1)
x(0)
→ O n´ umero de itera¸co ˜es ´ e maior que no m´ etodo original. → Cada itera¸c˜ ao ´ e mais r´ apida (envolve menos c´ alculos) pois a derivada n˜ ao precisa ser calculada a cada passo (esse fato ficar´ a mais claro quando for tratado o caso multidimensional).
– 17 –
I Considerar agora o caso de um sistema n-dimensional de equa¸co ˜es alg´ ebricas n˜ ao-lineares: g (x) = 0 em que g e x s˜ ao vetores de dimens˜ ao (n × 1) correspondentes respectivamente ` as fun¸co ˜es e inc´ ognitas: g (x) =
g1 (x) g2 (x) . . . gn (x) T x = x1 x2 . . . xn
T
I Os passos do algoritmo de solu¸c˜ ao para o caso n-dimensional s˜ ao basicamente os mesmos do caso unidimensional. A diferen¸ca est´ a no passo (4) em que se realiza a lineariza¸c˜ ao de g (x). A lineariza¸c˜ ao de g (x) em torno de x = x(ν) ´ e dada por:
g x
(ν)
(ν)
+ ∆x
≈g x
(ν)
+J x
(ν)
· ∆x(ν)
e dada por: sendo que J ´ e chamada de matriz Jacobiana e ´
∂ J= g= ∂x
∂ ∂x1 g1
∂ ∂x2 g1
∂ ∂x1 g2
...
∂ ∂xn g1
∂ ∂x2 g2
...
∂ ∂xn g2
...
...
...
...
∂ g ∂x1 n
∂ g ∂x2 n
...
∂ g ∂xn n
O vetor de corre¸c˜ ao ∆x ´ e calculado impondo-se:
g x
∆x
(ν)
(ν)
+J x
(ν)
· ∆x(ν) = 0
h i−1 (ν) (ν) =− J x ·g x – 18 –
I Caso particular para n = 2: ∂ (ν) (ν) (ν) g1 [(x1 + ∆x1) , (x2 + ∆x2)] ≈ g1 x1 , x2 + g1 · ∆x1 + ∂x1 (ν) ∂ (ν) (ν) (ν) g2 [(x1 + ∆x1) , (x2 + ∆x2)] ≈ g2 x1 , x2 + g2 · ∆x1 + ∂x1
(ν)
∂ (ν) g1 · ∆x2 ∂x2 (ν) ∂ (ν) g2 · ∆x2 ∂x2 (ν)
I Algoritmo para resolu¸c˜ ao do sistema de equa¸co ˜es g (x) = 0 pelo m´ etodo de Newton: (1) Inicializar o contador de itera¸co ˜es ν = 0. Escolher um ponto inicial x = x(ν) = x(0) . (2) Calcular o valor da fun¸c˜ ao g (x) no ponto x = x(ν) → g x(ν) .
(3) Teste de convergˆ encia: (ν) |≤ ε para i = 1 . . . n, ent˜ ao x = x(ν) ser´ a a solu¸c˜ ao procurada Se | gi x dentro da faixa de tolerˆ ancia ±ε e o processo convergiu. Caso contr´ ario, prosseguir. (4) Calcular a matriz Jacobiana J x(ν) . (5) Determinar o novo ponto x(ν+1) : (ν)
∆x
h i−1 (ν) (ν) =− J x ·g x
x(ν+1) = x(ν) + ∆x(ν)
(6) Fazer ν ← ν + 1 e voltar para o passo (2).
– 19 –
3.3.2
Avalia¸c˜ ao do m´ etodo de Newton
I Converge para v´ arios casos em que outros m´ etodos (p.ex. Gauss-Seidel) divergem → ´ e mais confi´ avel. I O n´ umero de itera¸co ˜es necess´ arias para a convergˆ encia independe da dimens˜ ao do problema (ao contr´ ario de Gauss-Seidel, que aumenta de um fator n – em que n ´ e a dimens˜ ao do problema). I Requer mais espa¸co de mem´ oria para armazenamento, devido ` a matriz Jacobiana. I O tempo computacional por itera¸c˜ ao ´ e maior, pois deve-se inverter a matriz Jacobiana e multiplic´ a-la por um vetor. I As t´ ecnicas de armazenamento compacto e de fatora¸c˜ ao reduziram de maneira significativa o espa¸co de mem´ oria necess´ ario e o esfor¸co computacional. I Apresenta convergˆ encia quadr´ atica, ou seja, se:
define-se:
− solu¸c˜ ao exata do problema xs − solu¸c˜ ao para a itera¸c˜ ao i xi i i ao i E = x − xs − erro na itera¸c˜ q e = kE k2 = (E i)T · E i i
i
e pode-se mostrar que: ei+1 =K lim i→∞ (ei )2 em que K ´ e a constante assint´ otica de proporcionalidade. Para i suficientemente grande, pode-se dizer que: ei+1 ≈ K · ei
2
o que garante uma convergˆ encia r´ apida, principalmente se o ponto inicial escolhido j´ a est´ a pr´ oximo da solu¸c˜ ao exata. – 20 –
I N˜ ao ´ e sens´ıvel ` a escolha da barra de referˆ encia. ´ sens´ıvel ` a escolha do ponto inicial. IE I Situa¸co ˜es:
g(x)
regi˜ ao de atra¸c˜ ao
ag replacements derivada nula! x(2) x(0) x(0) x(1)
→ → → →
x(1)
x(0)x(1) x(2) x
regi˜ ao de atra¸c˜ ao. solu¸co ˜es m´ ultiplas. pontos de m´ınimo. mal condicionamento.
O m´ etodo de Newton e suas vers˜ oes (m´ etodos desacoplados) s˜ ao os mais usados na pr´ atica e ser˜ ao apresentados com detalhe adiante
– 21 –