Cap3.pdf

  • Uploaded by: Darieldon De Brito Medeiros
  • 0
  • 0
  • October 2019
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Cap3.pdf as PDF for free.

More details

  • Words: 3,392
  • Pages: 21
Cap´ıtulo 3 M´ etodos de resolu¸c˜ ao do problema de fluxo de carga

3.1

M´ etodos iterativos baseados na matriz Y

I Baseados na resolu¸c˜ ao do sistema de equa¸co ˜es lineares I = Y · E de maneira iterativa I Exemplos: Gauss/Gauss-Seidel, Glimn-Stagg, Ward-Hale, etc. 3.1.1

M´ etodos de Gauss/Gauss-Seidel

I Considerar um sistema de n equa¸co ˜es alg´ ebricas lineares A · x = b Tomando a linha i da equa¸c˜ ao matricial acima: i

PSfrag replacements

xi

Aii

i

.

A

n X

Aii xi +

j=1 n X

bi =

x

b

Aij xj = bi

i = 1, . . . , n

Aij xj = bi

i = 1, . . . , n

j=1,j6=i

–1–

Resolvendo para xi tem-se:

xi =



1  · bi − Aii

n X

j=1,j6=i



i = 1, . . . , n

Aij xj 

Para uma itera¸c˜ ao (m + 1), o processo iterativo pode ser definido como:

(m+1)

xi

=



1  · bi − Aii

n X

j=1,j6=i



(m) Aij xj 

i = 1, . . . , n

M´ etodo de Gauss

(m+1)

Para a obten¸c˜ ao de xi da itera¸c˜ ao anterior)

(m)

s˜ ao utilizados os valores de xi

(todos os valores

Uma forma alternativa para o processo iterativo ´ e:

(m+1)

xi

=

1 · Aii

bi −

i−1 X

(m+1)

Aij xj

j=1



n X

(m)

Aij xj

j=i+1

!

i = 1, . . . , n

M´ etodo de Gauss-Seidel

(m+1)

Para a obten¸c˜ ao de xi s˜ ao utilizados os valores mais recentes dispon´ıveis dos elementos do vetor x

–2–

 Exemplo

Processo iterativo utilizando os m´ etodos de Gauss e Gauss-Seidel para n = 3: Gauss (m+1) x1 (m+1)

x2

(m+1)

x3

1 = A11 1 = A22 1 = A33

h



(m) A12x2

(m) A13x3

i

+ · b1 − h  i (m) (m) · b2 − A21x1 + A23x3 h  i (m) (m) · b3 − A31x1 + A32x2

Gauss-Seidel (m+1) x1 (m+1)

x2

(m+1)

x3

1 = A11 1 = A22 1 = A33

h



(m) A12x2

(m) A13x3

i

+ · b1 − i h  (m) (m+1) + A23x3 · b2 − A21x1 i h  (m+1) (m+1) + A32x2 · b3 − A31x1 

–3–

3.1.2

Resolu¸c˜ ao do problema de fluxo de carga pelo m´ etodo de Gauss-Seidel

encia podem ser modelados como um sistema de equa¸co ˜es I Os sistemas de potˆ alg´ ebricas lineares: I =Y·E I O equacionamento para a utiliza¸c˜ ao do m´ etodo de Gauss-Seidel ´ e: Sk∗ = Ek∗ · Ik = Ek∗ ·

X

Ykn En = Ek∗ ·

n∈K

X

Ykn En + Ek∗ Ykk Ek

n∈Ωk

em que Ωk ´ e o conjunto de barras vizinhas da barra k e K ´ e o conjunto das barras em Ωk mais a pr´ opria barra k. A tens˜ ao Ek ´ e obtida por: Ek =

1 · Ykk

Sk∗ Ek∗



X

Ykn En

n∈Ωk

!

Utilizando o m´ etodo de Gauss-Seidel tem-se, para uma itera¸c˜ ao (m + 1): (m+1)

Ek

=

1 · Ykk

Sk∗ (m) Ek ∗



k−1 X

YknEn(m+1) −

n=1

NB X

n=k+1

Ykn En(m)

!

em que NB ´ e o n´ umero total de barras. (m+1)

I O valor de Sk utilizado na express˜ ao de Ek  

depende do tipo de barra:

Se a barra for PQ, Sk ´ e especificado; Se a barra for PV, somente Pk ´ e especificado (Qk ´ e calculado). Ent˜ ao, estima-se Qk com base nos valores atuais das tens˜ oes.

I Se a barra for slack, a tens˜ ao n˜ ao ´ e atualizada. Se a barra for PV, somente a magnitude da tens˜ ao ´ e atualizada.

–4–

rag replacements  Exemplo

Considere a rede de 2 barras e 1 linha de transmiss˜ ao mostrada a seguir. Dados E1

E2

z

S1

E1 = 1,0112∠0◦ pu z = 0,01 + j 0,05 pu S2 = −1,0∠0◦ pu

S2

1

2

referˆ encia

carga

A matriz admitˆ ancia da rede ´ e:

Y=



3,8462 − j 19,2308 −3,8462 + j 19,2308 −3,8462 + j 19,2308 3,8462 − j 19,2308



A atualiza¸c˜ ao da tens˜ ao E2 ´ e realizada por:

(m+1)

E2

=

1 Y22

"

S2 (m)

E2

!∗

− Y21E1

#

O resultado do processo iterativo ´ e:

Itera¸c˜ ao

E2 [pu]

0 1 2 3 4

1+j0 1,0012 − j 0,0500 0,9987 − j 0,0493 0,9987 − j 0,0494 0,9987 − j 0,0494

Solu¸c˜ ao: E2 = 1∠ − 2,8◦ pu

–5–

A potˆ encia na barra de referˆ encia ´ e: ∗ = E1 S1 = E1 I12



∗ 1 (E1 − E2 ) = 1,01 + j 0,05 pu z 

3.1.3

Acelera¸c˜ ao da convergˆ encia

encia pode ser acelerada atrav´ es da utiliza¸c˜ ao de parˆ ametros de I A convergˆ acelera¸c˜ ao. O m´ etodo mais popular ´ e o chamado m´ etodo SOR (successive overrelaxation). Para o m´ etodo Gauss-Seidel:

(m+1)

zi

(m+1)

xi

=

1 · Aii

bi −

(m+1)

= ωzi

i−1 X

(m+1)

Aij xj

j=1



n X

(m)

Aij xj

j=i+1 (m)

+ (1 − ω)xi

I ω = 1 → Gauss-Seidel sem acelera¸c˜ ao.

–6–

i = 1, . . . , n

!

i = 1, . . . , n

I A acelera¸c˜ ao corresponde a uma extrapola¸c˜ ao: (m+1)

x

(m)

=x



+ω· z

(m+1)

−x

= x(m) + ω · ∆x

(m)



x(m+1) z (m+1) PSfrag replacements

x(m) ∆x ω · ∆x

I Para cada problema existe um ω o ´timo, mas para a maioria dos problemas pr´ aticos, valores aproximados (emp´ıricos) s˜ ao escolhidos. V´ arias tentativas foram feitas para se obter um valor o ´timo de ω. Em geral, o esfor¸co de obten¸c˜ ao n˜ ao compensa. I Acelera¸c˜ ao tamb´ em pode ser usada para a solu¸c˜ ao de redes el´ etricas, onde normalmente se escolhe um fator de acelera¸c˜ ao 1 < ω < 2. Uma boa escolha de ω pode resultar em uma taxa de convergˆ encia de at´ e duas vezes a original.

–7–

3.1.4

Avalia¸c˜ ao dos m´ etodos baseados na matriz Y

I M´ etodo simples. I N´ umero de elementos da somat´ oria ´ e pequeno (valor t´ıpico ´ e 3). I Pequeno espa¸co de armazenamento ´ e necess´ ario. No caso do m´ etodo de Gauss-Seidel os valores da itera¸c˜ ao anterior n˜ ao precisam ser armazenados. I Pequeno n´ umero de c´ alculos por itera¸c˜ ao. I Convergˆ encia lenta. I O m´ etodo converge se Y ´ e diagonal dominante: n X

| Yij |<| Yii |

i = 1, . . . , n

j=1,j6=i  

Em sistemas el´ etricos esta caracter´ıstica ´ e normalmente encontrada. Entre os fatores que podem afetar a dominˆ ancia diagonal e tamb´ em a convergˆ encia do m´ etodo est˜ ao: • • • •

jun¸c˜ ao de impedˆ ancias s´ erie muito grandes e pequenas; capacitˆ ancias grandes (como em cabos); linhas EHV longas; compensa¸c˜ ao s´ erie e shunt.

I A escolha da barra de referˆ encia afeta as caracter´ısticas de convergˆ encia. A melhor escolha ´ e a barra para a qual sua linha ´ e a menos dominante diagonalmente. I Quanto maior a rede, os m´ etodos baseados na matriz Y se tornam menos competitivos em rela¸c˜ ao a outros m´ etodos.

–8–

3.2

M´ etodos iterativos baseados na matriz Z

etodos baseados na matriz Y e os baseados na I A maior diferen¸ca entre os m´ matriz Z ´ e que a equa¸c˜ ao da rede ´ e tratada em termos da matriz impedˆ ancia: E = Z·I I As correntes nodais s˜ ao avaliadas por: Ik =



Sk Ek

∗

k = 1, . . . , n

e s˜ ao substitu´ıdas em: Ek =

n X

Zkm Im

k = 1, . . . , n

m=1

I Existem outras propostas com pequenas varia¸co ˜es. 3.2.1

Avalia¸c˜ ao dos m´ etodos baseados na matriz Z

I A matriz Z ´ e cheia (n˜ ao esparsa). I Normalmente a matriz Z ´ e constru´ıda diretamente, e n˜ ao atrav´ es da invers˜ ao de Y. Existem m´ etodos de constru¸c˜ ao de Z (que envolvem grande esfor¸co de c´ alculo). ´ necess´ IE ario um grande espa¸co de mem´ oria para o armazenamento da matriz. I Maior n´ umero de c´ alculos ´ e necess´ ario no processo iterativo. I Para redes muito grandes, mem´ oria e volume de c´ alculos se tornam impr´ aticos. I Como cada tens˜ ao ´ e avaliada em fun¸c˜ ao de todas as correntes, a convergˆ encia ´ e mais confi´ avel e r´ apida, comparada com os m´ etodos baseados na matriz Y.

–9–

I A escolha da barra de referˆ encia n˜ ao ´ e t˜ ao importante neste caso. Pode-se escolher a barra para a qual a soma dos elementos da linha da matriz Z ´ ea maior. I Em geral m´ etodos baseados na matriz Z n˜ ao s˜ ao atrativos se comparados com os baseados na matriz Y. 3.3

M´ etodo iterativo de Newton

3.3.1

Resolu¸c˜ ao de sistemas alg´ ebricos pelo m´ etodo de Newton

I Considerar a equa¸c˜ ao alg´ ebrica n˜ ao-linear:

g (x) = 0

I Pretende-se determinar o valor de x para o qual a fun¸c˜ ao g (x) se anula. Em termos geom´ etricos a solu¸c˜ ao da equa¸c˜ ao acima corresponde ao ponto xs em que a curva g (x) corta o eixo horizontal x:

g (x)

PSfrag replacements

xs

x0 – 10 –

x

I Considerar que um ponto x0 suficientemente pr´ oximo de xs seja conhecido. Neste caso, pode-se estimar a distˆ ancia entre x0 e xs atrav´ es da expans˜ ao da fun¸c˜ ao g (x) em torno de x0. A expans˜ ao de g (x) em s´ erie de Taylor desprezando os termos de ordem igual e superior a 2 resulta em: d g (x0) · ∆x dx = g (x0) + g 0 (x0 ) · ∆x

g (x0 + ∆x) = g (x0) +

Se ∆x for considerado como sendo aproximadamente a distˆ ancia entre x0 e xs: ∆x ≈ xs − x0

g (x0 + ∆x) ≈ g (xs) = 0 Logo:

g (x0) + g 0 (x0) · ∆x ≈ 0 ∆x ≈ −

– 11 –

g (x0) g 0 (x0)

Interpreta¸c˜ ao gr´ afica:

g (x)

PSfrag replacements

xs x1

x0

x

∆x

Como o resultado ´ e aproximado, ent˜ ao: x0 + ∆x = x1 6= xs Por´ em, se x0 est´ a suficientemente pr´ oximo de xs, ent˜ ao: x1 − x s = ε em que ε ´ e muito pequeno. I A resolu¸c˜ ao do problema pelo m´ etodo de Newton resulta em um processo iterativo baseado nas id´ eias apresentadas anteriormente.

– 12 –

I Processo iterativo: (1) Inicializar o contador de itera¸co ˜es ν = 0. Escolher um ponto inicial x = x(ν) = x(0) .  (2) Calcular o valor da fun¸c˜ ao g (x) no ponto x = x(ν) → g x(ν) .  (3) Comparar o valor calculado g x(ν) com uma tolerˆ ancia especificada ε.  Se | g x(ν) |≤ ε, ent˜ ao x = x(ν) corresponder´ a` a solu¸c˜ ao procurada dentro da faixa de tolerˆ ancia ±ε. Caso contr´ ario, prosseguir. g(x) g x(0)



PSfrag replacements

+ε −ε

x xs

x(0)

 edio (4) Linearizar a fun¸c˜ ao g (x) em torno do ponto x(ν) , g x(ν) por interm´ da s´ erie de Taylor desprezando os termos de ordem igual e superior a 2: 

g x

(ν)

+ ∆x

(ν)



d  (ν)  + g x ≈g x · ∆x(ν)   dx  (ν) 0 (ν) ≈g x +g x · ∆x(ν) 

(ν)



 Este passo se resume de fato ao c´ alculo da derivada g 0 x(ν) .

– 13 –

(5) Resolver o problema linearizado, ou seja, encontrar ∆x(ν) tal que: 

g x

(ν)



+g

0



x

(ν)



e o novo ponto:

· ∆x(ν) = 0 ∆x(ν)

 g x(ν) = − 0 (ν)  g x

x(ν+1) − x(ν) = ∆x(ν) x(ν+1) = x(ν) + ∆x(ν)  g x(ν) (ν+1) (ν) x = x − 0 (ν)  g x g(x) g x(0)



PSfrag replacements

+ε −ε

x xs

x(1)

De acordo com a figura: x(1)

 (0) g x = x(0) − 0 (0)  g x – 14 –

x(0)

Outra maneira simples de obter essa express˜ ao ´ e a seguinte (em u ´ltima an´ alise esta maneira tem o mesmo significado da lineariza¸c˜ ao anterior): 

Dado o ponto x(0), a derivada da curva de g (x) calculada neste ponto ´ e:   d  (0) 0 g x = g x(0) = α dx que representa a declividade da reta tangente ` a fun¸c˜ ao g (x) no ponto (0) x .



A equa¸c˜ ao da reta tangente ` a curva g (x) e que passa por x(0) ´ e: y = α·x+β



O valor de α ´ e conhecido (derivada da curva). Deseja-se obter o  (1) (1) ponto x para o qual a reta corta o eixo x (e, portanto, g x = 0). (1) O ponto x ´ e obtido a partir da id´ eia de que uma reta pode ser determinada a partir de ao  dois pontos. Esses dois pontos ser˜  (0) (0) (1) (1) : e x ,g x x ,g x  0 = α · x(1) + β  g x(0) = α · x(0) + β Subtra´ındo a segunda equa¸c˜ ao da primeira:     (0) (1) (0) −g x =α· x −x e, finalmente: x(1)

 (0) g x = x(0) − 0 (0) g x

– 15 –

(6) Fazer ν ← ν + 1 e voltar para o passo (2). I Desenvolvimento do processo iterativo:

PSfrag replacements  g x(0)

g x(1)

g (x)



 g x(2) +ε −ε

x xs x(3) x(2) x(1) solu¸c˜ ao

x(0)

→ De acordo com o crit´ erio predefinido (escolha de ε), x(3) est´ a suficiente (3) mente pr´ oximo de xs (g x dentro da faixa ±ε) a ponto de poder ser considerado como a solu¸c˜ ao da equa¸c˜ ao g (x) = 0.

– 16 –

I Uma vers˜ ao modificada do m´ etodo acima ´ e obtida considerando-se a derivada constante, ou seja, ela ´ e calculada somente uma vez no ponto x(0) e utilizada em todas as itera¸co ˜es (Von Mises):

PSfrag replacements

g (x)

g x(0)



g x(1)



 g x(2)  g x(3)

+ε −ε

x xs

x(3) x(2) x(1)

x(0)

→ O n´ umero de itera¸co ˜es ´ e maior que no m´ etodo original. → Cada itera¸c˜ ao ´ e mais r´ apida (envolve menos c´ alculos) pois a derivada n˜ ao precisa ser calculada a cada passo (esse fato ficar´ a mais claro quando for tratado o caso multidimensional).

– 17 –

I Considerar agora o caso de um sistema n-dimensional de equa¸co ˜es alg´ ebricas n˜ ao-lineares: g (x) = 0 em que g e x s˜ ao vetores de dimens˜ ao (n × 1) correspondentes respectivamente ` as fun¸co ˜es e inc´ ognitas: g (x) =



g1 (x) g2 (x) . . . gn (x)  T x = x1 x2 . . . xn

T

I Os passos do algoritmo de solu¸c˜ ao para o caso n-dimensional s˜ ao basicamente os mesmos do caso unidimensional. A diferen¸ca est´ a no passo (4) em que se realiza a lineariza¸c˜ ao de g (x). A lineariza¸c˜ ao de g (x) em torno de x = x(ν) ´ e dada por: 

g x

(ν)

(ν)

+ ∆x





≈g x

(ν)





+J x

(ν)



· ∆x(ν)

e dada por: sendo que J ´ e chamada de matriz Jacobiana e ´ 

    ∂ J= g=  ∂x   

∂ ∂x1 g1

∂ ∂x2 g1

∂ ∂x1 g2

...

∂ ∂xn g1

∂ ∂x2 g2

...

∂ ∂xn g2

...

...

...

...

∂ g ∂x1 n

∂ g ∂x2 n

...

∂ g ∂xn n

O vetor de corre¸c˜ ao ∆x ´ e calculado impondo-se: 

g x

∆x

(ν)

(ν)





+J x

(ν)



· ∆x(ν) = 0

h  i−1   (ν) (ν) =− J x ·g x – 18 –

         

I Caso particular para n = 2: ∂ (ν) (ν) (ν) g1 [(x1 + ∆x1) , (x2 + ∆x2)] ≈ g1 x1 , x2 + g1 · ∆x1 + ∂x1 (ν)   ∂ (ν) (ν) (ν) g2 [(x1 + ∆x1) , (x2 + ∆x2)] ≈ g2 x1 , x2 + g2 · ∆x1 + ∂x1 



(ν)

∂ (ν) g1 · ∆x2 ∂x2 (ν) ∂ (ν) g2 · ∆x2 ∂x2 (ν)

I Algoritmo para resolu¸c˜ ao do sistema de equa¸co ˜es g (x) = 0 pelo m´ etodo de Newton: (1) Inicializar o contador de itera¸co ˜es ν = 0. Escolher um ponto inicial x = x(ν) = x(0) .  (2) Calcular o valor da fun¸c˜ ao g (x) no ponto x = x(ν) → g x(ν) .

(3) Teste de convergˆ encia:  (ν) |≤ ε para i = 1 . . . n, ent˜ ao x = x(ν) ser´ a a solu¸c˜ ao procurada Se | gi x dentro da faixa de tolerˆ ancia ±ε e o processo convergiu. Caso contr´ ario, prosseguir.  (4) Calcular a matriz Jacobiana J x(ν) . (5) Determinar o novo ponto x(ν+1) : (ν)

∆x

h  i−1   (ν) (ν) =− J x ·g x

x(ν+1) = x(ν) + ∆x(ν)

(6) Fazer ν ← ν + 1 e voltar para o passo (2).

– 19 –

3.3.2

Avalia¸c˜ ao do m´ etodo de Newton

I Converge para v´ arios casos em que outros m´ etodos (p.ex. Gauss-Seidel) divergem → ´ e mais confi´ avel. I O n´ umero de itera¸co ˜es necess´ arias para a convergˆ encia independe da dimens˜ ao do problema (ao contr´ ario de Gauss-Seidel, que aumenta de um fator n – em que n ´ e a dimens˜ ao do problema). I Requer mais espa¸co de mem´ oria para armazenamento, devido ` a matriz Jacobiana. I O tempo computacional por itera¸c˜ ao ´ e maior, pois deve-se inverter a matriz Jacobiana e multiplic´ a-la por um vetor. I As t´ ecnicas de armazenamento compacto e de fatora¸c˜ ao reduziram de maneira significativa o espa¸co de mem´ oria necess´ ario e o esfor¸co computacional. I Apresenta convergˆ encia quadr´ atica, ou seja, se:

define-se:

 − solu¸c˜ ao exata do problema  xs − solu¸c˜ ao para a itera¸c˜ ao i xi  i i ao i E = x − xs − erro na itera¸c˜ q e = kE k2 = (E i)T · E i i

i

e pode-se mostrar que: ei+1 =K lim i→∞ (ei )2 em que K ´ e a constante assint´ otica de proporcionalidade. Para i suficientemente grande, pode-se dizer que: ei+1 ≈ K · ei

2

o que garante uma convergˆ encia r´ apida, principalmente se o ponto inicial escolhido j´ a est´ a pr´ oximo da solu¸c˜ ao exata. – 20 –

I N˜ ao ´ e sens´ıvel ` a escolha da barra de referˆ encia. ´ sens´ıvel ` a escolha do ponto inicial. IE I Situa¸co ˜es:

g(x)

regi˜ ao de atra¸c˜ ao

ag replacements derivada nula! x(2) x(0) x(0) x(1)

→ → → →

x(1)

x(0)x(1) x(2) x

regi˜ ao de atra¸c˜ ao. solu¸co ˜es m´ ultiplas. pontos de m´ınimo. mal condicionamento.

O m´ etodo de Newton e suas vers˜ oes (m´ etodos desacoplados) s˜ ao os mais usados na pr´ atica e ser˜ ao apresentados com detalhe adiante

– 21 –

More Documents from "Darieldon De Brito Medeiros"

Cap3.pdf
October 2019 11
October 2019 10
December 2019 16
Cursos De Filosofia.docx
December 2019 14
December 2019 12
Logos.pdf
December 2019 5