Síntese da sessão 5 O Modelo de Auto-Avaliação das Bibliotecas Escolares: metodologias de operacionalização (Parte I)
Foram objectivos desta sessão: •
Compreender como é que a auto-avaliação pode ser concretizada para demonstrar a contribuição da BE para o ensino e aprendizagem e a missão e objectivos da escola.
•
Ganhar familiaridade com o processo de auto-avaliação adoptado pelo Modelo de Auto-avaliação RBE e capacitar para a sua aplicação.
•
Conhecer as técnicas e instrumentos propostos, o modo como se organizam e podem ser usados
A actividade solicitada estruturou-se do seguinte modo: a) Solicitou-se aos formandos que escolhessem, em alternativa, um dos seguintes
Domínios/Subdomínios:
A.2.
(Promoção
da
Literacia
da
Informação); B. (Leitura e Literacia) ou C.1. (Apoio a Actividades Livres, Extra-Curriculares e de Enriquecimento Curricular) b) Escolhessem no Domínio/Subdomínio seleccionado dois Indicadores, um que considerassem de Processo e outro que considerassem de Impacto/Outcome, e analisassem detalhadamente esses indicadores. c) Estabelecessem um Plano de Avaliação em profundidade daqueles dois Indicadores, recorrendo ao Texto da Sessão, às Orientações para a aplicação do Modelo incluídas na versão actualizada do mesmo, e ao texto de leitura complementar Basic Guide To Program Evaluation.
A existência desta sessão e desta actividade encontra a sua maior justificação, ao constituir-se como uma oportunidade dos formandos abordarem o modelo numa perspectiva prática de operacionalização, que se pretendeu iniciar com a planificação do processo de aplicação. Sobre o cumprimento das tarefas, em 30 formandos, realizaram as actividades 23, sendo que entre os 7 que não as realizaram se encontram alguns colegas que aparentemente terão desistido desta formação. Relativamente aos domínios escolhidos, é de referir a grande adesão ao domínio B. Só 2 formandas se debruçaram sobre o sub-domínio C1 e 9 sobre o sub-domínio A2. Os textos foram aparentemente lidos e estudados pela maioria dos formandos (poucos o não fizeram), embora nem todos tenham reflectido essas leituras nos seus trabalhos, como solicitado. A forma como cada um apresentou o seu Plano foi mais ou menos variada, mas todos, de um modo geral, se fizermos uma leitura cumulativa, dado uns terem ido mais longe e outros terem apresentado planos mais limitados, apresentaram uma planificação englobando os diferentes aspectos ou etapas, de enquadramento, diagnóstico, identificação do problema e objecto da avaliação, indicação dos factores críticos aplicáveis, selecção dos métodos e técnicas a utilizar, enumeração dos intervenientes no processo, aplicação dos instrumentos identificados, recolha e tratamento dos dados, análise e interpretação da informação obtida, síntese e comunicação dos resultados, etc. As conclusões retiradas da elaboração dos diferentes trabalhos, oferecem-nos a realização os seguintes comentários: O primeiro sintetiza-se na seguinte observação: O Modelo não pode ser visto ou antecipado como uma abstracção, vazia de conteúdos. Quer isto dizer, que quando, por exemplo, no Indicador B1 se identifica como factor de sucesso, a organização de actividades de promoção de leitura e se
remete na recolha de evidências para os registos dessas actividades, o que se solicita à BE no final do processo global de auto-avaliação do Domínio não é apenas que diga que organizou as ditas actividades, mas que as identifique, apontando as evidências (dados) que lhe permitem sustentar o seu valor em termos de desempenho da BE e/ou dos seus utilizadores. Isto implica uma indicação das actividades planeadas onde à partida se incorpora desde logo a respectiva avaliação. O Plano de avaliação articula-se necessariamente com o Plano de actividades. Se quisermos dar outro exemplo, desta feita sobre um indicador de impacto, como o B3, o mesmo se lhe aplica. Não basta referir genericamente que os alunos desenvolveram as competências a ou b. Devem identificar-se as actividades concretas que foram realizadas em relação com esse objectivo e que sustentaram a recolha de dados que atestam que essas competências foram efectivamente desenvolvidas. Isto significa que para avaliar um indicador, temos que utilizar como “matéria-prima” actividades concretas (tangíveis), sejam elas relacionadas com as acções de gestão desencadeadas pela biblioteca em relação com o domínio da leitura e da literacia, sejam elas incidentes nos campos da aprendizagem ou da formação global dos alunos no mesmo domínio. Daqui resultaram, deste modo, duas abordagens diferentes de pegar nesta actividade, uma mais macro ou ampla, seguindo uma linha mais teórica e mais próxima do documento do Modelo e dos textos de apoio; outra mais específica e facilitada para quem cumpre funções de professor-bibliotecário e dispõe de um Plano de Actividades com incidência no domínio que se propôs planear. A maioria optou por seguir de muito perto as tabelas, de que não chega a distanciar-se, avançando pouco numa planificação que desejavelmente se pretende o mais possível específica e concretizada. Uma segunda observação, decorrente da primeira, pode sintetizar-se na frase: a estrutura do Modelo em tabelas não configura em si mesmo qualquer tipo Plano de avaliação. Prende-se esta observação com o facto de alguns dos Planos propostos se restringirem muito à indicação dos indicadores, factores críticos de sucesso e
instrumentos de recolha/evidências, decalcando, deste modo, em grande medida as tabelas do Modelo. Em geral verificou-se que outros aspectos, como, por exemplo, o das acções de preparação da aplicação do modelo junto da escola, da indicação discriminada dos intervenientes a implicar em cada uma das acções, do trabalho a realizar sobre cada tipo de dados, de produção escrita e divulgação de conclusões ou de indicação detalhada do calendário das diferentes acções aparece indicada de uma forma muito global numa introdução ou no final, não se cruzando com as matérias da avaliação inscritas nas tabelas apresentadas. Uma tabela de planificação do Modelo deve ser certamente distinta das tabelas do Modelo e, se possível, abarcar e cruzar todos os aspectos inerentes à sua aplicação. Uma terceira observação relaciona-se com uma certa confusão na distinção entre indicadores de processo e de impacto. Processos e impactos remetem para aspectos de natureza diferente. Os processos dizem respeito ao que a BE faz nos diferentes domínios da sua actuação. Os indicadores (ou factores) de processo têm geralmente uma redacção do tipo: A BE desenvolve, colabora, assegura, realiza, etc. Os impactos
dizem
respeito
às
consequências
em
termos
de
novas
aprendizagens, desenvolvimento de capacidades, atitudes, etc., que aquelas acções têm, fazendo uso de expressões como: os alunos revelam, aplicam, estabelecem, desenvolvem, usam, participam, etc. O exercício de selecção de um indicador de processo e outro de impacto, aparentemente tão simples, não era, contudo, assim tão linear, obrigando a olhar com atenção para a sua composição, através da análise dos respectivos factores críticos. Por exemplo, quem escolheu o A2.1 sobre a formação de utilizadores, e o designou de processo, sem mais, não reparou que ele, ao contrário dos restantes indicadores do A2, onde separámos sempre os processos dos impactos, reúne 2 factores de processo (Ex. O plano de trabalho da BE inclui actividades de formação de utilizadores ou A BE produz materiais informativos e/ou lúdicos de apoio à formação dos utilizadores) e 1 factor de impacto (Alunos e docentes desenvolvem competências para o uso da BE revelando
um maior nível de autonomia na sua utilização após as sessões de formação de utilizadores). O mesmo acontece exactamente em relação ao C1.1 e ao C1.3, os únicos com factores de impacto directos e que podiam ser usados como seu exemplo. No Domínio B, B1 e B2 são nitidamente indicadores de processo no seu todo e o B3, um indicador de impacto. Finalmente, registo uma última observação em que creio, parece nunca ser demais insistir: Instrumentos de recolha de evidências e evidências são coisas diferentes. Algumas formandas estabelecem alguma confusão entre uma coisa e a outra, não sei se por coincidência. Os PAA, PCT, Guia e Guiões, os trabalhos escolares, são documentos de onde podemos extrair evidências, mas não são eles próprios evidências. Por outro lado, sessões de formação, reuniões entre docentes, etc. são actividades. Os registos associados a estas actividades é que nos podem fornecer evidências, mas também elas não são evidências em si mesmas. Este lapso foi cometido, sobretudo, pelos formandos a quem ocorreu na tabela criar uma coluna para indicar os instrumentos e outra para as evidências, cuja utilidade não me parece muito pertinente. Julgo que todos os formandos serão capazes de se reconhecer nas observações gerais referidas. Sabendo, no entanto, em boa parte devido à minha experiência enquanto formadora na RBE, da vontade de quase todos os formandos, de receber um feedback sobre os seus trabalhos mais individualizado, darei ainda indicação da avaliação qualitativa que realizei. Lembro que a avaliação deste trabalho incide não apenas no conteúdo mas também no facto do mesmo estar completo e responder cabalmente ao que se pediu na actividade da sessão, o que nem sempre aconteceu. Todos os trabalhos foram classificados com nota positiva. Naturalmente, uns foram melhor conseguidos do que outros. Os melhores trabalhos foram os da Maritza, da Lucinda e da Fátima Dias, seguidos pelos trabalhos da Joaquina, da Isabel Marques, da Fátima Sebastião, da Maria José Palmeira, da Elisa Almeida, da Fernanda Freitas e da Sandra Bettencourt. A seguir situaram-se os
trabalhos da Isabel Estaço, Teresa Semedo, Carla Valente, Aida e Madalena e na base, ainda positivos, mas mais fracos, ficaram os trabalhos do Luís, da Maria José Vilhena, da Maria José Leal, da Lucília, da Almerinda e da Luísa. Continuamos a contar com a vossa persistência e empenho nesta formação, cuja utilidade creio ser reconhecida por todos. Desejamos a todos a continuação de um óptimo trabalho! Um abraço,
As formadoras