O verdadeiro impacto da falha nas provas digitais

É preciso avaliar para saber onde intervir, mas o que se fez, e não foi por falta de aviso, foi trocar a aferição da aquisição de dos conteúdos por uma auditoria digital.

Ouça este artigo
--:--
--:--

O Governo insistiu na realização universal das provas de aferição em formato digital e cometeu um erro. Perdemos comparabilidade entre as escolas. Perdermos comparabilidade ao longo do tempo. Perdemos a capacidade de avaliar o aluno nos seus conhecimentos e frustrámos o seu esforço e o da comunidade docente. Num momento em que os alunos, sobretudo os mais novos, sofreram os terríveis efeitos do confinamento e um ambiente muitas vezes instável, era importante termos uma base de trabalho que nos permitisse ter um roteiro de actuação. Mais uma vez faltou cultura de dados e fundamentação das políticas públicas. É preciso avaliar para saber onde intervir, mas o que se fez, e não foi por falta de aviso, foi trocar a aferição da aquisição dos conteúdos por uma auditoria digital.

Há meses que contrasto com o ministro e outras entidades, defendendo que o formato universal digital era uma precipitação. Não era uma deriva antitecnológica nossa e de muita comunidade escolar que alertou; era evidente a falta de noção ou precipitação. E note-se que a a Iniciativa Liberal viu chumbado ainda em Fevereiro um projecto sobre este tema. Esta opção não foi, por isso, um risco calculado, foi uma escolha.

1. Nada estava pronto. Há meses que se sabia que as escolas não estavam preparadas. Era já evidente que a tecnologia iria falhar e que os alunos, escolas e apoio não tinham um adequado nível de prontidão para estas tecnologias. Mesmo que alguns tivessem: não tinham todos. Não havia condições em geral.

Dias antes das provas, perante esta situação de impreparação e confrontado no Parlamento, o ministro reagiu com naturalidade – reagiu como se estivéssemos numa auditoria à capacidade digital dos alunos e das escolas.

O resultado foi o óbvio. Muitos agrupamentos escolares acusam o Ministério da Educação de não ter dado tempo suficiente às escolas para preparar o novo modelo de provas de aferição em formato digital. 50% das escolas, de acordo com a comunicação social, não conseguiram aferir o conhecimento dos seus alunos.

2. Mas mesmo que tudo estivesse pronto, mesmo que os alunos soubessem mexer na tecnologia, deveríamos fazer estes testes digitais? Quando confrontei o ministro com o facto de as escolas não estarem “universalmente preparadas para uma avaliação digital”, o ministro da Educação deu como exemplo a introdução dos exames de Educação Física, em que, também aí, já há uns anos, houve alguma controvérsia. O exemplo, todavia, era e é um mau exemplo. Estas provas físicas avaliam o ensino ministrado e os seus resultados, ou falta deles.

O mesmo não se passa com as provas digitais. No melhor dos cenários, as provas digitais avaliam três dimensões: a tecnologia, a capacidade de usar as ferramentas digitais e, simultaneamente, os conteúdos programáticos. Há mais do que uma dimensão. Em caso de má nota, não sabemos o que falhou: se a tecnologia, se a literacia digital ou se a aquisição dos conteúdos.

E pior. Em caso de má nota não sabemos onde agir. No caso em concreto ainda não é claro se a maior dificuldade foi no acesso à tecnologia ou na capacidade em manusear as provas digitais.

Os dados para intervir são sempre importantes, não se devendo quebrar a estrutura de dados. Mas hoje em dia, com a premência da recuperação das aprendizagens, com clivagens evidentes, ainda mais necessário se tornava. Maior turbulência e assimetria fazem com que a medição para intervir seja ainda mais importante.

3. Há meses, para além da impreparação, argumentava e centrava os danos com o agravamento da reprodução das desigualdades sociais nas avaliações. Reflectindo (i)literacia digital, apoio, recursos. Com o tempo, com as reuniões e sobretudo nos últimos dias, adensou-se em mim a convicção de que o ministério estava a valorizar uma auditoria digital, desconsiderando tudo o restante.

4. Com estas provas vai-se perder a comparabilidade dos conhecimentos, não vai haver comparação fidedigna quer entre as escolas, quer temporalmente. As provas de aferição não são apenas um “aproveitar para ver como estão as escolas”. Sem dados credíveis e comparáveis, essenciais para intervenção e sustentação das políticas públicas, vamos recuperar que aprendizagens? Onde vamos ver as melhores evoluções? Não aprendemos nada com a falta de dados: já tínhamos ficado fora de estudos internacionais em 2019 por falta de dados; passou 2019, 2020, 2021, 2022 e continuamos a navegar à vista. Disse ao presidente do CNE: já tínhamos tido tempo de alterar isto.

Há ainda mais um elemento. Num cenário idílico, em que tudo estivesse pronto e que fosse possível administrar. Há métodos de trabalho de dados para garantir a comparabilidade. Um deles é o utilizado no teste internacional PIRLS: há opção digital, híbrida, há possibilidade em papel e sobretudo a sobreposição de testes em papel e digital, para aferir de possíveis diferenças. Todas estas técnicas de alteração de base de análise estão estudadas, são aplicadas em institutos de estatísticas e em estudos de políticas públicas e afins. A diferença, afinal, é querer fazer.

Para concluir: vamos persistir no erro? Ou vamos ser capazes de dar um passo atrás? É necessário reconhecer o erro e tomar medidas para não repetir, a fim de garantir uma avaliação adequada dos alunos e a comparabilidade dos conhecimentos entre as escolas.

Para isto acontecer seria preciso também ter uma verdadeira cultura de dados e valorização da informação, nomeadamente para fundamentação de políticas públicas. No final, fica mais uma vez a convicção de que isso não existe. E precisamos tanto de boas políticas.

Sugerir correcção
Ler 10 comentários