PISA


… fica aqui em imagem.

PG Pub28Dez14

Público, 28 de Dezembro de 2014

Muitos e bons materiais. tenho pena de não ter assistido à apresentação no CNE, até porque sabia de alguns resultados preliminares de estudos muito, muito interessantes.

Falso… embora este quadro tenha dados que não somam 100%, de qualquer modo é visível como nos PISA a evolução foi bem positiva com um aumento de 7,5% nos níveis mais altos de desempenho em Matemática e um decréscimo de quase 9% nos mais baixos:

CNEPisa

E se compararmos com outros países, é fácil verificar que fomos um dos países com maior aumento de top performers entre 2003 e 2012… enquanto os low performers desceram sensivelmente:

CNEPisa1

CNEPisa2

Via João Caetano (Twitter):

Nuno Crato considera Programa Internacional para a Avaliação de Alunos (PISA) o “único instrumento viável para avaliação do nosso sistema”, até pela continuidade dos critérios de referência.

Mas isso era antigamente?

Ou de Junho de 2008 para cá o mundo mudou?

… as que têm conduzido a consistentes descidas de resultados dos alunos, enquanto Portugal vai conseguindo recuperar do seu profundo atraso?

O que têm a dizer acerca disto os defensores da “liberdade de escolha” que acenam com a Holanda, Suécia, Austrália, Nova Zelândia, etc, como exemplos maiores do modelo de gestão do sistema de ensino que querem para Portugal?

A “narrativa” não pode ir pelo lado da qualidade, pois não?

Prefere ir pelo lado do retrato estático, ignorando a tendência de médio prazo (2003-12).

E se, afinal, o que estamos habituados a ouvir não passar de uma ficção instrumental? De uma MENTIRA?

Mais grave… e se os “narradores” souberem que é mentira, mas já se estiverem nas tintas pois colocaram os seus homens nos lugares certos para olear as decisões?

PISA2012

E até parece que não estamos mal… há certos críticos que talvez fisessem melhor em alterar a “narrativa” e em perceber que as melhorias não se conseguem com medidas de curto prazo.

Os alunos agora testados entraram no 1º ano há quase uma década…

PISA 2012 Results

Mais um quadro (do estudo longo da OCDE, do qual se podem descarregar quadros e gráficos livremente) que vem no sentido do que ontem aqui se apresentou da autoria de David Justino.

Afinal, se tivermos em conta a diferença nos antecedentes socio-económicos dos alunos que frequentam escolas públicas e privadas, o desempenho dos alunos portugueses fica bem acima da média e bem mais perto dos países “desenvolvidos” do que nos querem fazer acreditar.

Mais um prego em certas crendices

Os diapositivos seguintes fazem parte da comunicação apresentada pelo Professor David Justino em Montemor, no dia 29 de Setembro.

Resumindo: atendendo aos constrangimentos de ordem social e cultural das suas famílias, os alunos portugueses têm um desempenho acima da média nos testes PISA.

E esta hein?

Não fui eu que inventei… é o resultado de um estudo em decurso para publicação internacional e deita por terra muitas ideias feitas sobre o mau trabalho feito nas escolas portuguesas, as quais conseguem, com alunos com um background mais problemático, alcançar resultados acima do previsível.

De facto, os alunos de meios socialmente menos favorecidos são considerados no estudo especialmente resilientes, e este conceito de resiliência tem a ver com a constatação de que há muitos alunos que à partida tendo uma origem social menos vantajosa do que outros revelam resultados nos níveis mais positivos”, sublinhou. O representante português no comité do PISA, Pinto Ferreira, também destacou que “a escola portuguesa, para além de ter melhorado em termos de qualidade, melhorou substancialmente em termos de equidade.

Apenas alguns aspectos mais técnicos, disponíveis aqui:

How are countries/economies chosen to participate in PISA?

Countries/economies interested in participating in PISA contact the OECD Secretariat. The PISA Governing Board then approves membership according to certain criteria. Participants must have the technical expertise necessary to administer an international assessment and must be able to meet the full costs of participation. To take part in a cycle of PISA, participants must join two years before the survey takes place. For example, PISA 2012 participants will have joined before March 2010.

Who pays for PISA?

PISA is financed exclusively through direct contributions from the participants’ government authorities, typically Education ministries.

Does PISA tell participants how to run their schools?

No. The data collected by PISA shows the successes of some participants’ schools and the challenges being faced in other countries/economies. It allows countries and economies to compare best practices and to further develop their own improvements, ones appropriate for their school systems.

Por vezes há anomalias nas amostras, mas é raro. Aconteceu com a Áustria em 2000, mas é raro.

Responsável da OCDE: Portugal regista evolução “impressionante” nos resultados

Alunos portugueses pela primeira vez “perto da média”

Alunos do secundário «perto da média» internacional – OCDE

Alunos portugueses melhoraram na língua, matemática e ciências, segundo a OCDE

PISA: What Makes the Difference?Explaining the Gap in PISA Test Scores Between Finland and Germany

(…)

Conclusion

The decomposition analysis showed that the poor performance of German students compared to Finnish students is not due to a less favorable student background, except for the bottom of the score distribution. German students have on average more favorable characteristics but experience much lower returns to these characteristics in terms of test scores than Finnish students. The background of German students changes much faster along the score distribution, which explains the higher inequality in Germany. The institutional setting seems to be more favorable in Germany while Finland is endowed with slightly more resources. The characteristics of students are transformed into higher test scores in Germany than in Finland once their effect on school choice is neglected. Instead, resources are used more efficiently in Finland, where teachers are more highly educated and a lower education of teachers has no negative effect on student performance. A large part of the overall score gap between the countries is due to unobservable factors. The results also imply that streaming in Germany penalizes students in lower school types and leads to a greater inequality of educational achievement. It remains unclear, however, if this can be attributed to the effect of school types per se or student background and innate ability that determine the allocation process of students into school types. Overall, the variation in test scores can be explained much better by the observable characteristics in Germany than in Finland.
In order to improve the performance of students in Germany, especially the educational achievement of students in the lower part of the test score distribution has to be promoted. These students suffer from a highly disadvantaged student background, whose negative impact upon performance might be magnified by the early streaming in the German schooling system at the age of ten. They are not given the chance to compensate for their background before they are divided into different school types. The measured resources, especially the education of teachers, must be employed more efficiently in order to close the gap to leading countries in student performance. There is no evidence for a beneficial effect of lower student teacher ratios but a higher education of teachers seems to benefit students in Germany.
Further research is needed on the effects of school types in educational production functions, which should try to isolate the ‘true’ effect of school type on educational achievement. Only then the determinants of educational achievement can be precisely estimated for schooling systems that massively use streaming.