PrEval Fachtag 2025

Evaluation verankern und weiterdenken

Stärkung von Extremismusprävention, Demokratieförderung und politischer Bildung beim PrEval Fachtag in Berlin im Fokus

Am 24. und 25. November veranstaltete der PrEval-Verbund in Berlin den PrEval Fachtag 2025. Gemeinsam mit den Teilnehmenden vor Ort und im Livestream diskutierten die Mitwirkenden Ergebnisse, Empfehlungen und entwickelte Formate und stellten die Neuauflage des PrEval Monitors vor.

Politische Bildung, Demokratie­förderung und Extremismus­prävention bleiben ungebrochen wichtig und werden tendenziell wichtiger für Demokratiestabilität und gesellschaftlichen Zusammenhalt. Die Handlungs­felder werden aber zunehmend auch zum Gegenstand politischer Kontroversen. Eine Stärke Deutschlands im internationalen Vergleich ist die Vielfalt der Ansätze und Akteure in den Handlungs­feldern und die erhebliche Professionalisierung der Träger­landschaften – so Projekt­koordinator Julian Junk zum Auftakt des PrEval Fachtags 2025. PrEval habe in den vergangenen Jahren erheblich dazu beigetragen, diese zu festigen, und Evaluationen seien nach dem Verständnis des Projekts ein wesentlicher Mechanismus, um diese Handlungs­felder zu stärken.

Den Auftakt des Programms bildete ein Impuls der PrEval-­Verbundpartner Violence Prevention Network und i-unito – Svetla Koynova und Juliane Kanitz stellten die Wünsche und Bedarfe der Fachpraxis in den Mittelpunkt und machten sie somit gleichsam zum rahmenden Element des Fachtags.

Mit Bedürfnissen der Fachpraxis beschäftigten sich auch Andreas Uhl und Ian Kattein (IKG). Sie präsentierten die Ergebnisse aus ihrer Befragung zu kommunalen Evaluations­strukturen in Deutschland. Vielfach geäußerte Wünsche umfassten unter anderem eine gesteigerte Sensibilisierung für Evaluation, externe Unterstützung, Möglichkeiten zur Kooperation und Netzwerk­bildung sowie die Möglichkeit, aus Evaluation zu lernen und somit Innovation schaffen zu können. Ihr Fazit: Vorhandene Evaluations­kapazitäten alleine reichen nicht aus – sie müssen auch genutzt werden. Dazu könne auf vorhandene Strukturen aufgebaut werden, um Evaluation potenziell auch als ein Instrument zur Demokratie­förderung einsetzen zu können. Die Ergebnisse der Befragung werden bis zum Jahresende auch in die Datenbasis der PrEval-Plattform eingehen und dort abrufbar sein.

Wie praxisnah muss Unterstützung gestaltet sein, um Evaluation verbessern zu können? Dieser Frage widmete sich das anschließende World Café der PrEval-Zukunfts­werkstatt „Unterstützungs­angebote“. Unter Anleitung der PrEval-Partner VPN, i-unito und BAG RelEx durchliefen die Anwesenden drei Stationen, bei denen sie sich zu den Themen methodische Unterstützung, Beratungs­leistungen sowie Umgang mit Evaluations­ergebnissen und Uptake austauschen und Ideen entwickeln konnten.

Den Bogen zum internationalen Kontext schlugen anschließend Sofie Lilli Stoffel und Sarah Bressan. Das PrEval-Projektteam des GPPi präsentierte die Ergebnisse des internationalen Monitorings zu Trends in Extremismus, Prävention und Evaluation. Sie beobachteten in den Ländern der Fallstudie eine Entwicklung hin zu hybriden Formen des Extremismus, die Forderung nach ganzheitlicher Gewalt­prävention sowie im Bereich Evaluation eine drohende Stagnation des Feldes. Diese Risiken sollten ernst genommen werden – und ihnen mithilfe vertrauensvoller Beziehungen, systematischer Lernstrategien und unabhängiger Expertise begegnet werden.

Myrte van Veldhuizen (Universität Duisburg-Essen) richtete den Fokus anschließend auf die Verzahnung von Extremismus­prävention und politischer Bildung in England und Norwegen. Im Rahmen ihrer PrEval-Pilotstudie untersuchte sie, ob und wie die Kooperation von Bildungs- und Präventions­fachleuten in der Praxis in diesen Ländern funktioniert. Das Ergebnis: International dominieren lokale bottom-up organisierte Projekte und es existiert Aufgeschlossenheit für die Zusammenarbeit von Extremismus­prävention und politischer Bildung an Schulen. Für den deutschen Kontext allerdings bedarf es diesbezüglich weiterer Forschung und die gezielte Förderung der Entwicklung und Evaluation von bottom-up-Projekten.

Eine weitere PrEval-Pilotstudie stellten Juliane Kanitz (i-unito) und Maximilian Campos Ruf (VPN) vor: Von 2024 bis 2025 widmete diese sich der Evaluation digitaler Beratungs­angebote und ihrer Herausforderungen. Mit einer interaktiven Live-Abfragen banden sie das Publikum vor Ort und im Livestream in den Vortrag ein, um herauszufinden, wie digital der Arbeitsalltag in der Praxis bereits ist. Diese Abfrage stützte die Ergebnisse der Pilotstudie – die Arbeit ist ein vielschichtiger Mix aus Technologie, Beziehung und Kommunikation, in der Zielgruppen aufgesucht werden oder deren Kontaktaufnahme abgewartet wird. Die digitalen Formate sind dabei ebenso vielschichtig und verlangen dabei Vertrauen und Struktur, um Reflexion und nachhaltige Veränderung erreichen zu können. Die Evaluation solcher Formate ist dabei ähnlich komplex: Der Datenschutz steht Wirkungs­nachweisen vielfach entgegen, digitale Räume sind inhärent dynamisch und die klassischen Kennzahlen digitaler Arbeit sind zu eng für digitale Kontexte. Daher brauche es „Methoden mit Kontext, Ethik und Flexibilität“.

Die Frage „Wie weiter nach PrEval?“ rahmte den letzten Programmpunkt des ersten Tages: In kurzen Pitches stellten die Projektteams die zentralen Empfehlungen ihrer Arbeit vor und diskutierten anschließend mit dem Publikum, wie diese zur künftigen Stärkung von Evaluation in der Extremismus­prävention, Demokratie­förderung und politischen Bildung beitragen können.

Diesen Punkt griffen Marcus Kober (DFK) und Andreas Uhl (IKG) am nächsten Morgen auf: Sie stellten den Prototyp einer Datenbank vor, die Evaluationsberichte systematisch und praxisnah aufbereiten kann und dabei auch KI-Funktionalitäten zielgerichtet einbindet. Für die Umsetzung dieser Datenbank sollten jedoch wesentliche Voraussetzungen und Empfehlungen beachtet werden: Lernen hat Vorrang vor Bewertung, kontextsensible Veröffentlichung ist grundlegend, ausgeklügelte Filtermöglichkeiten erlauben eine praxisnahe Recherche, redaktionelle Betreuung stellt die Auffindbarkeit passender Treffer sicher, die Berichte sollen zu praxisnahen Weiterentwicklung beitragen und ein breiter Evaluationsbegriff soll einer Hierarchisierung der Evaluations­ansätze entgegenwirken. KI-gestützte Zugänge können die Datenbank dabei möglichst nutzer*innen­freundlich machen, bedürfen jedoch enger Grenzen und menschlicher Kontrolle.

Der anschließende Input von Hermann J. Abs (Universität Duisburg-Essen) richtete den Blick auf neue Herausforderungen der politischen Bildung, insbesondere auf den Umgang mit KI und deren Bedeutung für die Gestaltung wie auch für die Evaluation entsprechender Angebote. Anhand eines im Rahmen von PrEval entwickelten Fragebogens zur Selbst­einschätzung digitaler Kompetenzen Jugendlicher illustrierte er, wie anspruchsvoll diese Aufgabe ist. Das Forschungs­team verstand Digital Citizenship als die Fähigkeit, in digitalen und demokratischen Gesellschaften souverän, partizipativ und verantwortungs­bewusst mitzuwirken – ein normativer Bildungs­begriff, den es angesichts aktueller Entwicklungen für unverzichtbar hielt. In der Erprobung des Instruments zeigte sich jedoch ein spannungsreicher Befund: Einige Jugendliche nahmen den Fragebogen als einseitig politisch „linksorientiert“ wahr. Dies eröffnete eine Diskussion darüber, inwiefern Indikatoren zur Wirksamkeits­messung politischer Bildung normativ ausgerichtet sein dürfen oder ob es stärker um die Erfassung übergeordneter Meta-Kompetenzen gehen sollte – etwa Reflexions­fähigkeit, Ambiguitäts­toleranz oder digitale Urteils­kompetenz –, die politische Teilhabe ermöglichen, ohne selbst politisch einseitig gelesen zu werden.

Das Thema Selbst­evaluation nahmen im Anschluss J. Olaf Kleist (DeZIM) und die Gesprächs­partnerinnen Susanne Giel und Luzia Kromke (ORBIT e.V.) in den Blick. Als (Mit-)Verfasserinnen der jüngsten PrEval Expertisen lenkten sie den Blick auf das Spannungsfeld zwischen „Leistung, Legitimation und Lernen“. Susanne Giel und Luzia Kromke beleuchteten den Prozess der Selbst­evaluation aus zwei Perspektiven – aus Sicht der Projekte, aber auch mit Blick auf eine kooperative Zusammenarbeit zwischen Projekt, Fördermittel­gebenden und externer Begleitung. Betont wurde dabei das Potenzial der Selbst­evaluation, den Fokus auf die für eine Veränderung relevanten Aspekte zu legen. Doch welche Rahmen­bedingungen müssen gegeben sein, damit Selbst­evaluation funktionieren kann? Die Autonomie über die Selbst­evaluation müsse in den Händen der Projekte liegen, so Susanne Giel. So könnten auch kritische Punkte beleuchtet sowie selbstbestimmt Aspekte der eigenen Praxis bearbeitet werden. Während eine Selbstevaluation einen Fokus setzen müsse, könne ein kooperatives Vorgehen wie bei dem von Luzia Kromke vorgestellten „Ziel­orientierten Qualitäts­zyklus“ allerdings ein Projekt in Gänze betrachten. Auch bei diesem Vorgehen gilt es jedoch, bestimmte Rahmen­bedingungen sicherzustellen: Ressourcen, Fehlertoleranz und eine gemeinsame Vertrauensbasis sind essenziell, eine externe Begleitung hat sich als sinnvoll erwiesen. Abschließend ließ sich eine grundsätzliche Erkenntnis für beide Perspektiven festhalten: Selbst­evaluation braucht Lern- und Veränderungs­bereitschaft – und auch Neugier und Offenheit dafür, dass etwas anders werden darf.

Den Abschluss des Fachtags gestalteten Susanne Johansson (PRIF), Andrea Prytula (DeZIM) und Marion Lempp unter der Moderation von Götz Nordbruch. Unter dem Motto „Evaluation weiterdenken“ rückte die Frage in den Mittelpunkt, wie Wissen aus und über Evaluationen wirksam genutzt werden kann. Ausgehend von Erkenntnissen einer vorausgegangenen PrEval-Pilotstudie wurden Einblicke in eine enge Wissenschaft-Praxis-Kooperation mit einem Träger der digitalen politischen Bildung gegeben. Unsere Partnerinnen zeigten, wie interdisziplinär und partizipativ Evaluations­methoden entwickelt werden können, die den Besonderheiten digitaler politischer Bildung Rechnung tragen – von den Struktur­bedingungen des Internets über Zielgruppen­merkmale bis hin zu plattformspezifischen Logiken. Insbesondere Selbstevaluation erwies sich dabei als vielversprechender Ansatz.

Daran anknüpfend betonte Marion Lempp die Wichtigkeit einer Verstetigung solcher Kooperationen. Zu häufig blieben wertvolle Evaluations­ergebnisse ungenutzt, wodurch Lern- und Transformations­prozesse ins Stocken geraten. Sie hob hervor, dass Evaluationen nur dann Wirkung entfalten können, wenn Strukturen geschaffen werden, die Uptake-Prozesse von Anfang an mitdenken und ermöglichen – denn in Debatten über Wirksamkeit gelte es nicht nur, diese durch Evaluationen nachzuweisen, sondern auch, Evaluation selbst wirksam werden zu lassen. Eine zentrale Aufgabe bestehe daher darin, solche Strukturen systematisch zu stärken, damit Ergebnisse zuverlässig in die Praxis zurückfließen und Weiterentwicklung ermöglichen. In einem kreativen Abschluss lud Lempp das Publikum zu einer gedanklichen Reise in das Jahr 2040 ein. Die Teilnehmenden entwickelten „Zukunfts­utopien“ einer Evaluations­landschaft, in der Evaluation selbstverständlich zur Praxis gehört, Ressourcen nicht länger Lernprozesse behindern und eine konstruktive Fehlerkultur etabliert ist, in der nicht nur „best practices“, sondern auch „worst practices“ als wertvolle Lernanlässe dienen. Doch eine solche Zukunft setzt Vertrauen und den Abbau bestehender Vorbehalte voraus – zwischen Praxis, Wissenschaft und Förder­strukturen. Erst, wenn Evaluation als gemeinsamer Lern- und Entwicklungs­prozess verstanden wird, kann sie ihr Potenzial als Motor für Innovation und Weiterentwicklung vollständig entfalten.

Einmal mehr hat der PrEval Fachtag 2025 gezeigt, dass Evaluation weit mehr ist als ein bloßes Messinstrument: Sie ist unverzichtbar, um politische Bildungs­angebote und Präventions­programme gezielt zu verbessern und Lernprozesse anzustoßen. Damit dies gelingt, müssen kontextsensible Methoden gewählt, partizipative und praxisnahe Strukturen gefördert, langfristige Finanzierungen gesichert, Vorbehalte abgebaut und eine konstruktive Fehlerkultur etabliert werden. Nur, wenn „worst cases“ als Lernchancen verstanden und Ergebnisse unabhängig von ihrer Art reflektiert und systematisch in die Praxis zurückgeführt werden, kann Evaluation die Wirksamkeit von Bildungs- und Präventions­arbeit steigern und so den demokratischen Zusammenhalt nachhaltig stärken.

Programm

Montag, 24. November 2025

13:00 Uhr
Eröffnung und Begrüßung
Julian Junk (HöMS/PRIF)

13:30 Uhr
Impuls: Ergebnisse, Wünsche und Bedarfe der Fachpraxis zur Stärkung von Evaluation und Qualitätssicherung
Svetla Koynova (Violence Prevention Network) & André Taubert (i-unito)

13:50 Uhr
Kommunale Evaluationsstrukturen und -kapazitäten: Perspektiven aus der Praxis
Andreas Uhl & Ian Kattein (IKG)

14:35 Uhr     
Pause

14:45 Uhr
World Café der PrEval-Zukunftswerkstätten zu praxisnahen Unterstützungsangeboten
Methodische Unterstützung | Beratungsleistungen | Umgang mit Evaluationsergebnissen und Uptake
i-unito, Violence Prevention Network, BAG RelEx, PRIF

16:00 Uhr
Lehren aus drei Jahren internationalem Monitoring: Erkenntnisse und Trends in Extremismus, Prävention und Evaluation aus Fallstudienländern auf fünf Kontinenten
Sarah Bressan & Sofie Lilli Stoffel (GPPi)

Extremismusprävention und politische Bildung international
Myrte van Veldhuizen (Universität Duisburg-Essen)

17:00 Uhr
Pause

17:15 Uhr
Digitale Beratungsangebote als Herausforderung für Fach- und Evaluationspraxis
Juliane Kanitz (i-unito) & Maximilian Campos Ruf (Violence Prevention Network)

18:00 Uhr
Wie weiter nach PrEval?
Kurz und knapp die wesentlichen Strukturempfehlungen von PrEval

18:20 Uhr
Wie weiter mit den Empfehlungen von PrEval?
Ein Plenumsgespräch

19:15 Uhr
Programmende & gemeinsames Abendessen

Dienstag, 25. November 2025

9:00 Uhr
Wissen zusammenführen und erschließen. Empfehlungen zur Struktur einer Evaluationsdatenbank
Marcus Kober (DFK), Mikhail Logvinov (HöMS), Andreas Uhl (IKG)

9:45 Uhr
Digital Citizenship – Neue Anforderungen und Wege der Evaluation
Hermann Josef Abs (Universität Duisburg-Essen)

10:30 Uhr
Pause

10:45 Uhr     
Selbstevaluation im Wirkungsdiskurs: Zwischen Leistung, Legitimation und Lernen
J. Olaf Kleist (DeZIM Institut), Luzia Kromke & David Jeß (ORBIT e. V.), Susanne Giel

11:30 Uhr
Evaluation weiterdenken: zum Umgang mit Erkenntnissen aus und über Evaluationen
Susanne Johansson (PRIF), Andrea Prytula (DeZIM Institut), Svetla Koynova (Violence Prevention Network), Götz Nordbruch, Marion Lempp

12:45 Uhr
Abschluss & gemeinsames Mittagessen

13:00 Uhr
Programmende