Meine Take-Aways von der DeGEval-Jahrestagung 2020

Die DeGEval-Jahrestagung fand in diesem Jahr erstmals als Online-Tagung statt. Das Setting war ungewohnt und brachte einige Herausforderungen mit sich, aber auch Positives: Ich hätte in diesem Jahr wahrscheinlich nicht nach Linz reisen können. Virtuell teilzunehmen war für mich die einzige Chance auf neuen fachlichen Input und den wie immer sehr wertvollen Austausch mit Kolleg*innen mit unterschiedlichsten Hintergründen.

Das diesjährige Thema „Kommunikation – Verständigung und Sprache in der Evaluation“ finde ich extrem relevant. Egal, ob Lernen oder Rechenschaftslegung im Mittelpunkt stehen – der Erfolg einer Evaluation steht und fällt meiner Erfahrung nach mit der Kommunikation.

Ich habe von der Tagung einige interessante Informationen, Ideen und Anregungen mitgenommen, die ich gerne hier mit Ihnen teilen möchte.



1. In der Entwicklungszusammenarbeit evaluieren wir ab sofort 6 OECD-DAC-Kriterien – oder auch weniger, wenn’s denn unbedingt sein muss…

Die OECD-DAC Kriterien und ihre Überarbeitung

Bei diesem Punkt muss ich ein kleines bisschen ausholen: In entwicklungspolitischen Evaluationen spielen die Evaluationskriterien des OECD-DAC eine wichtige Rolle, sowohl im deutschsprachigen Raum als auch international. Die Kriterien sind ein normatives Abbild davon, wie die Gemeinschaft der OECD-Länder und ihre Partner Entwicklungszusammenarbeit gestalten wollen. Fast jede EZ-Evaluation behandelt Fragen, die sich an den Kriterien orientieren – nur in begründeten Ausnahmen werden Kriterien ausgeklammert. Nun gab es ja 2019 einen Reformprozess, und die ehemals fünf Kriterien (Relevanz, Effizienz, Effektivität, Nachhaltigkeit, Impact) wurden um ein sechstes ergänzt: Kohärenz. Kohärenz bezieht sich auf den Kontext einer Intervention, sowohl lokal (Region) als auch institutionell (andere Akteure). Kohärenz fragt danach, wie gut eine Intervention in diesen Kontext passt. Es geht dabei um Synergien und förderliche/hinderliche Bedingungen, die sich aus dem Kontext ergeben.

Der Orientierungsleitfaden des BMZ

Das BMZ hat nun in Zusammenarbeit mit dem DEval und unter Einbeziehung von anderen deutschen Organisationen einen Orientierungsleitfaden (OL) zu den OECD-DAC Kriterien erarbeitet, der kurz vor seiner Veröffentlichung steht. So wie bisher gilt verbindlich, dass in entwicklungspolitischen Evaluationen alle sechs Kriterien in den Blick genommen werden sollen. Es gibt natürlich weiterhin die Möglichkeit, Schwerpunkte zu setzen und die Kriterien durch die entsprechende Formulierung von Evaluationsfragen anzupassen und auf den jeweiligen Fall zuzuspitzen. Die Mitglieder des AK Entwicklungspolitik/Humanitäre Hilfe diskutierten kritisch, welche Vor- und Nachteile daraus entstehen, dass alle sechs Kriterien als verbindlich angesehen werden. Dabei signalisierten die Referenten von DEval und BMZ, dass nicht-staatliche Durchführungsorganisationen auf jeden Fall Kriterien ausschließen können, wenn es dafür gute Gründe gibt und diese Gründe auch überzeugend dargelegt werden. Ich bin gespannt, ob diese Option es in die finale Version des OL schafft.

Ein kurzer Nachtrag vom 25.09.2020: Der OL wurde am 3. September von der zuständigen Arbeitsgruppe im BMZ verabschiedet und wird, sobald das Layout fertiggestellt ist, auf der Webseite des BMZ veröffentlicht. Erarbeitet wurde der OL von der GIZ, KfW, PTB und BGR, unterstützt durch das DEval und unter Leitung des BMZ. Darüber hinaus wurden verschiedenste EZ-Evaluierungseinheiten von NRO und politischen Stiftungen sowie einzelne Gutachter*innen, der AK EPol/HuHi der DeGEval, VENRO usw. konsultiert… ein ziemlich aufwändiger Prozess! 

Können wir immer alle sechs Kriterien evaluieren?

Meine persönliche Meinung dazu ist:

Dem inhaltlichen Anspruch, ein entwicklungspolitisches Vorhaben in Bezug auf sechs Aspekte zu untersuchen, die jedes für sich genommen sehr komplex sind, kann eine „real life“ Evaluation in der Regel nicht ohne Qualitätseinbußen nachkommen.

Auf gut deutsch: Die durchschnittliche externe Evaluation mit vielleicht 20 Gutachter*innen-Tagen kann eine wissenschaftlich fundierte Beantwortung von Evaluationsfragen, die alle sechs Kriterien abbilden, in der Regel nicht leisten. Je mehr Kriterien und Fragen berücksichtigt werden müssen, desto oberflächlicher (und dadurch weniger nutzbar) werden die Ergebnisse zwangsläufig. Umso wichtiger, dass das BMZ hier ganz klare Signale sendet, dass der Ausschluss von Kriterien z.B. zugunsten der Qualität einer Evaluation möglich ist und bleibt. Und umso wichtiger, dass wir Evaluator*innen unsere Auftraggeber*innen ganz klar dahingehend beraten, wie Kriterien und Fragen in einer Evaluation begrenzt und zugespitzt werden können.

Nur am Rande: Der Begriff der „Zielgruppe“

Ein interessantes Detail im Zusammenhang mit dem OL, das auch wunderbar zum Thema der Jahrestagung passt und mit dem ich mich bisher nicht auseinander gesetzt hatte, betrifft das Wörtchen „Zielgruppe“. Die Verfasser*innen des OL verzichten explizit auf den Begriff, den sie als zu einseitig beschreiben. Es scheint dazu tatsächlich auch innerhalb des OECD-DAC eine Diskussion zu geben, in die ich allerdings nicht involviert bin und zu der ich auch keine Quellen finden konnte. „Zielgruppe“ suggeriert, dass eine Maßnahme einen klaren Ursprung (die Geber-Seite) und einen klaren Endpunkt (die Nehmer-Seite) hat. Somit wird sie unserem Anspruch, EZ als Zusammenarbeit zwischen gleichberechtigten Partnern zu denken und zu leben, nicht gerecht. Als alternativer Begriff wurde unter anderem „Beteiligte“ genannt.

2. Wir sind weiterhin gezwungen, „remote“ zu evaluieren und zu tagen – machen wir das Beste draus!

Möglichkeit des Austauschs zum Thema „remote Evaluation“

Das Thema „remote Evaluation“ hatte vor dem Ausbruch der Corona-Pandemie kaum jemand auf dem Schirm. Als wir unseren Alltag und unsere Arbeit alle von heute auf morgen ganz neu denken mussten, hat sich im Rahmen der DeGEval eine Arbeitsgruppe „Remote“ zusammengefunden, die sich genau damit beschäftigt. Dort werden hilfreiche Tools geteilt und es gibt die Möglichkeit, sich in einem geschützten Raum auszutauschen und von den vielseitigen Erfahrungen zu profitieren, die die Mitglieder der AG mitbringen. Wer sich der AG anschließen und in den Verteiler aufgenommen werden möchte kann mich gerne kontaktieren; ich leite Anfragen weiter!

Meine persönlichen Herausforderungen mit dem online-Format der Jahrestagung

Die DeGEval ist mit ihrer Entscheidung, die Jahrestagung online abzuhalten, ein Risiko eingegangen. Für mich als Teilnehmerin war die Tagung ein Erfolg, aber ich hatte auch mit einigen Herausforderungen zu kämpfen:

  • Ich weiß, dass es Vielen so geht: die Gefahr der Ablenkung ist bei virtuellen Veranstaltungen deutlich größer als „in real life“. Während der Vortrag läuft, kann man mal kurz die Mails checken, was nachschauen, und sich einen Kaffee machen (fürs Catering ist ja jede*r selbst verantwortlich). Auf das sehr komplexe Thema Ablenkung kann ich hier nicht weiter eingehen, möchte aber das total spannende „indistractable“ von Nir Eyal dazu empfehlen. Was mir jetzt ganz konkret bei der Jahrestagung gegen Ablenkung geholfen hat:
    • Mein Handy in einen anderen Raum legen und lautlos stellen.
    • Für jegliche Recherchen im Internet und den kurzen Blick in Outlook habe ich mir eine Regel gemacht: „Nicht jetzt, sondern in 10 Minuten.“ Wenn die 10 Minuten um waren war ich meist wieder voll im Thema und hatte gar nicht mehr den Impuls, mich ablenken zu lassen.
    • Für die „social accountability“ habe ich meine Webcam in den meisten Sessions eingeschaltet. Bei mir hilft das ziemlich gut; außerdem finde ich es höflicher, wenn die Vortragenden ihre Zuhörer*innen sehen können. Was eigentlich selbstverständlich sein sollte hat sich allerdings leider noch lange nicht durchgesetzt – in einigen Sessions haben sich zeitweise bis zu 2/3 aller Teilnehmenden optisch ausgeklinkt. Da gibt es also noch viel Luft nach oben.
  • Informeller Austausch. Für mich war das in den vergangenen Jahren immer das, was Konferenzen und Tagungen über die Inhalte hinaus so wertvoll gemacht hat. Gerade die Teilnehmer*innen der DeGEval-Veranstaltungen haben die unterschiedlichsten Hintergründe; hier kommen Auftraggeber*innen, Evaluator*innen und Evaluationsforscher*innen aus ganz verschiedenen Sektoren in Deutschland, Österreich und der Schweiz zusammen. Die zufälligen Begegnungen und der Austausch mit Menschen aus ganz anderen Bereichen hat meine Praxis immer ungemein bereichert. Virtuell ist so etwas kaum nachzubilden, aber was gut war:
    • Die DeGEval hat virtuelle Pausenräume geschaffen, denen jeweils 3-4 Personen zufällig (oder nach Wunsch) zugeteilt wurden. Ich habe diese Pausenräume gerne genutzt und hatte ein paar tolle Gespräche. Ob die Resonanz insgesamt gut war, kann ich nicht beurteilen, aber für mich hat es wunderbar funktioniert.
    • Das Netzwerken auf anderen Kanälen lief flüssiger als bei nicht-virtuellen Veranstaltungen: Da wir ohnehin alle vorm Rechner saßen, war die Kontakt-Anfrage bei LinkedIn oder Xing schnell gestellt.

3. Eine gute Kommunikation in der Evaluation ist extrem wichtig und extrem aufwändig – in erster Linie für uns Evaluator*innen.

In ihrer Keynote am Donnerstag führte Monika Taddicken, Professorin für Kommunikationswissenschaft an der TU Braunschweig, die „Lasswell-Formel“ ein, die die wesentlichen Aspekte von Kommunikation umreißt:

WER sagt WAS über WELCHEN KANAL zu WEM mit WELCHER WIRKUNG?

Ich greife diese Formel hier auf und nutze sie als Struktur für meine folgenden Take-Aways zum Tagungsthema…

WER?

Beim Thema Kommunikation sehe ich im Moment in erster Linie uns Evaluator*innen in der Pflicht. Wir überblicken den gesamten Evaluationsprozess und tragen am Ende einen Großteil der Verantwortung dafür, ob die Kommunikation rundherum gelingt oder nicht. Ganz konkret bedeutet das unter anderem:

  • Evaluierende müssen zu Beginn einer Evaluierung alle Informationen einholen, die sie für eine erfolgreiche Kommunikation brauchen.
  • Evaluierende müssen sich die Zeit nehmen und die Details einer Kommunikationsstrategie (s.u.) genau mit der Auftraggeber*innen-Seite abstimmen (egal, ob diese Strategie z.B. im Inception Report verschriftlicht wird oder nicht).
  • Evaluierende müssen ihre Grenzen in Bezug auf Kommunikation kennen und klar kommunizieren. Zum Beispiel sind die meisten von uns keine Grafik-Designer*innen und keine Journalist*innen. Wenn entsprechende Kenntnisse und Fähigkeiten im Zusammenhang mit einer Evaluation gebraucht werden, sollten wir darauf hinweisen und die jeweiligen Fachmenschen hinzuziehen.
  • Wir müssen ehrlich mit uns selbst sein und ganz sensibel darauf achten, ob die Abhängigkeit von einem Auftraggeber eine offene und kritische Kommunikation über Herausforderungen einschränkt.

WAS (und WIE)?

In der Evaluation sind wir ja bestens damit vertraut, dass Qualität ein subjektiver Begriff ist. Je nach Gegenstand, nach Standpunkt, Kontext und nach Beteiligten können unsere Erwartungen an und Bewertungen von Qualität stark variieren. Dieses Phänomen ist unter dem Begriff „Theory of Subjective Quality Assessment“ erforscht (z.B. Wolling 2004; Wolling 2009;  Maier et al. 2016; Milde and Barkela 2016). Monika Taddicken hat in ihrer Keynote Qualitätskriterien von Wissenschaftskommunikation vorgestellt, die sicherlich zu einem gewissen Teil auch auf die Kommunikation von Evaluationsergebnissen übertragbar sind (Wicke and Taddicken 2020; Taddicken, Wicke und Willems 2020). Demnach wird Wissenschaftskommunikation als qualitativ hochwertig empfunden, wenn…

  • Komplexe Themen verständlich dargestellt sind,
  • Prozesse und Methoden erklärt werden,
  • Unsicherheiten und Widersprüche von wissenschaftlichen Ergebnissen thematisiert werden,
  • Die Vielfalt von Perspektiven dargestellt wird,
  • Die Alltagsrelevanz wissenschaftlicher Fragen hervorgehoben wird, und
  • Wenn auch Neuigkeits- und Unterhaltungswert berücksichtigt werden.

Einige dieser Aspekte spiegeln sich in den Evaluationsstandards der DeGEval, aber sie gehen doch weit darüber hinaus. Ich denke, für die meisten Evaluator*innen gibt es hier noch viel Neues und Lohnenswertes zu lernen.

Wie können wir besser visualisieren?

Ein etwas technischerer Aspekt des „wie“ ist das Thema Visualisierungen. In einer sehr spannenden Präsentation zum Thema Visualisierung von qualitativen Daten haben Hannah Pütz und Elitsa Uzunova von Univation unter anderem ein paar Grundprinzipien von Visualisierungen genannt:

  • Visualisierungen können der Exploration von Daten dienen (z.B. um einen Evaluationsgegenstand kennenzulernen), aber ebenso auch der Erklärung und Kommunikation von Daten (z.B. um Methoden oder Strukturen zu beschreiben)
  • Grundsätzlich kommen für Visualisierungen drei Formate in Frage: Zeichnungen, Fotos und Grafiken. Mein persönlicher Eindruck ist, dass wir im Evaluationskontext v.a. Grafiken nutzen, während Fotos und Zeichnungen in ihrem Aussagepotential eher unterschätzt werden.
  • Ein wichtiges Element von Visualisierungen sind Farben und Formen. Hier kann man sich zunutze machen, dass wir auf bestimmte Signale intuitiv reagieren (Ampelfarben, hell vs. dunkel, grau für weniger wichtige Elemente usw.).
  • Ebenso können wir mit einem Blick die Bedeutung von Größe und Nähe von Elementen erfassen. In Visualisierungen kann dies genutzt werden, um Wichtigkeiten und Verbindungen darzustellen.
  • Als Varianten zur Visualisierung qualitativer Daten nannten Hannah und Elitsa noch Zitate, Timeslines, Wortwolken, Mind Concepts/Maps sowie Heatmaps/Farbschattierungen, Infografiken, Foto-Stories…

Wer sich mehr mit dem Thema Visualisierungen befassen möchte kann sich hier Inspiration holen:

https://prezi.com/view/TkC0z6Y860qgfM5bxRiF/ (Die Präsentation von Hannah und Elitsa!)

https://blog.duncangeere.com/sketchbook-pages-2/

https://depictdatastudio.com/how-to-visualize-qualitative-data/

https://lydiahooper.com/blog/visualizing-qualitative-data

https://aea365.org/blog/category/data-visualization-and-reporting/

https://stephanieevergreen.com/qualitative-chart-chooser/

(Über welchen) KANAL?

Im Themenbereich „Kommunikationskanal“ gab es einige Diskussionen rund um den guten alten Evaluationsbericht und andere Evaluationsprodukte. Es wurde deutlich: Den „one size fits all“ Bericht gibt es nicht. Idealerweise sollten die verschiedenen Adressaten einer Evaluation auch mit verschiedenen Produkten angesprochen werden, die sich inhaltlich und in ihrer Form sicherlich voneinander unterscheiden werden. Hier müssen die Evaluierenden, wie oben schon erwähnt, selbstkritisch sein und gegebenenfalls auch die Kommunikation in andere Hände (z.B. Journalismus oder Grafik-Design) abgeben.

Sehr wichtig finde ich in diesem Kontext auch, dass der Evaluationsprozess selbst und die Kommunikation während einer laufenden Evaluierung einen wichtigen Kanal darstellen. Gerade wenn es um die Kommunikation von negativen Ergebnissen, Fehlern und Herausforderungen geht, sollte man nicht zu lange warten. Je früher die betroffenen Stakeholder in die Analyse dieser Aspekte eingebunden werden, desto eher können sie diese Ergebnisse auch annehmen und daraus Lernprozesse ableiten. Dies gilt in besonderem Maße für die Entwicklungszusammenarbeit, wie in einer Session diskutiert wurde: Obwohl die EZ per se ein „Risikogeschäft“ ist, gibt es nach wie vor wenig Akzeptanz für negative Ergebnisse.

Zu WEM?

Wie oben bereits mehrfach angeklungen ist: Wir richten uns im Bereich PME an eine Vielzahl von Adressat*innen: Geldgeber, Öffentlichkeit, Partnerorganisationen, Projektmitarbeiter*innen… Wichtig ist, dass diese Adressat*innen als „aktives Publikum“ zu verstehen sind, das Inhalte ähnlich wie bei der Rezeption von anderen Medien bedürfnisorientiert und zielgerichtet aussucht (vgl. dazu Taddicken und Wicke 2020). Diese verschiedenen Bedürfnisse und Ziele der Adressat*innen von Evaluation müssen wir im Blick halten.

Mit welcher WIRKUNG?

An vielen Stellen klang während der Jahrestagung an, dass Evaluierungen ihre Wirkungen nicht erst nach Abgabe des Berichts entfalten, sondern auch während des Prozesses. „Process use“ hat MQ Patton definiert als

“individual changes in thinking and behaviour and program or organizational changes in procedures and culture that occur among those involved in evaluation as a result of the learning that occurs during the evaluation process” (Patton 1997, p. 90).

Vor allem die Kommunikation negativer Ergebnisse kann nicht früh genug während des Prozesses erfolgen.

Ein neues Arbeitsinstrument? Die Evaluations-Kommunikationsstrategie

Viele von den Aspekten, die ich bis hierhin genannt habe, können im Rahmen einer Evaluierung in einer Kommunikationsstrategie festgehalten werden. Ich sehe eine solche Strategie als ein internes Arbeitsdokument, das wir Evaluator*innen während der Planungsphase erstellen sollten. Je nach Umfang der Evaluierung insgesamt könnte die Kommunikationsstrategie auch mit den Auftraggeber*innen abgestimmt und als Teil des Inception Reports verschriftlicht werden. Das Thema hab ich mir ganz oben auf meine Liste für künftige Blogposts gesetzt und werde dann von hier aus dorthin verlinken.

Das waren in aller Kürze (puh!) meine Take-Aways der Tagung. Was würden Sie noch ergänzen?

4 Kommentare
  1. Nikolaus Rentrop
    Nikolaus Rentrop sagte:

    Vielen Dank für die prägnante Zusammenfassung und die persönlichen Takeaways! Mir ging es in ganz vielen Aspekten genau so. Ich hätte drei Anmerkungen bzw. Rückfragen:

    1) Die Idee mit den virtuellen Kaffeepausen fand ich auch super! Ich hoffe und werde versuchen darauf hinzuarbeiten, dass sich das auch bei anderen Online-Tagungen und -Workshops durchsetzt. Vielen Dank auch für den Buchtipp von Nir Eyal (guilty as charged…).

    2) Zum neuen OECD-DAC-Kriterium der Kohärenz: im Unterschied zu dem schon lange geltenden Kriterium Relevanz verstehe ich es so, dass sich die Kohärenz auf die Zusammenstimmung einer Maßnahme/Intervention/eines Projekts sowohl mit anderen Maßnahmen derselben Geberin oder Durchführungsorganisation (interne Kohärenz) als auch mit verwandten Maßnahmen der Partner und anderer Geberinnen oder Durchführungsorganisationen (externe Kohärenz) bezieht. Die meinem Empfinden nach etwas allgemeiner zu verstehende Passung in den lokalen, regionalen und institutionellen Kontext hätte ich eher bei der Relevanz verortet. Da zeigt sich auch schon, dass es trotz der wirklich wertvollen Definitionsarbeit, die innerhalb des DAC geleistet wurde, meiner Meinung nach immer noch gewisse Überschneidungen zwischen den Kriterien Relevanz und Kohärenz gibt. Was ist Deine Einschätzung dazu?

    3) Danke auch für die Synopse der Keynote von Prof. Taddicken. Ich konnte den Vortrag leider nicht anhören und habe jetzt trotzdem das Gefühl, die wesentlichen Inhalte mitgenommen zu haben. Und du hast absolut recht: gerade die wertvolle Expertise von Grafikdesigner*innen und Wissenschaftskommunikator*innen wird bei Evaluationen immer noch zu wenig gewertschätzt und zu selten als lohnende Investition gesehen.

    Alles in allem eine echt gelungene Kommunikation über Kommunikation ;-).

    Herzliche Grüße,
    Niko

    Antworten
    • Evelyn Funk
      Evelyn Funk sagte:

      Hi Niko,

      danke für deine Rückmeldung! Der erste Kommentar im PME-Blog! 🙂

      Zum Thema Evaluationskriterien: Ich stimme dir total zu. Ich finde die Abgrenzung zwischen Relevanz und Kohärenz auch wahnsinnig schwierig und ich glaube, wir müssen ein Stück weit mit den Überschneidungen der beiden Konzepte leben. Mir hilft es ein bisschen, beim Thema Kohärenz an die Prinzipien Harmonisierung und Alignment zu denken, wie sie in der Paris Declaration festgeschrieben sind. Und ich habe die Hoffnung, dass die Abgrenzung durch den Orientierungsleitfaden des BMZ auch noch etwas deutlicher wird…

      Viele Grüße,
      Evelyn

      Antworten
  2. K.-H. Stammen
    K.-H. Stammen sagte:

    Liebe Evelyn,

    auch von mir herzlichen Dank für das Teilen deiner Take-Aways! Deinen Blog kannte ich noch nicht, ich finde deine ersten Beiträge aber super spannend und lehrreich und werde jetzt öfter mal vorbei schauen. Mach weiter so!

    Alles Gute und viele Grüße
    K.

    Antworten

Diskutieren Sie mit!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.