Wie ein Fisch im Wasser? Hochschulen und Big Data
Wie ein Fisch im Wasser? Hochschulen und Big Data
31.12.14Am 13. November 2014 veranstaltete der Stifterverband für die Deutsche Wissenschaft das traditionsreiche Villa-Hügel-Gespräch und bat Experten aus Wissenschaft, Wirtschaft und Politik unter dem Titel Hochschule 4.0 zu einer Diskussion über Potentiale der Digitalisierung für Lehre und Forschung in Deutschland. Zum Ende des Jahres bietet es sich an, noch einmal einen Punkt aus dieser Veranstaltung herauszugreifen und sich im Blogschwerpunkt Technologie des Monats mit der Thematik von Big Data im Kontext des Hochschulforums auseinanderzusetzen.
Was ist Big Data?
Der Name des Phänomens ist Programm, es geht um unvorstellbar große Mengen von Daten, die hochleistungsfähige Rechner erfordern, um gespeichert und verarbeitet zu werden. Das Phänomen ist derzeit in vielen Bereichen der Gesellschaft als Schlagwort anzutreffen, sei es in der Industrie oder der Wissenschaft. Auch der Sektor der Hochschullehre ist davon nicht ausgenommen.
Studierende sind Produzierende von Big Data, indem sie schlicht das tun, was sie schon seit Generationen tun, nämlich Vorlesungen und Seminare besuchen, den Stoff durch Lektüre und Diskussion vertiefen und Prüfungen in Form von Klausuren und Hausarbeiten absolvieren. Der Unterschied zu allen vorherigen Zeiten liegt darin, dass durch die Einbindung digitaler Formate eine Speicherung und Auswertung dieser Aktivitäten möglich wird. Es wird nachvollziehbar, welche Videolektion wenig rezipiert wird, welche Fragen in Diskussionsforen zu Debatten führen und welche Prüfungen Probleme bereiten. Gerade in Fächern mit einer großen Anzahl von Studierenden und ungünstigeren Betreuungsverhältnissen will man mit diesen Daten einen höheren Grad an Individualisierung erreichen, wie er etwa von Viktor Mayer-Schönberger, einem der Impulsredner beim Villa-Hügel-Gespräch postuliert wird.
Learning Analytics als Netz im Meer von Big Data
Genau hier können Technologien ansetzen, die unter dem Schlagwort Learning Analytics zusammengefasst werden. Bereits seit einigen Jahren zeichnet sich die Entwicklung ab, dass diese Technologien in der Hochschulrealität zur Anwendung gelangen können. So sieht der Horizon-Report 2014 etwa einen Zeithorizont von rund einem Jahr bis zum praktikablen Einsatz der Technologie als realistisch an. Auch in Deutschland thematisieren Experten auf Veranstaltungen wie etwa an der Hochschule Fulda alle Aspekte, die mit dem Einsatz entsprechender Technologien einhergehen. Learning Analytics sollen dabei helfen, aufgrund korrelativer Analysen Aussagen über Lernverhalten und Lernerfolgswahrscheinlichkeiten von Studierenden zu treffen. Anhand der Ergebnisse sollen so Lernhilfen und Betreuungsangebote für schwächere Studierende gemacht und Fördermöglichkeiten für stärkere Studierende angeboten werden. Wie bei vielen neuen Technologien verbinden sich damit ganz unterschiedliche Hoffnungen, die von einer Verbesserung der Betreuung bei gleichzeitig steigenden Studierendenzahlen bis hin zu sinkenden Kosten für das Bildungssystem. Der Bogen streckt sich von Prozessen der Lehrunterstützung bis hin zu direkter didaktischer Anwendung, wenn etwa E-Books adaptiv auf den Benutzer eingehen.
Die Stärke von Learning Analytics hängt dabei eng von der Qualität der Daten ab, mit denen die Technologie arbeiten kann. Ein Werkzeug wie Learning Analytics ähnelt einem Netz, mit dem aus dem Meer der Big Data diejenigen Informationen gefischt werden können, die dazu beitragen, den Ozean von Lernen und Wissen besser zu verstehen. Fischt man jedoch im Trüben oder in einem Teich, so wird man wenig dazu beitragen können, wirkliches Verständnis zu erlangen.
Datenschutz – Was sind die Bedingungen?
Ganz analog zum Beitrag von Herrn Pongratz im vergangenen Monat über Wearables und ihre potentielle Nutzung lassen sich die Konzepte von Big Data und Learning Analytics nicht darstellen, ohne einen kurzen Blick auf die datenschutzrechtliche Seite zu werfen. Wenn die Auswertung von Daten – wie sich international immer wieder zeigt – Macht über das Individuum ausübt und im Falle von Big Data in der Lehre seinen Bildungsverlauf mitbestimmt, so ist darauf zu achten, welche Daten tatsächlich erfasst und/oder ausgewertet werden dürfen. Es stellt sich sicherlich auf die Frage, wer das Mandat erhalten darf, über diese Daten zu verfügen, sei es nun ein staatlicher oder ein privater Akteur. Hier gilt es, eine realistische Einschätzung zu treffen, inwiefern die Ressourcen und das Know-How im eigenen Haus zur Verfügung stehen, um Lösungen zu finden oder ob externe Anbieter – deren Zahl stetig wächst – einen Anteil an dieser Entwicklung haben sollen und dürfen. Klar ist, dass es auch im Ozean von Big Data Schutzzonen geben wird, die vor einer Befischung geschützt sein müssen.
Schlussendlich darf nicht vergessen werden: Wenn ein Zeitalter von Big Data vor der Tür steht, dann müssen auch die Produzierenden von Big Data, die Studierenden, ein Bewusstsein dafür entwickeln, woran sie (mit-)arbeiten. Und so sollte es Gegenstand der Diskussion sein, ob die Aufklärung aus datentechnischer Unmündigkeit nicht auch neue Herausforderungen für die Didaktik und die Curricula an den Hochschulen bereithält.