Kann ein Chatbot Leben retten?
Noch nicht. Onlineberatungsangebote für Menschen in akuten Lebenskrisen betreuen bisher fachlich qualifizierte Personen. Rund um die Uhr verfügbare Chatbots bieten Betroffenen jedoch jetzt schon anonym einen schnellen Erstkontakt. Inwiefern generative KI eigenständig die Notfallbetreuung übernehmen wird, ist noch offen.
HM-Professorin Emily Engelhardt von der Fakultät für angewandte Sozialwissenschaften der HM erforscht den Einfluss und die Gestaltung künstlicher Intelligenz auf die soziale Beratung von Menschen.
Auch, wenn sie noch nicht Leben retten können: Sind ChatGPT und ähnliche Tools bald neue Kolleg:innen der sozialen Berater:innen?
Ja, davon bin ich überzeugt, wenngleich davon auszugehen ist, dass die Einführung von generativer KI insbesondere in Form von Textgeneratoren in der schriftbasierten Onlineberatung noch eine ganze Weile dauern wird. Die Soziale Arbeit ist in Sachen Digitalisierung noch weit hinter anderen Branchen, in denen diese Tools bereits jetzt ganz selbstverständlich und alltäglich genutzt werden. Es ist jedoch davon auszugehen, dass sich auch soziale Organisationen mit dem Thema beschäftigen. Da es in der Beratung immer um hochsensible Themen und Klient:innendaten geht, steht zunächst ein Prozess der Auseinandersetzung mit organisatorischen, fachlichen und datenschutzrechtlichen Fragen an.
Was ist noch ungeklärt beim Einsatz von Tools mit generativer KI wie ChatGPT in der sozialen Beratung?
Zunächst einmal muss man deutlich betonen: ChatGPT selbst ist nicht geeignet für die unmittelbare Nutzung im Kontext von Beratung. Dies verbietet sich vor allem aufgrund des Datenschutzes und der Verschwiegenheitspflicht von sozialpädagogischen Fachkräften. Da alle Daten, die bei ChatGPT eingegeben werden auf den Servern von OpenAI gespeichert werden, würden Fachkräfte hier sicherlich ihre Pflicht für die Vertraulichkeit von Gesprächen zu sorgen, verstoßen.
Da ChatGPT mit Daten aus dem Internet trainiert wurde, entsteht ein Bias, also eine systematische Verzerrung oder Vorurteile, der sich in den Daten, die als Ergebnisse einer Anfrage ausgegeben werden, widerspiegelt. So kann es zu Diskriminierungen und Benachteiligungen kommen. Eine mögliche Lösung wäre, dass die Soziale Arbeit ein eigenes System entwickelt und Fachkräfte, die für den Datenbias sensibilisiert sind, das System mit entsprechend diversen Daten trainieren. Unter der Anwendung hoher Datenschutzauflagen könnte so ein eigener Textgenerator entstehen, der auch für die Beratung nutzbar wäre.
Was für Chancen bieten diese Tools für Ratsuchende wie Mitarbeitende?
Ein Chatbot ist rund um die Uhr verfügbar und anonym nutzbar. Dies ist für Ratsuchende der größte Vorteil. So können sie jederzeit erste Antworten auf drängende Fragen erhalten und müssen nicht auf einen Termin oder die Antwort einer Fachkraft warten. Ebenso könnte ein KI-Beratungstool wie ein Alltagscoach eingesetzt werden, auf den jederzeit zugegriffen werden kann. Diese Einsatzformen unterscheiden sich jedoch von Beratungsgesprächen, in denen eine Fachkraft nicht nur ihr fachliches Wissen zu einem Thema einbringt, sondern vor allem in der Lage ist Zwischentöne wahrzunehmen und einen Beratungsprozess methodisch zu gestalten. Gleichzeitig können Beratungsfachkräfte aber durchaus von KI-Textgeneratoren profitieren, zum Beispiel wenn in der Onlineberatung Schreibblockaden entstehen, sie einen Text in leichte Sprache übersetzen lassen oder Anregungen für nächste Schritte erhalten möchten. Bei allen Anwendungsszenarien bleibt jedoch der Mensch die letzte Instanz: Die Fachkraft wird die Entscheidung treffen, welche Ideen, Inhalte oder Textfragmente sie übernimmt und welche nicht. Und wir sollten nicht vergessen, es entstehen auch neue Exklusionsmechanismen: Nicht alle Ratsuchenden verfügen über die Kompetenzen und Ressourcen, um solche Tools zu nutzen.
Welche Rolle nimmt die Mensch-Mensch-Kommunikation ein, wenn Ratsuchende künftig oft auch mit Maschinen zu tun haben?
Ich denke die Persönlichkeit der einzelnen Beratungsfachkraft wird bedeutsamer werden. Chatbots können erstaunlich gute, einfühlsame und hilfreiche Antworten generieren – manchmal sogar besser als der Mensch. Es wird also darauf ankommen, dass der Mensch einen Mehrwert bietet, den die Maschine nicht erbringt. Das Stichwort „Emotionale Intelligenz“ taucht in diesem Zusammenhang immer wieder auf. Man sollte hierbei jedoch nicht außer Acht lassen, dass die Entwicklungen im Bereich EAI (Emotional Artificial Intelligence) bereits weit fortgeschritten sind. Die Frage „Was macht den Menschen aus“ wird daher auch in der Sozialen Arbeit in Zukunft immer wieder diskutiert werden müssen. Es geht also längst nicht mehr um das „Ob“ beim Einsatz von KI in der Sozialen Arbeit, sondern nur noch um das „Wie“.
Immer noch nicht satt?
Frag das Mindsnacks-Team oder snacke auf unserer Mindsnacks-Website weiter.